864 resultados para Integration and data management
Resumo:
In this correspondence, we propose applying the hiddenMarkov models (HMM) theory to the problem of blind channel estimationand data detection. The Baum–Welch (BW) algorithm, which is able toestimate all the parameters of the model, is enriched by introducingsome linear constraints emerging from a linear FIR hypothesis on thechannel. Additionally, a version of the algorithm that is suitable for timevaryingchannels is also presented. Performance is analyzed in a GSMenvironment using standard test channels and is found to be close to thatobtained with a nonblind receiver.
Resumo:
There is a broad consensus among economists that technologicalchange has been a major contributor to the productivity growth and, hence, to the growth of the material welfare in western industrialized countries at least over the last century. Paradoxically, this issue has not been the focal point of theoretical economics. At the same time, we have witnessed the rise of the importance of technological issues at the strategic management level of business firms. Interestingly, the research has not accurately responded to this challenge either. The tension between the overwhelming empirical evidence of the importance of technology and its relative omission in the research offers a challenging target for a methodological endeavor. This study deals with the question of how different theories cope with technology and explain technological change. The focusis at the firm level and the analysis concentrates on metatheoretical issues, except for the last two chapters, which examine the problems of strategic management of technology. Here the aim is to build a new evolutionary-based theoreticalframework to analyze innovation processes at the firm level. The study consistsof ten chapters. Chapter 1 poses the research problem and contrasts the two basic approaches, neoclassical and evolutionary, to be analyzed. Chapter 2 introduces the methodological framework which is based on the methodology of isolation. Methodological and ontoogical commitments of the rival approaches are revealed and basic questions concerning their ways of theorizing are elaborated. Chapters 3-6 deal with the so-called substantive isolative criteria. The aim is to examine how different approaches cope with such critical issues as inherent uncertainty and complexity of innovative activities (cognitive isolations, chapter 3), theboundedness of rationality of innovating agents (behavioral isolations, chapter4), the multidimensional nature of technology (chapter 5), and governance costsrelated to technology (chapter 6). Chapters 7 and 8 put all these things together and look at the explanatory structures used by the neoclassical and evolutionary approaches in the light of substantive isolations. The last two cpahters of the study utilize the methodological framework and tools to appraise different economics-based candidates in the context of strategic management of technology. The aim is to analyze how different approaches answer the fundamental question: How can firms gain competitive advantages through innovations and how can the rents appropriated from successful innovations be sustained? The last chapter introduces a new evolutionary-based technology management framework. Also the largely omitted issues of entrepreneurship are examined.
Resumo:
Työn tärkeimpänä tavoitteena oli edistää ympäristöjärjestelmän laatimista Kvaerner Pulping, Power divisioonan Kattilat-liiketoimintayksikölle. Lisäksi tavoitteena oli tarkastella yritykseen kohdistuvia ympäristövaatimuksia ja niiden vaikutusta yrityksen toimintaan. Aluksi työssä tarkasteltiin ympäristöjärjestelmästandardien sisältöjä ja niiden eroja. Työssä käsiteltiin myös erilaisia elinkaarijohtamisen malleja, joita voidaan hyödyntää yrityksen kokonaisvaltaisessa ympäristöjärjestelmässä. Työssä tarkasteltiin myös sidosryhmien vaikutusta yrityksen ympäristötoimintaan. Kattilalaitostoimittajan tärkeimpiä asiakkaita ovat sellu- ja paperiteollisuus. Näihin yrityksiin on kohdistunut runsaan kymmenen vuoden aikana paineita ympäristötoiminnan tehostamiseksi. Tämän kehityksen seurauksena vastaavat tehostamispaineet ovat siirtymässä myös alihankkijoille, kuten kattilaitostoimittajille. Tehokkaan ympäristöjohtamisen takaamiseksi työssä määriteltiin ympäristövastuut ja –valtuudet sekä ympäristöpäämäärät ja –tavoitteet. Lisäksi tunnistettiin yrityksen toimintaan liittyvät ympäristönäkökohdat ja –riskit. Työn yhteydessä laadittiin ympäristöjärjestelmän luonnos, ja se sisältää jatkuvan parantamisen periaatteen. Työn yhteydessä laadittiin lisäksi Kvaerner Pulping Oy:n koelaitokselle ympäristölupahakemus. Työssä on kuvattu koelaitosta ja sen ympäristölupahakemukseen liittyviä asioita esimerkkinä parantuneesta ympäristöasioiden hoidosta.
Resumo:
Tutkimuksen tavoitteena oli kerätä Elcoteq Network Oyj:n myyntihenkilöiden tietotarpeet ja konkretisoida ne raportoinnin kautta. Tutkimus keskittyi asiakasvirran eri vaiheissa tarvittavaan asiakas- ja projektikohtaiseen tietoon. Tarkoituksena oli parantaa raportointia vastaamaan asiakkaan ja sales case:n hallintaa alkaen asiakasvirran uusasiakasvaiheesta ja projektin arvioinnista. Tietotarpeet kerättiin haastattelujen avulla ja osallistumalla aiheeseen liittyviin projekteihin. Haastattelujen ja teorian avulla projektiliiketoiminnan avainpiirteet ja asiakaskannattavuuteen vaikuttavat tekijät kerättiin yhteen ja muutettiin konkretiaksi raportoinnin parannusehdotuksien kautta. Tutkimus osoitti, että myyntihenkilöiden näkökulmasta olisi muodostettava uudet raportit tukemaan asiakkaan ja projektin hallintaa. Ennustettu voidaan verrata toteutuneeseen ja sekä asikkuuden, että sales case:n seuranta paranee uusien raporttien avulla. Budjetit, sekä asiakaskohtaiset tavoitteet voidaan laatia luotettavimmin ja kokonaiskuva asiakkuuden ja projektin kannattavuudesta pystytään näkemään ko. raporteista sekä graafein, että numeerisena tietona.
Resumo:
Työn tavoitteena oli määritellä kirjallisuustutkimuksen ja suunnitteluesimerkin avulla vaatimuksia integroidulle simulointiympäristölle, joka sisältää simulointiohjelmien lisäksi prosessilaitteiden mitoitusohjelmia ja prosessilaite- ja mallitietokannan. Lisäksi pohdittiin simulointiympäristön tuomia etuja prosessissuunnitteluun. Esimerkkinä käytettiin yksinkertaista putkilinjaa. Ensin selvitettiin prosessisuunnittelun kulkua, menetelmiä, apuvälineitä ja ajankohtaisia teemoja kirjallisuuden perusteella. Prosessisuunnittelun menetelmistä keskityttiin yksityiskohtaisemmin prosessisimulointiin. Lisäksi etsittiin kirjallisuudesta esimerkkejä integroiduista suunnitteluympäristöistä. Kirjallisuusselvityksen perusteella määriteltiin yleisiä vaatimuksia integroidulle simulointiympäristölle. Seuraavaksi suunniteltiin esimerkkinä käytetty putkilinja ja kuvattiin suunnittelun eteneminen. Suunnitteluesimerkin avulla pyrittiin tunnistamaan suunnitteluprosessista ne kohdat, joissa integroitu simulointiympäristö helpottaisi työskentelyä sekä pohtimaan yksityiskohtaisemmin integroidun simulointiympäristön toimintoja. Lopuksi kuvattiin putkilinjan suunnittelun eteneminen integroidussa simulointiympäristössä ja pohdittiin sen etuja verrattuna perinteiseen putkilinjan suunnitteluun. Tutkimuksen perusteella integroitu simulointiympäristö tehostaa prosessisuunnittelua siten, että simulointimallien määrittelyissä tarvittavat laitetiedot ovat saatavissa helposti ja nopeasti ohjelmien ymmärtämässä muodossa. Simulointiympäristössä tieto eri sovellusten välillä siirtyy osittain automaattisesti, minkä takia ohjelmiin ei erikseen tarvitse syöttää samoja tietoja. Lisäksi integroitu simulointiympäristö tukee rinnakkaista suunnittelua ja automaatio- ja prosessisuunnittelun integrointia.Jatkotutkimusehdotuksena on lisäselvitykset siitä, miten simulointiympäristö sijoittuisi yrityksissä jo olemassa oleviin suunnittelujärjestelmiin, etenkin tiedonhallintajärjestelmiin nähden. Muina jatkotutkimusehdotuksina on integroidun simulointiympäristön tarkasteleminen automaatiosuunnittelijan kannalta sekä vaatimusmäärittelyjen tarkentaminen. Työssä ei juuri ole kiinnitetty huomiota siihen, kuinka helposti ehdotetut simulointiympäristön toiminnot ja vaatimukset ovat toteutettavissa teknisesti tai ylipäätään ovatko toteutettavissa, joten tämäkin vaatinee jatkotutkimuksia.
Resumo:
Tuotteiden elinkaaret elektroniikkateollisuudessa ovat lyhentyneet entisestään. Paineet uusien kehittyneempien tuotteiden lanseeraamiselle ovat kasvaneet. Huonosti hoidettu tuotevaihto voi aiheuttaa merkittäviä kustannuksia yritykselle mikäli alasajon kustannusvaikutusta tulokseen aliarvioidaan. Työ käsittelee markkinoilta poistuvan tuotteen materiaalivirtojen hallintaa tuotevaihdon aikana. Lähtökohtana työssä oli kehittää toimintatapa miten tuotteen alasajon aikana tulisi toimia sekä mallintaa hankintaketju riskien ja pullonkaulojen löytämiseksi. Päätavoitteena oli materiaalivaraston arvon minimoiminen sekä ylijäämämateriaalien hyödyntäminen. Työn merkittävimpiä tuloksia oli hankintaketjun materiaalivirtojen seurantaan kehitetty Excel työkalu sekä alasajon liittyvien työvaiheiden kuvaaminen.
Resumo:
Tutkimusongelmana oli kuinka tiedon johtamisella voidaan edesauttaa tuotekehitysprosessia. Mitkä ovat ne avaintekijät tietoympäristössä kuin myös itse tiedossa, joilla on merkitystä erityisesti tuotekehitysprosessin arvon muodostumiseen ja prosessien kehittämiseen? Tutkimus on laadullinen Case-tutkimus. Tutkimusongelmat on ensin selvitetty kirjallisuuden avulla, jonka jälkeen teoreettinen viitekehys on rakennettu tutkimaan rajattua ongelma-aluetta case-yrityksestä. Empiirisen tutkimuksen materiaali koostuu pääasiallisesti henkilökohtaisten teemahaastattelujen aineistosta. Tulokset merkittävimmistä tiedon hyväksikäytön haittatekijöistä, kuten myös parannusehdotukset on lajiteltu teoreettisessa viitekehyksessä esitettyjen oletustekijöiden mukaan. Haastatteluissa saadut vastaukset tukevat kirjallisuudesta ja alan ammattilaiselta saatua käsitystä tärkeimmistä vaikuttavista tekijöistä. Tärkeimmät toimenpiteet ja aloitteet joilla parannettaisiin tiedon muodostumista, koskivat ennnen kaikkea työnteon ulkoisia olosuhteita, eikä niinkään tiedon muodostumisen prosessia itseään. Merkittävimpiä haittatekijöitä olivat kultturiin, fyysiseen ja henkiseen tilaan ja henkilöstöresursseihin liittyvät ongelmat. Ratkaisuja ongelmiin odotettiin saatavan lähinnä tietotekniikan, henkilöstöresurssien ja itse tiedon muokkaamisen avulla. Tuotekehitysprosessin ydin tietovirtojen ja –pääomien luokittelu ja tulkitseminen tiedon muodostusta kuvaavan Learning Spiralin avulla antoi lähinnä teoreettisia viitteitä siitä millaisia keinoja on olemassa tiedon lisäämiseen ja jakamiseen eri tietotyypeittäin. Tulosten perusteella caseyrityksessä pitäisi kiinnittää erityistä huomiota tiedon dokumentointiin ja jakamiseen erityisesti sen tiedon osalta, joka on organisaatiossa vain harvalla ja/tai luonteeltaan hyvin tacitia.
Resumo:
Laatu on osaltaan vahvistamassa asemaansa liike-elämässä yritysten kilpaillessa kansainvälisillä markkinoilla niin hinnalla kuin laadulla. Tämä suuntaus on synnyttänyt useita laatuohjelmia, joita käytetään ahkerasti yritysten kokonais- valtaisen laatujohtamisen (TQM) toteuttamisessa. Laatujohtaminen kattaa yrityksen kaikki toiminnot ja luo vaatimuksia myös yrityksen tukitoimintojen kehittämiselle ja parantamiselle. Näihin lukeutuu myös tämän tutkimuksen kohde tietohallinto (IT). Tutkielman tavoitteena oli kuvata IT prosessin nykytila. Tutkielmassa laadittu prosessikuvaus pohjautuu prosessijohtamisen teoriaan ja kohdeyrityksen käyttämään laatupalkinto kriteeristöön. Tutkimusmenetelmänä prosessin nykytilan selvittämiseksi käytettiin teemahaastattelutta. Prosessin nykytilan ja sille asetettujen vaatimusten selvittämiseksi haastateltiin IT prosessin asiakkaita. Prosessianalyysi, tärkeimpien ala-prosessien tunnistaminen ja parannusalueiden löytäminen ovat tämän tutkielman keskeisemmät tulokset. Tutkielma painottui IT prosessin heikkouksien ja parannuskohteiden etsimiseen jatkuvan kehittämisen pohjaksi, ei niinkään prosessin radikaaliin uudistamiseen. Tutkielmassa esitellään TQM:n periaatteet, laatutyökaluja sekä prosessijohtamisen terminologia, periaatteet ja sen systemaattinen toteutus. Työ antaa myös kuvan siitä, miten TQM ja prosessijohtaminen niveltyvät yrityksen laatutyössä.
Resumo:
O Breast Imaging Reporting and Data System (BI-RADS™), do American College of hRadiology, foi concebido para padronizar o laudo mamográfico e reduzir os fatores de confusão na descrição e interpretação das imagens, além de facilitar o monitoramento do resultado final. OBJETIVO: Identificar a maneira como vem sendo utilizado o BI-RADS™, gerando informações que possam auxiliar o Colégio Brasileiro de Radiologia a desenvolver estratégias para aperfeiçoar o seu uso. MATERIAIS E MÉTODOS: Os dados foram coletados na cidade de Goiânia, GO. Foram solicitados os exames de mamografia anteriores a todas as mulheres que se dirigiram ao serviço para realização de mamografia entre janeiro/2003 e junho/2003. Foram incluÃdos na análise exames anteriores, realizados entre 1/7/2001 e 30/6/2003. RESULTADOS: Foram coletados 104 laudos anteriores, emitidos por 40 radiologistas de 33 diferentes serviços. Dos 104 laudos, 77% (n = 80) utilizavam o BI-RADS™. Destes, apenas 15% (n = 12) eram concisos, nenhum utilizava a estrutura e organização recomendadas pelo sistema, 98,75% (n = 79) não respeitavam o léxico e 65% (n = 51) não faziam recomendação de conduta. CONCLUSÃO: O BI-RADS™, apesar de bastante utilizado, não foi reconhecido como sistema para padronização dos laudos. Foi usado quase exclusivamente como forma de classificação final dos exames.
Resumo:
Background: Cardiovascular disease (CVD), mainly heart attack and stroke, is the leading cause of premature mortality in low and middle income countries (LMICs). Identifying and managing individuals at high risk of CVD is an important strategy to prevent and control CVD, in addition to multisectoral population-based interventions to reduce CVD risk factors in the entire population. Methods: We describe key public health considerations in identifying and managing individuals at high risk of CVD in LMICs. Results: A main objective of any strategy to identify individuals at high CVD risk is to maximize the number of CVD events averted while minimizing the numbers of individuals needing treatment. Scores estimating the total risk of CVD (e.g. ten-year risk of fatal and non-fatal CVD) are available for LMICs, and are based on the main CVD risk factors (history of CVD, age, sex, tobacco use, blood pressure, blood cholesterol and diabetes status). Opportunistic screening of CVD risk factors enables identification of persons with high CVD risk, but this strategy can be widely applied in low resource settings only if cost effective interventions are used (e.g. the WHO Package of Essential NCD interventions for primary health care in low resource settings package) and if treatment (generally for years) can be sustained, including continued availability of affordable medications and funding mechanisms that allow people to purchase medications without impoverishing them (e.g. universal access to health care). This also emphasises the need to re-orient health systems in LMICs towards chronic diseases management.
Resumo:
Recent advances in machine learning methods enable increasingly the automatic construction of various types of computer assisted methods that have been difficult or laborious to program by human experts. The tasks for which this kind of tools are needed arise in many areas, here especially in the fields of bioinformatics and natural language processing. The machine learning methods may not work satisfactorily if they are not appropriately tailored to the task in question. However, their learning performance can often be improved by taking advantage of deeper insight of the application domain or the learning problem at hand. This thesis considers developing kernel-based learning algorithms incorporating this kind of prior knowledge of the task in question in an advantageous way. Moreover, computationally efficient algorithms for training the learning machines for specific tasks are presented. In the context of kernel-based learning methods, the incorporation of prior knowledge is often done by designing appropriate kernel functions. Another well-known way is to develop cost functions that fit to the task under consideration. For disambiguation tasks in natural language, we develop kernel functions that take account of the positional information and the mutual similarities of words. It is shown that the use of this information significantly improves the disambiguation performance of the learning machine. Further, we design a new cost function that is better suitable for the task of information retrieval and for more general ranking problems than the cost functions designed for regression and classification. We also consider other applications of the kernel-based learning algorithms such as text categorization, and pattern recognition in differential display. We develop computationally efficient algorithms for training the considered learning machines with the proposed kernel functions. We also design a fast cross-validation algorithm for regularized least-squares type of learning algorithm. Further, an efficient version of the regularized least-squares algorithm that can be used together with the new cost function for preference learning and ranking tasks is proposed. In summary, we demonstrate that the incorporation of prior knowledge is possible and beneficial, and novel advanced kernels and cost functions can be used in algorithms efficiently.
Resumo:
Organizations gain resources, skills and technologies to find out the ultimate mix of capabilities to be a winner in the competitive market. These are all important factors that need to be taken into account in organizations operating in today's business environment. So far, there are no significant studies on the organizational capabilities in the field of PSM. The literature review shows that the PSM capabilities need to be studied more comprehensively. This study attempts to reveal and fill this gap by providing the PSM capability matrix that identifies the key PSM capabilities approached from two angles: there are three primary PSM capabilities and nine subcapabilities and, moreover, the individual and organizational PSM capabilities are identified and evaluated. The former refers to the PSM capability matrix of this study which is based on the strategic and operative PSM capabilities that complement the economic ones, while the latter relates to the evaluation of the PSM capabilities, such as the buyer profiles of individual PSM capabilities and the PSMcapability map of the organizational ones. This is a constructive case study. The aim is to define what the purchasing and supply management capabilities are and how they can be evaluated. This study presents a PSM capability matrix to identify and evaluate the capabilities to define capability gaps by comparing the ideal level of PSM capabilities to the realized ones. The research questions are investigated with two case organizations. This study argues that PSM capabilities can be classified into three primary categories with nine sub-categories and, thus, a PSM capability matrix with four evaluation categories can be formed. The buyer profiles are moreover identified to reveal the PSM capability gap. The resource-based view (RBV) and dynamic capabilities view (DCV) are used to define the individual and organizational capabilities. The PSM literature is also used to define the capabilities. The key findings of this study are i) the PSM capability matrix to identify the PSM capabilities, ii) the evaluation of the capabilities to define PSM capability gaps and iii) the presentation of the buyer profiles to identify the individual PSM capabilities and to define the organizational PSM capabilities. Dynamic capabilities are also related to the PSM capability gap. If a gap is identified, the organization can renew their PSM capabilities and, thus, create mutual learning and increase their organizational capabilities. And only then, there is potential for dynamic capabilities. Based on this, the purchasing strategy, purchasing policy and procedures should be identified and implemented dynamically.
Resumo:
This paper presents the current state and development of a prototype web-GIS (Geographic Information System) decision support platform intended for application in natural hazards and risk management, mainly for floods and landslides. This web platform uses open-source geospatial software and technologies, particularly the Boundless (formerly OpenGeo) framework and its client side software development kit (SDK). The main purpose of the platform is to assist the experts and stakeholders in the decision-making process for evaluation and selection of different risk management strategies through an interactive participation approach, integrating web-GIS interface with decision support tool based on a compromise programming approach. The access rights and functionality of the platform are varied depending on the roles and responsibilities of stakeholders in managing the risk. The application of the prototype platform is demonstrated based on an example case study site: Malborghetto Valbruna municipality of North-Eastern Italy where flash floods and landslides are frequent with major events having occurred in 2003. The preliminary feedback collected from the stakeholders in the region is discussed to understand the perspectives of stakeholders on the proposed prototype platform.