946 resultados para mono-sized drops
Resumo:
Rapport de synthèseLe syndrome d'apnées obstructives du sommeil (SAOS) est une pathologie respiratoire fréquente. Sa prévalence est estimée entre 2 et 5% de la population adulte générale. Ses conséquences sont importantes. Notamment, une somnolence diurne, des troubles de la concentration, des troubles de la mémoire et une augmentation du risque d'accident de la route et du travail. Il représente également un facteur de risque cardiovasculaire indépendant.Ce syndrome est caractérisé par la survenue durant le sommeil d'obstructions répétées des voies aériennes supérieures. L'arrêt ou la diminution d'apport en oxygène vers les poumons entraîne des épisodes de diminution de la saturation en oxygène de l'hémoglobine. Les efforts ventilatoires visant à lever l'obstacle présent sur les voies aériennes causent de fréquents réveils à l'origine d'une fragmentation du sommeil.La polysomnographie (PSG) représente le moyen diagnostic de choix. Il consiste en l'enregistrement dans un laboratoire du sommeil et en présence d'un technicien diplômé, du tracé électroencéphalographique (EEG), de l'électrooculogramme (EOG), de l'électromyogramme mentonnier (EMG), du flux respiratoire nasal, de l'oxymétrie de pouls, de la fréquence cardiaque, de l'électrocardiogramme (ECG), des mouvements thoraciques et abdominaux, de la position du corps et des mouvements des jambes. L'examen est filmé par caméra infrarouge et les sons sont enregistrés.Cet examen permet entre autres mesures, de déterminer les événements respiratoires obstructifs nécessaires au diagnostic de syndrome d'apnée du sommeil. On définit une apnée lors d'arrêt complet du débit aérien durant au moins 10 secondes et une hypopnée en cas, soit de diminution franche de l'amplitude du flux respiratoire supérieure à 50% durant au moins 10 secondes, soit de diminution significative (20%) de l'amplitude du flux respiratoire pendant au minimum 10 secondes associée à un micro-éveil ou à une désaturation d'au moins 3% par rapport à la ligne de base. La détection des micro-éveils se fait en utilisant les dérivations électroencéphalographiques, électromyographiques et électrooculographiques. Il existe des critères visuels de reconnaissance de ces éveils transitoire: apparition de rythme alpha (8.1 à 12.0 Hz) ou beta (16 à 30 Hz) d'une durée supérieure à 3 secondes [20-21].Le diagnostic de S AOS est retenu si l'on retrouve plus de 5 événements respiratoires obstructifs par heure de sommeil associés soit à une somnolence diurne évaluée selon le score d'Epworth ou à au moins 2 symptômes parmi les suivants: sommeil non réparateur, étouffements nocturne, éveils multiples, fatigue, troubles de la concentration. Le S AOS est gradué en fonction du nombre d'événements obstructifs par heure de sommeil en léger (5 à 15), modéré (15 à 30) et sévère (>30).La polysomnographie (PSG) comporte plusieurs inconvénients pratiques. En effet, elle doit être réalisée dans un laboratoire du sommeil avec la présence permanente d'un technicien, limitant ainsi son accessibilité et entraînant des délais diagnostiques et thérapeutiques. Pour ces mêmes raisons, il s'agit d'un examen onéreux.La polygraphie respiratoire (PG) représente l'alternative diagnostique au gold standard qu'est l'examen polysomnographique. Cet examen consiste en l'enregistrement en ambulatoire, à savoir au domicile du patient, du flux nasalrespiratoire, de l'oxymétrie de pouls, de la fréquence cardiaque, de la position du corps et du ronflement (par mesure de pression).En raison de sa sensibilité et sa spécificité moindre, la PG reste recommandée uniquement en cas de forte probabilité de SAOS. Il existe deux raisons principales à l'origine de la moindre sensibilité de l'examen polygraphique. D'une part, du fait que l'état de veille ou de sommeil n'est pas déterminé avec précision, il y a dilution des événements respiratoires sur l'ensemble de l'enregistrement et non sur la période de sommeil uniquement. D'autre part, en l'absence de tracé EEG, la quantification des micro-éveils est impossible. Il n'est donc pas possible dans l'examen poly graphique, de reconnaître une hypopnée en cas de diminution de flux respiratoire de 20 à 50% non associée à un épisode de désaturation de l'hémoglobine de 3% au moins. Alors que dans l'examen polysomnographique, une telle diminution du flux respiratoire pourrait être associée à un micro-éveil et ainsi comptabilisée en tant qu'hypopnée.De ce constat est né la volonté de trouver un équivalent de micro-éveil en polygraphie, en utilisant les signaux à disposition, afin d'augmenter la sensibilité de l'examen polygraphique.Or plusieurs études ont démontrés que les micro-éveils sont associés à des réactions du système nerveux autonome. Lors des micro-éveils, on met en évidence la survenue d'une vasoconstriction périphérique. La variation du tonus sympathique associée aux micro-éveils peut être mesurée par différentes méthodes. Les variations de l'amplitude de l'onde de pouls mesurée par pulsoxymétrie représentant un marqueur fiable de la vasoconstriction périphérique associée aux micro-réveils, il paraît donc opportun d'utiliser ce marqueur autonomique disponible sur le tracé des polygraphies ambulatoires afin de renforcer la sensibilité de cet examen.Le but de l'étude est d'évaluer la sensibilité des variations de l'amplitude de l'onde de pouls pour détecter des micro-réveils corticaux afin de trouver un moyen d'augmenter la sensibilité de l'examen polygraphique et de renforcer ainsi sont pouvoir diagnostic.L'objectif est de démontrer qu'une diminution significative de l'amplitude de l'onde pouls est concomitante à une activation corticale correspondant à un micro¬réveil. Cette constatation pourrait permettre de déterminer une hypopnée, en polygraphie, par une diminution de 20 à 50% du flux respiratoire sans désaturation de 3% mais associée à une baisse significative de l'amplitude de pouls en postulant que l'événement respiratoire a entraîné un micro-réveil. On retrouve par cette méthode les mêmes critères de scoring d'événements respiratoires en polygraphie et en polysomnographie, et l'on renforce la sensibilité de la polygraphie par rapport au gold standard polysomnographique.La méthode consiste à montrer en polysomnographie qu'une diminution significative de l'amplitude de l'onde de pouls mesurée par pulsoxymétrie est associée à une activation du signal électroencéphalographique, en réalisant une analyse spectrale du tracé EEG lors des baisses d'amplitude du signal d'onde de pouls.Pour ce faire nous avons réalisé une étude rétrospective sur plus de 1000 diminutions de l'amplitude de l'onde de pouls sur les tracés de 10 sujets choisis de manière aléatoire parmi les patients référés dans notre centre du sommeil (CIRS) pour suspicion de trouble respiratoire du sommeil avec somnolence ou symptomatologie diurne.Les enregistrements nocturnes ont été effectués de manière standard dans des chambres individuelles en utilisant le système d'acquisition Embla avec l'ensemble des capteurs habituels. Les données ont été par la suite visuellement analysées et mesurées en utilisant le software Somnologica version 5.1, qui fournit un signal de l'amplitude de l'onde de pouls (puise wave amplitude - PWA).Dans un premier temps, un technicien du sommeil a réalisé une analyse visuelle du tracé EEG, en l'absence des données du signal d'amplitude d'onde de pouls. Il a déterminé les phases d'éveil et de sommeil, les stades du sommeil et les micro¬éveils selon les critères standards. Les micro-éveils sont définis lors d'un changement abrupt dans la fréquence de l'EEG avec un pattern d'ondes thêta-alpha et/ou une fréquence supérieure à 16 Hz (en l'absence de fuseau) d'une durée d'au minimum trois secondes. Si cette durée excède quinze secondes, l'événement correspond à un réveil.Puis, deux investigateurs ont analysé le signal d'amplitude d'onde de pouls, en masquant les données du tracé EEG qui inclut les micro-éveils. L'amplitude d'onde de pouls est calculée comme la différence de valeur entre le zénith et le nadir de l'onde pour chaque cycle cardiaque. Pour chaque baisse de l'amplitude d'onde de pouls, la plus grande et la plus petite amplitude sont déterminées et le pourcentage de baisse est calculé comme le rapport entre ces deux amplitudes. On retient de manière arbitraire une baisse d'au moins 20% comme étant significative. Cette limite a été choisie pour des raisons pratiques et cliniques, dès lors qu'elle représentait, à notre sens, la baisse minimale identifiable à l'inspection visuelle. Chaque baisse de PWA retenue est divisée en 5 périodes contiguës de cinq secondes chacune. Deux avant, une pendant et deux après la baisse de PWA.Pour chaque période de cinq secondes, on a pratiqué une analyse spectrale du tracé EEG correspondant. Le canal EEG C4-A1 est analysé en utilisant la transformée rapide de Fourier (FFT) pour chaque baisse de PWA et pour chaque période de cinq secondes avec une résolution de 0.2 Hz. La distribution spectrale est catégorisée dans chaque bande de fréquence: delta (0.5 à 4.0 Hz); thêta (4.1 à 8.0Hz); alpha (8.1 à 12.0 Hz); sigma (12.1 à 16 Hz) et beta (16.1 à 30.0 Hz). La densité de puissance (power density, en μΥ2 ) pour chaque bande de fréquence a été calculée et normalisée en tant que pourcentage de la puissance totale. On a déterminé, ensuite, la différence de densité de puissance entre les 5 périodes par ANOVA on the rank. Un test post hoc Tukey est été utilisé pour déterminer si les différences de densité de puissance étaient significatives. Les calculs ont été effectués à l'aide du software Sigmastat version 3.0 (Systat Software San Jose, California, USA).Le principal résultat obtenu dans cette étude est d'avoir montré une augmentation significative de la densité de puissance de l'EEG pour toutes les bandes de fréquence durant la baisse de l'amplitude de l'onde de pouls par rapport à la période avant et après la baisse. Cette augmentation est par ailleurs retrouvée dans la plupart des bande de fréquence en l'absence de micro-réveil visuellement identifié.Ce résultat témoigné donc d'une activation corticale significative associée à la diminution de l'onde de pouls. Ce résulat pourrait permettre d'utiliser les variations de l'onde de pouls dans les tracés de polygraphie comme marqueur d'une activation corticale. Cependant on peut dire que ce marqueur est plus sensible que l'analyse visuelle du tracé EEG par un technicien puisque qu'on notait une augmentation de lactivité corticale y compris en l'absence de micro-réveil visuellement identifié. L'application pratique de ces résultats nécessite donc une étude prospective complémentaire.
Resumo:
U-Pb dating of zircons by laser ablation inductively coupled plasma mass spectrometry (LA-ICPMS) is a widely used analytical technique in Earth Sciences. For U-Pb ages below 1 billion years (1 Ga), Pb-206/U-238 dates are usually used, showing the least bias by external parameters such as the presence of initial lead and its isotopic composition in the analysed mineral. Precision and accuracy of the Pb/U ratio are thus of highest importance in LA-ICPMS geochronology. We consider the evaluation of the statistical distribution of the sweep intensities based on goodness-of-fit tests in order to find a model probability distribution fitting the data to apply an appropriate formulation for the standard deviation. We then discuss three main methods to calculate the Pb/U intensity ratio and its uncertainty in the LA-ICPMS: (1) ratio-of-the-mean intensities method, (2) mean-of-the-intensity-ratios method and (3) intercept method. These methods apply different functions to the same raw intensity vs. time data to calculate the mean Pb/U intensity ratio. Thus, the calculated intensity ratio and its uncertainty depend on the method applied. We demonstrate that the accuracy and, conditionally, the precision of the ratio-of-the-mean intensities method are invariant to the intensity fluctuations and averaging related to the dwell time selection and off-line data transformation (averaging of several sweeps); we present a statistical approach how to calculate the uncertainty of this method for transient signals. We also show that the accuracy of methods (2) and (3) is influenced by the intensity fluctuations and averaging, and the extent of this influence can amount to tens of percentage points; we show that the uncertainty of these methods also depends on how the signal is averaged. Each of the above methods imposes requirements to the instrumentation. The ratio-of-the-mean intensities method is sufficiently accurate provided the laser induced fractionation between the beginning and the end of the signal is kept low and linear. We show, based on a comprehensive series of analyses with different ablation pit sizes, energy densities and repetition rates for a 193 nm ns-ablation system that such a fractionation behaviour requires using a low ablation speed (low energy density and low repetition rate). Overall, we conclude that the ratio-of-the-mean intensities method combined with low sampling rates is the most mathematically accurate among the existing data treatment methods for U-Pb zircon dating by sensitive sector field ICPMS.
Resumo:
In work-zone configurations where lane drops are present, merging of traffic at the taper presents an operational concern. In addition, as flow through the work zone is reduced, the relative traffic safety of the work zone is also reduced. Improving work-zone flow-through merge points depends on the behavior of individual drivers. By better understanding driver behavior, traffic control plans, work zone policies, and countermeasures can be better targeted to reinforce desirable lane closure merging behavior, leading to both improved safety and work-zone capacity. The researchers collected data for two work-zone scenarios that included lane drops with one scenario on the Interstate and the other on an urban arterial roadway. The researchers then modeled and calibrated these scenarios in VISSIM using real-world speeds, travel times, queue lengths, and merging behaviors (percentage of vehicles merging upstream and near the merge point). Once built and calibrated, the researchers modeled strategies for various countermeasures in the two work zones. The models were then used to test and evaluate how various merging strategies affect safety and operations at the merge areas in these two work zones.
Resumo:
O objetivo deste trabalho foi avaliar uma nova metodologia para mapeamento da cultura da soja no Estado de Mato Grosso, por meio de imagens Modis e de diferentes abordagens de classificação de imagens. Foram utilizadas imagens diárias e imagens de 16 dias. As imagens diárias foram diretamente classificadas pelo algoritmo Isoseg. As duas séries de imagens de 16 dias, referentes ao ciclo total e à metade do ciclo da cultura da soja, foram transformadas pela análise de componentes principais (ACP), antes de serem classificadas. Dados de referência, obtidos por interpretação visual de imagens do sensor TM/Landsat-5, foram utilizados para a avaliação da exatidão das classificações. Os melhores resultados foram obtidos pela classificação das imagens do ciclo total da soja, transformadas pela ACP: índice global de 0,83 e Kappa de 0,63. A melhor classificação de imagens diárias mostrou índice global de 0,80 e Kappa de 0,55. AACP aplicada às imagens do ciclo total da soja permitiu o mapeamento das áreas de soja com índices de exatidão melhores do que os obtidos pela classificação derivada das imagens de data única.
Resumo:
O melhoramento, visando à seleção de porta-enxertos com tendência ananicante para mangueira nas condições dos Cerrados, é de grande importância. As cultivares de manga para exportação Tommy Atkins e Haden, embora muito produtivas e com frutas de coloração excelente e polpa sem fibras, são muito vigorosas e de porte muito elevado, o que dificulta os tratos culturais e a colheita. O objetivo do trabalho foi obter o efeito interativo da copa x porta-enxerto sobre a altura da planta, sua produtividade e qualidade de frutas.
Resumo:
Tutkimus koostuu neljästä artikkelista, jotka käsittelevät suomalaisten pienten ja keskisuurten teollisuusyritysten (PKT-yritysten) innovatiivisuutta, sen attribuutteja (ominaispiirteitä) sekä indikaattoreita. Tutkimuksessa tarkastellaan sekä kirjallisuudessa esitettyjä että PKT-johtajien ja PKT-yritystenkehityshankkeiden rahoituspäätöksiin osallistuvien yritystutkijoiden haastatteluissa esittämiä innovatiivisuuden määritelmiä. Innovatiivisuusindikaattoreista tarkastellaan PKT-yritysten kehittämishankkeille sovellettavia rahoitus- ja arviointikriteerejä sekä yritysten ulkopuolisten rahoittajien että PKT-johtajien näkökulmasta. Erityistä huomiota kohdistetaan sovellettuihin laadullisiin ja ei-numeerisiin innovatiivisuuden arviointikriteereihin. Sekä kirjallisuudessa että kymmenen yritystutkijan ja kuuden esimerkkiyrityksen johtajan haastatteluissa innovaation uutuus yhdistetään innovatiivisuuteen. Muita tärkeitä innovatiivisuuteen liitettyjä ominaisuuksia olivat markkinat, muista yrityksistä erottuminen ja yksilöiden luovuus. Ihmisläheiset ja yksilöihin liittyvät näkökulmat korostuvat yritystutkijoiden ja PKT-johtajien innovatiivisuuden määritelmissä, kun taas kirjallisuudessa annetaan enemmän painoa ympäristölle, tuotteille ja markkinoille. Yritystutkijat pitivät yritykseen ja sen johtajaan liittyviä tekijöitä tärkeinä rahoitettavien kehittämishankkeiden panosten arviointikriteereinä. Tuotteiden kaupallinen menestys oli rahoittajan kannalta tärkein tulostekijä. Tarkastelluissa esimerkkiyrityksissä kehityshankkeista päättäminen ja hankkeiden arviointi on toisaalta intuitiivista ja saattaa olla tiedostamatontakin, koska yritysten kehittämistoiminta on vähäistä. Pienyritysten johtajat korostavat arvioinnissa rahallisiamittareita, vaikka sekä numeerisia että laadullisia kriteereitä sovelletaan. Todennäköisin syy tälle on pienyritysten rajalliset taloudelliset voimavarat. Toinen mahdollinen syy rahoituksellisten tekijöiden painottamiseen on, että tämän päivän ihannejohtaja ymmärretään analyyttiseksi ja mm.rahavirtoja valvovaksi. Kuitenkin innovatiiviset yritysjohtajat pitävät innovaatioiden luomista yhtenä elämän hauskoista puolista. Innovatiiviset esimerkkiyritykset ovat tulevaisuuteen ja kasvuun suuntautuneita strategisella tasolla. Operationaalisella tasolla ne tuottavat keksintöjä ja innovaatioita. Patentteja tarkastelluilla yrityksillä on kuitenkin vähän. Sekä innovatiiviset että vähemmän innovatiiviset esimerkkiyritykset ovat voimakkaasti asiakassuuntautuneita ja erikoistuneita tiettyihin tuotteisiin ja asiakkaisiin. Asiakkaiden tarpeita tyydytetään kehittämällä niitä vastaavia tuotteita. Tästä johtuu, että valtaosa yritysten kehittämistoiminnasta kohdistuu tuotteisiin tai tuotantoon.
Resumo:
PURPOSE: To determine whether a mono-, bi- or tri-exponential model best fits the intravoxel incoherent motion (IVIM) diffusion-weighted imaging (DWI) signal of normal livers. MATERIALS AND METHODS: The pilot and validation studies were conducted in 38 and 36 patients with normal livers, respectively. The DWI sequence was performed using single-shot echoplanar imaging with 11 (pilot study) and 16 (validation study) b values. In each study, data from all patients were used to model the IVIM signal of normal liver. Diffusion coefficients (Di ± standard deviations) and their fractions (fi ± standard deviations) were determined from each model. The models were compared using the extra sum-of-squares test and information criteria. RESULTS: The tri-exponential model provided a better fit than both the bi- and mono-exponential models. The tri-exponential IVIM model determined three diffusion compartments: a slow (D1 = 1.35 ± 0.03 × 10(-3) mm(2)/s; f1 = 72.7 ± 0.9 %), a fast (D2 = 26.50 ± 2.49 × 10(-3) mm(2)/s; f2 = 13.7 ± 0.6 %) and a very fast (D3 = 404.00 ± 43.7 × 10(-3) mm(2)/s; f3 = 13.5 ± 0.8 %) diffusion compartment [results from the validation study]. The very fast compartment contributed to the IVIM signal only for b values ≤15 s/mm(2) CONCLUSION: The tri-exponential model provided the best fit for IVIM signal decay in the liver over the 0-800 s/mm(2) range. In IVIM analysis of normal liver, a third very fast (pseudo)diffusion component might be relevant. KEY POINTS: ? For normal liver, tri-exponential IVIM model might be superior to bi-exponential ? A very fast compartment (D = 404.00 ± 43.7 × 10 (-3) mm (2) /s; f = 13.5 ± 0.8 %) is determined from the tri-exponential model ? The compartment contributes to the IVIM signal only for b ≤ 15 s/mm (2.)
Resumo:
Tutkimuksen tavoitteena on tarkastella tekijöitä, joista ydinosaaminen muodostuu, sekä sitä kuinka yritykset voisivat parhaiten hyödyntää omia resurssejaan ja osaamistaan tunnistetun ydinosaamisen avulla. Teoria osuudessa käydään läpi kuinka ydinosaaminen on kirjallisuudessa määritelty ja miten yritykset voivat sen määritellä sisäisesti itselleen. Empiirisessä osiossa käydään läpi Telecom Business Research Centerissä tehdyn kvantitatiivisen selvityksen pohjalta valitut kolme sisällöntuottaja case - yritystä sekä kuvataan näiden osaamista. Tiedot yrityksistä perustuvat niiden edustajille tehtyihin haastatteluihin ja heidän käsitykseensä omasta yrityksestään. Tämä näkemys on tutkimuksen kannalta äärimmäisen relevanttia, koska ydinosaamisen määrittely tehdään yrityksessä sisäisesti juuri haastatellun kaltaisten yrityksen ydintoimijoiden toimesta. Varsinaisten case -yritysten lisäksi käydään läpi käytännön tapaus action-oriented -tutkimusosuudessa. Tutkimusta ja siinä käsiteltyjä esimerkkejä tulisi hyödyntää yrityksen oman ydinosaamisselvityksen apuna prosessin varrella.
Resumo:
Työn tavoitteena oli selvittää, miten eri parametrit vaikuttavat monilankaisen verrannollisuuslaskurin laskennallisiin ominaisuuksiin sekä voidaanko suurikokoista monilankaverrannollisuuslaskuria käyttää tehokkaasti suurien pintojen ? - ja ?- kontaminaation mittaamiseen. Ensin selvitettiin EU:n nykyistä clearing-käytäntöä sekä hahmoteltiin tulevia materiaalivirtoja, esiteltiin verrannollisuuslaskurin ja sen monilankamallin toimintaperiaate sekä käytettävien materiaalien ominaisuudet. Kootun teorian pohjalta selvitettiin tärkeimpien parametrien vaikutus ilmaisimen laskennallisiin ominaisuuksiin. Lopuksi suoritettiin rakenteilla olevan monilankaverrannollisuuslaskurin alustava testaus. Tulevien vuosien aikana eri puolilla maailmaa suljettavat erityyppiset ydinlaitokset luovat suuren tarpeen tehokkaiden kontaminaatiomittauslaitteistojen kehittämiselle. Tällä hetkellä mittaukset suoritetaan lähinnä noin 1 dm2 käsi-instrumentein, joten suurikokoinen, automatisoitu mittauslaitteisto sekä tehostaisi mittausprosessia suuresti sekä säästäisi runsaasti miestyötunteja. Jatkotoimenpiteiksi ehdotetaan laitteiston jatkotestausta, liikkeen ja nopeuden testausta sekä lopulta paikkaherkkyystoiminnon toteuttamisperiaatteen valintaa ja testausta.
Resumo:
Kaksifaasivirtauksen kuvaamiseen käytettävät mallit, ja menetelmät kaksifaasivirtauksen painehäviön määrittämiseksi kehittyvät yhä monimutkaisimmiksi. Höyrystinputkissa tapahtuvien painehäviöiden arvioinnin vaatiman laskennan suorittamiseksi tietokoneohjelman kehittäminen on välttämätöntä. Tässä työssä on kehitetty itsenäinen PC-ohjelma painehäviöiden arvioimiseksi pakotetulle konvektiovirtaukselle pystysuorissa höyrykattilan höyrystinputkissa. Veden ja vesihöyryn aineominaisuuksien laskentaan käytetään IAPWS-IF97 –yhtälökokoelmaa sekä muita tarvittavia IAPWS:n suosittelemia yhtälöitä. Höyrystinputkessa kulloinkin vallitsevan virtausmuodon määrittämiseen käytetään sovelluskelpoisia virtausmuotojen välisiä rajoja kuvaavia yhtälöitä. Ohjelmassa käytetään painehäviön määritykseen kirjallisuudessa julkaistuja yhtälöitä, virtausmuodosta riippuen, alijäähtyneelle virtaukselle, kupla-, tulppa- ja rengasvirtaukselle sekä tulistetun höyryn virtaukselle. Ohjelman laskemia painehäviöarvioita verrattiin kirjallisuudesta valittuihin mittaustuloksiin. Laskettujen painehäviöiden virhe vaihteli välillä –19.5 ja +23.9 %. Virheiden itseisarvojen keskiarvo oli 12.8 %.
Resumo:
Tyon tavoitteena on selvittaa. mitka myyntistrategian ja siihen liittyvien muiden strategioiden kriittiset osat pienten ja keskisuurten ICT- yritysten toiminnassa. Tutkimusmenetelmana kaytettiin case- tutkimusta, jossa vertailtiin neljan pienen ja keskisuuren ohjelmisto talon toimintaa. Tutkimuksessa tunnistettiin nelja kriittista osa-aluetta, joiden hoitamiseen yritysten erityisesti tulisi kiinnittaa huomiota. Nama olivat: segmentointi ja kohdemarkkinoiden valinta, myyntikanavien valinta, myyntihenkiloston organisointi ja asiakassuuntautuneisuus, ja markkinointi tietojarjestelma. Tutkimus osoitti, etta yrityksen kasvaessa ja omistuksen eriytyessa toimivasta johdosta yrityksen strategia suunnittelusta tulee jarjestelmallisempaa.
Resumo:
Tutkimuksen päätavoite on selvitää infocom-toimialan pk-yritysten kansainväliset kasvustrategiat. Aluksi on tarkasteltu kasvua edesauttaneita ja hidastaneita tekijöitä, jotka muodostavat pohjan kansainvälisen kasvun suunnittelulle. Näiden pohjalta on aikaisemmin esitettyihin teoriamalleihin ja yritysten kansainvälistymisen asteeseen yhdistettynä määritelty infocom-toimialan pk-yrityksten kansainväliset kasvustrategiavaihtoehdot. Tutkimuksen tarkasteluun on vaikuttanut born global-ilmiö, jonka pääpiirre on nopea kansainvälistyminen yrityksen aikaisessa kehitysvaiheessa. Työn empiirisessä osassa on havainnollistettu teoriassa käsiteltyjä kansainväliseen kasvuun liittyviä tekijöitä. Empiirisessä osassa on käytetty sekä kvantitatiivisia että kvalitatiivisia menetelmiä. Kvantitatiivinen survey tutkimus on pohjautunut aineistoon, joka on kerätty vuosina 1999-2000 Telecom Business Research Centerissä Lappeenrannassa. Kvalitatiivisessa case-tutkimuksessa on haastateltu infocom-toimialan pk-yrityksiä. Nopeasti kehittyvän infocom-toimialan pk-yrityksille kansainvälistyminen on haaste ja tärkein menestyksen edellytys. Pk-yritysten kasvuresurssit ovat rajalliset, mutta lisääntyvän verkostoitumisen myötä on yritysten välisestä yhteistyöstä saavutettu etuja, jotka ovat mahdollistaneet kansainvälisen kasvun. Markkinoiden muutosnopeus on suuri ja siksi strategisen suunnittelun aikaväli lyhenee. Kansainvälisiä kasvustrategioita muodostettaessa yritykset joutuvat samanaikaisesti turvautumaan useampaan eri kasvustrategiaan, joiden yhdistelmänä yritysten merkittävimmäksi kasvustrategiaksi muodostuvat hybridit kasvustrategiat.