956 resultados para Multi-dimensional gas chromatography
Resumo:
The origin of the carbon atoms in CO2 respired by leaves in the dark of several plant species has been studied using 13C/12C stable isotopes. This study was conducted using an open gas exchange system for isotope labeling that was coupled to an elemental analyser and further linked to an isotope ratio mass spectrometer (EA-IRMS) or coupled to a gas chromatography-combustion-isotope ratio mass spectrometer (GC-C-IRMS). We demonstrate here that the carbon, which is recently assimilated during photosynthesis, accounts for nearly ca. 50% of the carbon in the CO2 lost through dark respiration after illumination in fast-growing and cultivated plants and trees and, accounts for only ca. 10% in slow-growing plants. Moreover, our study shows that fast- growing plants, which had the largest percentages of newly fixed carbon of leaf-respired CO2 , were also those with the largest shoot/root ratios, whereas slow-growing plants showed the lowest shoot/root values.
Resumo:
Head space gas chromatography with flame-ionization detection (HS-GC-FID), ancl purge and trap gas chromatography-mass spectrometry (P&T-GC-MS) have been used to determine methyl-tert-butyl ether (MTBE) and benzene, toluene, and the ylenes (BTEX) in groundwater. In the work discussed in this paper measures of quality, e.g. recovery (94-111%), precision (4.6 - 12.2%), limits of detection (0.3 - 5.7 I~g L 1 for HS and 0.001 I~g L 1 for PT), and robust-ness, for both methods were compared. In addition, for purposes of comparison, groundwater samples from areas suffering from odor problems because of fuel spillage and tank leakage were analyzed by use of both techniques. For high concentration levels there was good correlation between results from both methods.
Resumo:
Diplomityössä tutkittiin kuuman pyrolyysihöyryn puhdistamista haisevista ja kevyistä haihtuvista yhdisteistä. Työn kirjallisuusosassa selvitettiin pyrolyysiöljyn kannattavuutta uusiutuvana energialähteenä. Lisäksi eri pesurityyppejä tarkasteltiin ja ja vertailtiin. Työn kokeellisessa osassa käytettiin kahta erilaista koelaitteistoa. Tuotteen talteenotossa vertailtiin reaktorilämpötilan ja raaka-aineen kosteuden vaikutusta pyrolyysisaantoihin. Komponenttien talteenotossa tutkittiin epästabiilien ja pistävän hajuisten yhdisteiden poistamista kuumasta pyrolyysihöyrystä. Raaka-aineena käytettiin kuusen metsätäh-dehaketta, joka sisältää runsaasti neulasia ja kaarnaa. Kokeet toteutettiin lämpötila-alueella 460 - 520 °C. Koelaitteistot koostuivat kaasun (N2) syöttöjärjestelmään kytketystä kuumasta ja kyl-mästä puolesta. Tuotteen talteenotossa kuuma pyrolyysihöyry jäähdytettiin ja otettiin talteen. Komponenttien talteenotossa tuote kerättiin suodattimelle ja metyleeniklo-ridiloukkuun. Tuotteiden koostumukset analysoitiin kaasukromatokrafilla. Korkeimmat orgaaniset saannot saatiin 480 °C reaktorilämpötilalla ja 8-9 p-% raaka-ainekosteudella. Pyrolyysiveden määrä putosi raaka-aineen kosteutta nostettaessa. Eri reaktorilämpötiloilla ja raaka-ainekosteuksilla ei ollut vaikutusta hiiltosaantoihin. Kaasusaannot (pääosin CO2, CO ja hiilivedyt) olivat noin 10 p-%. Komponenttien talteenotossa suodatin tukkeutui matalissa (< 250 °C) lämpötiloissa. Suodattimelle jäänyt materiaali oli pääosin neulasista ja kaarnasta peräisin olevia uuteaineita (pääosin hartsi- rasvahappoja) ja sokereita. Korkeimmissa lämpötiloissa (> 250 °C) uuteaineet läpäisivät suodattimen paremmin. 250 ja 300 °C:n lämpötiloissa suuri määrä lyhytketjuisia helposti haihtuvia epästabiileja ja haisevia yhdisteitä (ketoneja, furaani- ja furfuraalijohdannaisia jne.) jäi metyleenikloridi- ja metanoliloukkuihin.
Resumo:
Diplomityön tavoitteena oli selvittää elintarvikepakkauksiin soveltuvan graafisen kartongin potentiaalinen hajun aiheuttaja. Lisäksi tavoitteena oli vähentää päällystetyn tasakoosteisen (SBS) kolmikerroskartongin hajutasoa keskittyen päällystyspastakomponentteihin sekä massaosaston jälkeen annosteltaviin kemikaaleihin. Kirjallisuusosassa tarkasteltiin eri kartonkilajeja, päällystyspastoja ja sen sisältämiä komponentteja, pääpainon ollessa kuitenkin kartongin hajuominaisuuksiin vaikuttavien tekijöiden selvittämisessä. Lisäksi luotiin katsaus kartonkien aistinvaraisiin ja instrumentaalisiin määritysmenetelmiin. Instrumentaalisista määritysmenetelmistä käsiteltiin headspace –kaasukromatografia (HSGC) sekä korkeanerotuskyvyn nestekromatografia yhdistettynä massaspektrometriin (HPLC/MS). Kokeellisen osan alussa kartoitettiin päällystyskemikaalien sekä liima- ja retentioaineiden haihtuvat yhdisteet HSGC- ja HPLC/MS –tekniikoiden avulla. Kaasukromatografisesti analysoidut kokonaishaihtuvien tasot eivät poikenneet normaaleista tasoista, joten jouduttiin siirtymään HPLC/MS –menetelmään. HPLC/MS –tekniikalla on päästy tutkimaan herkästi haihtuvien typpiyhdisteiden amiinipitoisuuksia. Kemikaalimittausten perusteella vaihdettiin potentiaaliset hajua aiheuttavat kemikaalit, kovete ja synteettinen paksuntaja, markkinoilla oleviin vaihtoehtoisiin kemikaaleihin ja suoritettiin pilot -koeajo sekä tehdasmittakaavaiset koeajot. Työssä perehdyttiin myös varastoinnin aiheuttamiin vaikutuksiin eri kartonkilaatujen aistinvaraisissa ominaisuuksissa. Päällystyspastan kemikaaleista suuren hajukuorman aiheuttavat kovete, dispergointiaine, päällystyspigmentit ja lateksit sekä synteettinen paksuntaja. Kovetteen annostelumäärä päällystyspastoihin on alhainen, mutta sen sisältämä ammoniakkipitoisuus on kuitenkin huomattavan suuri. Kovete ohjaakin lopputuotteen ammoniakkipitoisuutta. Merkittävän metyyliamiinikuorman sisältää dispergointiaine. Sen vaikutus lopputuotteeseen voidaan olettaa vähäiseksi johtuen kemikaalin pienestä määrästä pastassa. Päällystyspigmenttien ja lateksien korkea metyyliamiinikuorma voi puolestaan aiheuttaa lopputuotteeseen huomattavan hajukuorman johtuen niiden suurista annostelumääristä. Eri synteettisille paksuntajille tehtyjen tutkimusten mukaan niiden hajukuormat olivat hyvin samankaltaisia ja vaikutus lopputuotteen kokonaishajutasoon jäi pieneksi. Aistinvaraisesti tarkasteltuna eri kartonkilaaduille saadaan eri hajutasoja. Elintarvikepakkauksiin soveltuvan graafisen kartongin hajutasot olivat korkeita muihin kartonkilaatuihin nähden niin tuoreena kuin varastoinnin jälkeen. Erityisesti tuoreen kartonkinäytteen metyyliamiinipitoisuus ylitti hajukynnyksen. Käytetty lateksi, kovete ja synteettinen paksuntaja näyttävät muodostavan niin tiiviin hajua koteloivan päällystekerroksen kartongin pinnalle, että hajua vapautuu pitkällä aikavälillä. Myös varastointi tiiviinä pakkauksena estää amiinien haihtumisen. Tutkimusten mukaan ammoniakkivapaalla PZC –kovetteella saadaan alennettua graafisen kartongin ammoniakkikuormaa huomattavasti. Tämä on vaikuttamassa myös lopputuotteen hajutasoon, jota on mahdollisuus alentaa käyttämällä ammoniakkivapaata kovetetta.
Resumo:
Työn tavoitteena oli luoda selkeä kuvaus sanomalehden lehtitilausprosessin toiminnasta tilauksesta jakeluun sekä kartoittaa lehtitilausprosessiin liittyvät ongelmakohdat ja esittää alustavia parannus- ja kehittämisehdotuksia niiden ratkaisemiseksi. Kuvauksen rakenteen teoreettisen pohjan luo työn alussa esitetty strukturoitu analyysi eli SA-menetelmä (structured analysis), jota soveltaen varsinainen kuvaus pääosin henkilöhaastatteluista saatuihin tietoihin perustuen toteutettiin.Sanomalehden lehtitilausprosessi on hyvin laaja ja monivaiheinen prosessi. Työn yhtenä tarkoituksena olikin selventää henkilöstölle, mitä kyseisen prosessin sisällä oikein tapahtuu. Kuvausta tehtäessä havaittiin useita lehtitilausprosessiin liittyviä ongelma- ja kehittämiskohteita, joiden kuntoon saattamiseksi on työssä esitetty alustavia ratkaisuvaihtoehtoja. Diplomityön teettämisen perusteena oli halu kehittää lehtitilausprosessia tilauksesta jakeluun nykyprosessin laadun parantamiseksi.Toimenpide-ehdotuksena esitetään tutkimuksessa läpi käytyjen sekä sen pohjalta mahdollisesti ilmenevien uusien parannus- ja kehittämisehdotusten toteuttamista lähitulevaisuudessa. Näin kyetään takaamaan lehtitilausprosessin toimivuus sekä vastaamaan asiakkaiden kasvaviin tarpeisiin myös tulevaisuudessa.
Resumo:
The objective of this study was to characterize the chemical composition of the essential oil from the leaves of Annona emarginata (Schltdl.) H. Rainer 'terra-fria' and Annona squamosa L. The species were grown in a greenhouse for 18 months, which nutrient solution was applied weekly; the plants were then harvested and the leaves dried to extract the essential oil. The essential oil was analyzed by gas chromatography and mass spectrometry to study its chemical profiles. Eleven substances were found in the essential oil of A. emarginata, primarily (E)-caryophyllene (29.29%), (Z)-caryophyllene (16.86%), γ-muurolene (7.54%), α-pinene (13.86%), and tricyclene (10.04%). Ten substances were detected in the oil from A. squamosa, primarily (E)-caryophyllene (28.71%), (Z)-caryophyllene (14.46%), α-humulene (4.41%), camphene (18.10%), α-pinene (7.37%), β-pinene (8.71%), and longifolene (5.64%). Six substances were common to both species: (E)-caryophyllene, (Z)-caryophyllene, α-humulene, camphene, α-pinene, and β-pinene.
Resumo:
Atherosclerosis is a chronic cardiovascular disease that involves the thicken¬ing of the artery walls as well as the formation of plaques (lesions) causing the narrowing of the lumens, in vessels such as the aorta, the coronary and the carotid arteries. Magnetic resonance imaging (MRI) is a promising modality for the assessment of atherosclerosis, as it is a non-invasive and patient-friendly procedure that does not use ionizing radiation. MRI offers high soft tissue con¬trast already without the need of intravenous contrast media; while modifica¬tion of the MR pulse sequences allows for further adjustment of the contrast for specific diagnostic needs. As such, MRI can create angiographic images of the vessel lumens to assess stenoses at the late stage of the disease, as well as blood flow-suppressed images for the early investigation of the vessel wall and the characterization of the atherosclerotic plaques. However, despite the great technical progress that occurred over the past two decades, MRI is intrinsically a low sensitive technique and some limitations still exist in terms of accuracy and performance. A major challenge for coronary artery imaging is respiratory motion. State- of-the-art diaphragmatic navigators rely on an indirect measure of motion, per¬form a ID correction, and have long and unpredictable scan time. In response, self-navigation (SM) strategies have recently been introduced that offer 100% scan efficiency and increased ease of use. SN detects respiratory motion di¬rectly from the image data obtained at the level of the heart, and retrospectively corrects the same data before final image reconstruction. Thus, SN holds po-tential for multi-dimensional motion compensation. To this regard, this thesis presents novel SN methods that estimate 2D and 3D motion parameters from aliased sub-images that are obtained from the same raw data composing the final image. Combination of all corrected sub-images produces a final image with reduced motion artifacts for the visualization of the coronaries. The first study (section 2.2, 2D Self-Navigation with Compressed Sensing) consists of a method for 2D translational motion compensation. Here, the use of com- pressed sensing (CS) reconstruction is proposed and investigated to support motion detection by reducing aliasing artifacts. In healthy human subjects, CS demonstrated an improvement in motion detection accuracy with simula¬tions on in vivo data, while improved coronary artery visualization was demon¬strated on in vivo free-breathing acquisitions. However, the motion of the heart induced by respiration has been shown to occur in three dimensions and to be more complex than a simple translation. Therefore, the second study (section 2.3,3D Self-Navigation) consists of a method for 3D affine motion correction rather than 2D only. Here, different techniques were adopted to reduce background signal contribution in respiratory motion tracking, as this can be adversely affected by the static tissue that surrounds the heart. The proposed method demonstrated to improve conspicuity and vi¬sualization of coronary arteries in healthy and cardiovascular disease patient cohorts in comparison to a conventional ID SN method. In the third study (section 2.4, 3D Self-Navigation with Compressed Sensing), the same tracking methods were used to obtain sub-images sorted according to the respiratory position. Then, instead of motion correction, a compressed sensing reconstruction was performed on all sorted sub-image data. This process ex¬ploits the consistency of the sorted data to reduce aliasing artifacts such that the sub-image corresponding to the end-expiratory phase can directly be used to visualize the coronaries. In a healthy volunteer cohort, this strategy improved conspicuity and visualization of the coronary arteries when compared to a con¬ventional ID SN method. For the visualization of the vessel wall and atherosclerotic plaques, the state- of-the-art dual inversion recovery (DIR) technique is able to suppress the signal coming from flowing blood and provide positive wall-lumen contrast. How¬ever, optimal contrast may be difficult to obtain and is subject to RR variability. Furthermore, DIR imaging is time-inefficient and multislice acquisitions may lead to prolonged scanning times. In response and as a fourth study of this thesis (chapter 3, Vessel Wall MRI of the Carotid Arteries), a phase-sensitive DIR method has been implemented and tested in the carotid arteries of a healthy volunteer cohort. By exploiting the phase information of images acquired after DIR, the proposed phase-sensitive method enhances wall-lumen contrast while widens the window of opportunity for image acquisition. As a result, a 3-fold increase in volumetric coverage is obtained at no extra cost in scanning time, while image quality is improved. In conclusion, this thesis presented novel methods to address some of the main challenges for MRI of atherosclerosis: the suppression of motion and flow artifacts for improved visualization of vessel lumens, walls and plaques. Such methods showed to significantly improve image quality in human healthy sub¬jects, as well as scan efficiency and ease-of-use of MRI. Extensive validation is now warranted in patient populations to ascertain their diagnostic perfor¬mance. Eventually, these methods may bring the use of atherosclerosis MRI closer to the clinical practice. Résumé L'athérosclérose est une maladie cardiovasculaire chronique qui implique le épaississement de la paroi des artères, ainsi que la formation de plaques (lé¬sions) provoquant le rétrécissement des lumières, dans des vaisseaux tels que l'aorte, les coronaires et les artères carotides. L'imagerie par résonance magné¬tique (IRM) est une modalité prometteuse pour l'évaluation de l'athérosclérose, car il s'agit d'une procédure non-invasive et conviviale pour les patients, qui n'utilise pas des rayonnements ionisants. L'IRM offre un contraste des tissus mous très élevé sans avoir besoin de médias de contraste intraveineux, tan¬dis que la modification des séquences d'impulsions de RM permet en outre le réglage du contraste pour des besoins diagnostiques spécifiques. À ce titre, l'IRM peut créer des images angiographiques des lumières des vaisseaux pour évaluer les sténoses à la fin du stade de la maladie, ainsi que des images avec suppression du flux sanguin pour une première enquête des parois des vais¬seaux et une caractérisation des plaques d'athérosclérose. Cependant, malgré les grands progrès techniques qui ont eu lieu au cours des deux dernières dé¬cennies, l'IRM est une technique peu sensible et certaines limitations existent encore en termes de précision et de performance. Un des principaux défis pour l'imagerie de l'artère coronaire est le mou¬vement respiratoire. Les navigateurs diaphragmatiques de pointe comptent sur une mesure indirecte de mouvement, effectuent une correction 1D, et ont un temps d'acquisition long et imprévisible. En réponse, les stratégies d'auto- navigation (self-navigation: SN) ont été introduites récemment et offrent 100% d'efficacité d'acquisition et une meilleure facilité d'utilisation. Les SN détectent le mouvement respiratoire directement à partir des données brutes de l'image obtenue au niveau du coeur, et rétrospectivement corrigent ces mêmes données avant la reconstruction finale de l'image. Ainsi, les SN détiennent un poten¬tiel pour une compensation multidimensionnelle du mouvement. A cet égard, cette thèse présente de nouvelles méthodes SN qui estiment les paramètres de mouvement 2D et 3D à partir de sous-images qui sont obtenues à partir des mêmes données brutes qui composent l'image finale. La combinaison de toutes les sous-images corrigées produit une image finale pour la visualisation des coronaires ou les artefacts du mouvement sont réduits. La première étude (section 2.2,2D Self-Navigation with Compressed Sensing) traite d'une méthode pour une compensation 2D de mouvement de translation. Ici, on étudie l'utilisation de la reconstruction d'acquisition comprimée (compressed sensing: CS) pour soutenir la détection de mouvement en réduisant les artefacts de sous-échantillonnage. Chez des sujets humains sains, CS a démontré une amélioration de la précision de la détection de mouvement avec des simula¬tions sur des données in vivo, tandis que la visualisation de l'artère coronaire sur des acquisitions de respiration libre in vivo a aussi été améliorée. Pourtant, le mouvement du coeur induite par la respiration se produit en trois dimensions et il est plus complexe qu'un simple déplacement. Par conséquent, la deuxième étude (section 2.3, 3D Self-Navigation) traite d'une méthode de cor¬rection du mouvement 3D plutôt que 2D uniquement. Ici, différentes tech¬niques ont été adoptées pour réduire la contribution du signal du fond dans le suivi de mouvement respiratoire, qui peut être influencé négativement par le tissu statique qui entoure le coeur. La méthode proposée a démontré une amélioration, par rapport à la procédure classique SN de correction 1D, de la visualisation des artères coronaires dans le groupe de sujets sains et des pa¬tients avec maladies cardio-vasculaires. Dans la troisième étude (section 2.4,3D Self-Navigation with Compressed Sensing), les mêmes méthodes de suivi ont été utilisées pour obtenir des sous-images triées selon la position respiratoire. Au lieu de la correction du mouvement, une reconstruction de CS a été réalisée sur toutes les sous-images triées. Cette procédure exploite la cohérence des données pour réduire les artefacts de sous- échantillonnage de telle sorte que la sous-image correspondant à la phase de fin d'expiration peut directement être utilisée pour visualiser les coronaires. Dans un échantillon de volontaires en bonne santé, cette stratégie a amélioré la netteté et la visualisation des artères coronaires par rapport à une méthode classique SN ID. Pour la visualisation des parois des vaisseaux et de plaques d'athérosclérose, la technique de pointe avec double récupération d'inversion (DIR) est capa¬ble de supprimer le signal provenant du sang et de fournir un contraste posi¬tif entre la paroi et la lumière. Pourtant, il est difficile d'obtenir un contraste optimal car cela est soumis à la variabilité du rythme cardiaque. Par ailleurs, l'imagerie DIR est inefficace du point de vue du temps et les acquisitions "mul- tislice" peuvent conduire à des temps de scan prolongés. En réponse à ce prob¬lème et comme quatrième étude de cette thèse (chapitre 3, Vessel Wall MRI of the Carotid Arteries), une méthode de DIR phase-sensitive a été implémenté et testé
Resumo:
Tässä diplomityössä on perehdytty kaaoksen ja oppivan organisaation mekaniikkaan ja olemukseen. Niitä on sovellettu uuden tuotteen saattamiseen logistiikan toimitusketjuun Nokia Oyj:n Networks toimialaryhmässä. Samalla on pyritty löytämään ratkaisuja toiminnan parantamiseksi. Kaaosjohtaminen tarjoaa prosessijohtamista täydentävän tavan mallintaa muutosta ja selittää sen aikaansaamia ilmiöitä. Näiden kahden viitekehyksen avulla on pyritty pureutumaan laajaan ja moniulotteiseen ongelmakenttään. Muotoaan hakevassa organisaatiossa kaaoksen elementit ovat voimakkaasti läsnä. Kaaoksen hallintaan liittyy saumattomasti itseorganisoituminen ja oppiminen. Oppinen ei ole organisaatiolle yhtä luontainen kyky kuin se on yksilölle. Se vaatii organisaation jäseniltä oman roolinsa tiedostamista ja tiedon jakamista. Organisaation tavoitteet saattavat yksilön näkökulmasta tuntua joskus epäkonkreettisilta ja samalla muutokset hallitsemattomilta. Markkinoiden ja teknologian muuttuminen on ollut erityisen nopeaa telekommunikaatioalalla. Näissä olosuhteissa on tärkeää pyrkiä oppivaan organisaatioon, joka tukee organisaation toimintaa läpi muutoksen.
Resumo:
Tutkimuksen tarkoituksena on selvittää mitkä ovat Lappeenrannan teknillisen korkeakoulun laadun kehittämisen mahdollisuudet. Tutkimusongelmaa lähestytään selvittämällä kirjallisuudesta laadun kehittämisen yleisiä perusedellytyksiä ja miten toimiminen julkisesti rahoitetulla sektorilla vaikuttaa niihin. Teollisuudesta peräisin olevat laadun kehittämisen j a laatujohtamisen menetelmät eivät yksin sovellu tietointensiiviseen akateemiseen maailmaan. Tietojohtaminen tuo yliopistojen laadun kehittämiseen uuden ulottuvuuden. Organisaatiot on nähtävä moniulotteisina tietoyöparistoina, joissa on mekaanisia, orgaanisia ja dynaamisia piirteitä. Näissä tietoympäristöissä on omat periaatteensa, joiden mukaan niiden toimintaa tehokkaimmin johdetaan, ja kriteerinsä, joiden pohjalta laatu määräytyy. Tutkimus osoittaa, että LTKK:n johto suhtautuu myönteisesti laadun kehittämiseen ja LTKK:ssa on monia kohteita, joiden laatua voidaan kehittää. Vaikka LTKK:ssa arvostetaan innovatiivisuutta, joka on dynaamisen ympäristön laadun kriteeri, kehittämisehdotukset tukivat lähes kokonaan orgaanisen ympäristön laatua. jonka kriteerinä on hallittu kehittäminen. Suurimmat haasteet laadun kehittämisessä ovat kenties dynaamisen ympäristön tavoitteiden tunnistaminen, henkilöstön asenteiden muuttaminen ja yhteisöllisyyden lisääminen.
Resumo:
Tutkielman tarkoituksena oli yleisesti ymmärtää sisäistä yhteistyökyvykkyyttä ja sen roolia yrityksen menestystekijänä. Empiirisesti sisäistä yhteistyökyvykkyyttä tarkasteltiin case-organisaation, Metso Paper Jyväskylän, avulla. Tavoitteena oli selvittää, mistä sisäinen yhteistyökyvykkyys koostuu sekä siihen vaikuttavia kriittisiä tekijöitä. Myös käytännön keinoja ja sovelluksia etsittiin edistämään sisäistä yhteistyötä. Tutkielmassa käytettiin kvalitatiivista tutkimusotetta. Tiedon hankinnan strategiana oli tapaustutkimus ja tutkimusaineisto kerättiin teemahaastattelujen avulla. Saatu aineisto analysoitiin teemoittelun avulla. Teemoja etsittiin tekstistä teoriasta johdettujen oletusten ja empiriasta löydettyjen tekijöiden perusteella. Tutkimuksen tuloksena oli, että yhteistyökyvykkyys koostuu sekä yksilöön että organisaatioon liittyvistä tekijöistä. Yhteistyökyvykkyyden kriittisiä ja sitä estäviä tekijöitä olivat toiminnan painottuminen ulkoisiin suhteisiin, muodollinen ja monitasoinen organisaatiorakenne, organisaatiorakenteiden nopea muutostahti, toimintamallin yksisuuntaisuus, organisaatio- ja johtamiskulttuuri, joka ei tue yhteistyötä, ylimmän johdon ja operatiivisten toimintojen välinen kuilu, tiedon painottuminen tietojärjestelmiin, dialogin puute, kommunikoinnin yksisuuntaisuus ja erilaisista työkulttuureista aiheutuvat kommunikaatioesteet, yhteistyösuhteiden puute ja transaktiosuhteiden painottuminen sekä ryhmien sisäisen yhtenäisyyden vahvuus. Näiden tekijöiden esiin tuominen tuo uusia näkökulmia organisaation sisäisen yhteistyökyvykkyyden ymmärtämiseen ja kehittämiseen.
Resumo:
We present a brief résumé of the history of solidification research and key factors affecting the solidification of fusion welds. There is a general agreement of the basic solidification theory, albeit differing - even confusing - nomenclatures do exist, and Cases 2 and 3 (the Chalmers' basic boundary conditions for solidification, categorized by Savage as Cases) are variably emphasized. Model Frame, a tool helping to model the continuum of fusion weld solidification from start to end, is proposed. It incorporates the general solidification models, of which the pertinent ones are selected for the actual modeling. The basic models are the main solidification Cases 1…4. These discrete Cases are joined with Sub-Cases: models of Pfann, Flemings and others, bringing needed Sub-Case variables into the model. Model Frame depicts a grain growing from the weld interface to its centerline. Besides modeling, the Model Frame supports education and academic debate. The new mathematical modeling techniques will extend its use into multi-dimensional modeling, introducing new variables and increasing the modeling accuracy. We propose a model: melting/solidification-model (M/S-model) - predicting the solute profile at the start of the solidification of a fusion weld. This Case 3-based Sub-Case takes into account the melting stage, the solute back-diffusion in the solid, and the growth rate acceleration typical to fusion welds. We propose - based on works of Rutter & Chalmers, David & Vitek and our experimental results on copper - that NEGS-EGS-transition is not associated only with cellular-dendritic-transition. Solidification is studied experimentally on pure and doped copper with welding speed range from 0 to 200 cm/min, with one test at 3000 cm/min. Found were only planar and cellular structures, no dendrites - columnar or equiaxed. Cell sub structures: rows of cubic elements we call "cubelettes", "cell-bands" and "micro-cells", as well as an anomalous crack morphology "crack-eye", were detected, as well as microscopic hot crack nucleus we call "grain-lag cracks", caused by a grain slightly lagging behind its neighbors in arrival to the weld centerline. Varestraint test and R-test revealed a change of crack morphologies from centerline cracks to grainand cell boundary cracks with an increasing welding speed. High speed made the cracks invisible to bare eye and hardly detectable with light microscope, while electron microscope often revealed networks of fine micro-cracks.
Resumo:
An important aspect of immune monitoring for vaccine development, clinical trials, and research is the detection, measurement, and comparison of antigen-specific T-cells from subject samples under different conditions. Antigen-specific T-cells compose a very small fraction of total T-cells. Developments in cytometry technology over the past five years have enabled the measurement of single-cells in a multivariate and high-throughput manner. This growth in both dimensionality and quantity of data continues to pose a challenge for effective identification and visualization of rare cell subsets, such as antigen-specific T-cells. Dimension reduction and feature extraction play pivotal role in both identifying and visualizing cell populations of interest in large, multi-dimensional cytometry datasets. However, the automated identification and visualization of rare, high-dimensional cell subsets remains challenging. Here we demonstrate how a systematic and integrated approach combining targeted feature extraction with dimension reduction can be used to identify and visualize biological differences in rare, antigen-specific cell populations. By using OpenCyto to perform semi-automated gating and features extraction of flow cytometry data, followed by dimensionality reduction with t-SNE we are able to identify polyfunctional subpopulations of antigen-specific T-cells and visualize treatment-specific differences between them.
Resumo:
«Quel est l'âge de cette trace digitale?» Cette question est relativement souvent soulevée au tribunal ou lors d'investigations, lorsque la personne suspectée admet avoir laissé ses empreintes digitales sur une scène de crime mais prétend l'avoir fait à un autre moment que celui du crime et pour une raison innocente. Toutefois, aucune réponse ne peut actuellement être donnée à cette question, puisqu'aucune méthodologie n'est pour l'heure validée et acceptée par l'ensemble de la communauté forensique. Néanmoins, l'inventaire de cas américains conduit dans cette recherche a montré que les experts fournissent tout de même des témoignages au tribunal concernant l'âge de traces digitales, même si ceux-‐ci sont majoritairement basés sur des paramètres subjectifs et mal documentés. Il a été relativement aisé d'accéder à des cas américains détaillés, ce qui explique le choix de l'exemple. Toutefois, la problématique de la datation des traces digitales est rencontrée dans le monde entier, et le manque de consensus actuel dans les réponses données souligne la nécessité d'effectuer des études sur le sujet. Le but de la présente recherche est donc d'évaluer la possibilité de développer une méthode de datation objective des traces digitales. Comme les questions entourant la mise au point d'une telle procédure ne sont pas nouvelles, différentes tentatives ont déjà été décrites dans la littérature. Cette recherche les a étudiées de manière critique, et souligne que la plupart des méthodologies reportées souffrent de limitations prévenant leur utilisation pratique. Néanmoins, certaines approches basées sur l'évolution dans le temps de composés intrinsèques aux résidus papillaires se sont montrées prometteuses. Ainsi, un recensement détaillé de la littérature a été conduit afin d'identifier les composés présents dans les traces digitales et les techniques analytiques capables de les détecter. Le choix a été fait de se concentrer sur les composés sébacés détectés par chromatographie gazeuse couplée à la spectrométrie de masse (GC/MS) ou par spectroscopie infrarouge à transformée de Fourier. Des analyses GC/MS ont été menées afin de caractériser la variabilité initiale de lipides cibles au sein des traces digitales d'un même donneur (intra-‐variabilité) et entre les traces digitales de donneurs différents (inter-‐variabilité). Ainsi, plusieurs molécules ont été identifiées et quantifiées pour la première fois dans les résidus papillaires. De plus, il a été déterminé que l'intra-‐variabilité des résidus était significativement plus basse que l'inter-‐variabilité, mais que ces deux types de variabilité pouvaient être réduits en utilisant différents pré-‐ traitements statistiques s'inspirant du domaine du profilage de produits stupéfiants. Il a également été possible de proposer un modèle objectif de classification des donneurs permettant de les regrouper dans deux classes principales en se basant sur la composition initiale de leurs traces digitales. Ces classes correspondent à ce qui est actuellement appelé de manière relativement subjective des « bons » ou « mauvais » donneurs. Le potentiel d'un tel modèle est élevé dans le domaine de la recherche en traces digitales, puisqu'il permet de sélectionner des donneurs représentatifs selon les composés d'intérêt. En utilisant la GC/MS et la FTIR, une étude détaillée a été conduite sur les effets de différents facteurs d'influence sur la composition initiale et le vieillissement de molécules lipidiques au sein des traces digitales. Il a ainsi été déterminé que des modèles univariés et multivariés pouvaient être construits pour décrire le vieillissement des composés cibles (transformés en paramètres de vieillissement par pré-‐traitement), mais que certains facteurs d'influence affectaient ces modèles plus sérieusement que d'autres. En effet, le donneur, le substrat et l'application de techniques de révélation semblent empêcher la construction de modèles reproductibles. Les autres facteurs testés (moment de déposition, pression, température et illumination) influencent également les résidus et leur vieillissement, mais des modèles combinant différentes valeurs de ces facteurs ont tout de même prouvé leur robustesse dans des situations bien définies. De plus, des traces digitales-‐tests ont été analysées par GC/MS afin d'être datées en utilisant certains des modèles construits. Il s'est avéré que des estimations correctes étaient obtenues pour plus de 60 % des traces-‐tests datées, et jusqu'à 100% lorsque les conditions de stockage étaient connues. Ces résultats sont intéressants mais il est impératif de conduire des recherches supplémentaires afin d'évaluer les possibilités d'application de ces modèles dans des cas réels. Dans une perspective plus fondamentale, une étude pilote a également été effectuée sur l'utilisation de la spectroscopie infrarouge combinée à l'imagerie chimique (FTIR-‐CI) afin d'obtenir des informations quant à la composition et au vieillissement des traces digitales. Plus précisément, la capacité de cette technique à mettre en évidence le vieillissement et l'effet de certains facteurs d'influence sur de larges zones de traces digitales a été investiguée. Cette information a ensuite été comparée avec celle obtenue par les spectres FTIR simples. Il en a ainsi résulté que la FTIR-‐CI était un outil puissant, mais que son utilisation dans l'étude des résidus papillaires à des buts forensiques avait des limites. En effet, dans cette recherche, cette technique n'a pas permis d'obtenir des informations supplémentaires par rapport aux spectres FTIR traditionnels et a également montré des désavantages majeurs, à savoir de longs temps d'analyse et de traitement, particulièrement lorsque de larges zones de traces digitales doivent être couvertes. Finalement, les résultats obtenus dans ce travail ont permis la proposition et discussion d'une approche pragmatique afin d'aborder les questions de datation des traces digitales. Cette approche permet ainsi d'identifier quel type d'information le scientifique serait capable d'apporter aux enquêteurs et/ou au tribunal à l'heure actuelle. De plus, le canevas proposé décrit également les différentes étapes itératives de développement qui devraient être suivies par la recherche afin de parvenir à la validation d'une méthodologie de datation des traces digitales objective, dont les capacités et limites sont connues et documentées. -- "How old is this fingermark?" This question is relatively often raised in trials when suspects admit that they have left their fingermarks on a crime scene but allege that the contact occurred at a time different to that of the crime and for legitimate reasons. However, no answer can be given to this question so far, because no fingermark dating methodology has been validated and accepted by the whole forensic community. Nevertheless, the review of past American cases highlighted that experts actually gave/give testimonies in courts about the age of fingermarks, even if mostly based on subjective and badly documented parameters. It was relatively easy to access fully described American cases, thus explaining the origin of the given examples. However, fingermark dating issues are encountered worldwide, and the lack of consensus among the given answers highlights the necessity to conduct research on the subject. The present work thus aims at studying the possibility to develop an objective fingermark dating method. As the questions surrounding the development of dating procedures are not new, different attempts were already described in the literature. This research proposes a critical review of these attempts and highlights that most of the reported methodologies still suffer from limitations preventing their use in actual practice. Nevertheless, some approaches based on the evolution of intrinsic compounds detected in fingermark residue over time appear to be promising. Thus, an exhaustive review of the literature was conducted in order to identify the compounds available in the fingermark residue and the analytical techniques capable of analysing them. It was chosen to concentrate on sebaceous compounds analysed using gas chromatography coupled with mass spectrometry (GC/MS) or Fourier transform infrared spectroscopy (FTIR). GC/MS analyses were conducted in order to characterize the initial variability of target lipids among fresh fingermarks of the same donor (intra-‐variability) and between fingermarks of different donors (inter-‐variability). As a result, many molecules were identified and quantified for the first time in fingermark residue. Furthermore, it was determined that the intra-‐variability of the fingermark residue was significantly lower than the inter-‐variability, but that it was possible to reduce both kind of variability using different statistical pre-‐ treatments inspired from the drug profiling area. It was also possible to propose an objective donor classification model allowing the grouping of donors in two main classes based on their initial lipid composition. These classes correspond to what is relatively subjectively called "good" or "bad" donors. The potential of such a model is high for the fingermark research field, as it allows the selection of representative donors based on compounds of interest. Using GC/MS and FTIR, an in-‐depth study of the effects of different influence factors on the initial composition and aging of target lipid molecules found in fingermark residue was conducted. It was determined that univariate and multivariate models could be build to describe the aging of target compounds (transformed in aging parameters through pre-‐ processing techniques), but that some influence factors were affecting these models more than others. In fact, the donor, the substrate and the application of enhancement techniques seemed to hinder the construction of reproducible models. The other tested factors (deposition moment, pressure, temperature and illumination) also affected the residue and their aging, but models combining different values of these factors still proved to be robust. Furthermore, test-‐fingermarks were analysed with GC/MS in order to be dated using some of the generated models. It turned out that correct estimations were obtained for 60% of the dated test-‐fingermarks and until 100% when the storage conditions were known. These results are interesting but further research should be conducted to evaluate if these models could be used in uncontrolled casework conditions. In a more fundamental perspective, a pilot study was also conducted on the use of infrared spectroscopy combined with chemical imaging in order to gain information about the fingermark composition and aging. More precisely, its ability to highlight influence factors and aging effects over large areas of fingermarks was investigated. This information was then compared with that given by individual FTIR spectra. It was concluded that while FTIR-‐ CI is a powerful tool, its use to study natural fingermark residue for forensic purposes has to be carefully considered. In fact, in this study, this technique does not yield more information on residue distribution than traditional FTIR spectra and also suffers from major drawbacks, such as long analysis and processing time, particularly when large fingermark areas need to be covered. Finally, the results obtained in this research allowed the proposition and discussion of a formal and pragmatic framework to approach the fingermark dating questions. It allows identifying which type of information the scientist would be able to bring so far to investigators and/or Justice. Furthermore, this proposed framework also describes the different iterative development steps that the research should follow in order to achieve the validation of an objective fingermark dating methodology, whose capacities and limits are well known and properly documented.
Resumo:
CONTEXT: Complex steroid disorders such as P450 oxidoreductase deficiency or apparent cortisone reductase deficiency may be recognized by steroid profiling using chromatographic mass spectrometric methods. These methods are highly specific and sensitive, and provide a complete spectrum of steroid metabolites in a single measurement of one sample which makes them superior to immunoassays. The steroid metabolome during the fetal-neonatal transition is characterized by (a) the metabolites of the fetal-placental unit at birth, (b) the fetal adrenal androgens until its involution 3-6 months postnatally, and (c) the steroid metabolites produced by the developing endocrine organs. All these developmental events change the steroid metabolome in an age- and sex-dependent manner during the first year of life. OBJECTIVE: The aim of this study was to provide normative values for the urinary steroid metabolome of healthy newborns at short time intervals in the first year of life. METHODS: We conducted a prospective, longitudinal study to measure 67 urinary steroid metabolites in 21 male and 22 female term healthy newborn infants at 13 time-points from week 1 to week 49 of life. Urine samples were collected from newborn infants before discharge from hospital and from healthy infants at home. Steroid metabolites were measured by gas chromatography-mass spectrometry (GC-MS) and steroid concentrations corrected for urinary creatinine excretion were calculated. RESULTS: 61 steroids showed age and 15 steroids sex specificity. Highest urinary steroid concentrations were found in both sexes for progesterone derivatives, in particular 20α-DH-5α-DH-progesterone, and for highly polar 6α-hydroxylated glucocorticoids. The steroids peaked at week 3 and decreased by ∼80% at week 25 in both sexes. The decline of progestins, androgens and estrogens was more pronounced than of glucocorticoids whereas the excretion of corticosterone and its metabolites and of mineralocorticoids remained constant during the first year of life. CONCLUSION: The urinary steroid profile changes dramatically during the first year of life and correlates with the physiologic developmental changes during the fetal-neonatal transition. Thus detailed normative data during this time period permit the use of steroid profiling as a powerful diagnostic tool.