989 resultados para reference points
Resumo:
Background: Urine is still the matrix of choice to fight against doping, because it can be collected non-invasively during anti-doping tests. Most of the World Anti-Doping Agency's accredited laboratories have more than 20 years experience in analyzing this biological fluid and the majority of the compounds listed in the 2010 Prohibited List - International Standard are eliminated through the urinary apparatus. Storing and transporting urine samples for doping analyses does not include a specific protocol to prevent microbial and thermal degradation. The use of a rapid and reliable screening method could enable determine reference intervals for urine specimens in doping control samples and evaluate notably the prevalence of microbial contamination known to be responsible for the degradation of chemical substances in urine.Methods: The Sysmex(R) UF-500i is a recent urine flow cytometer analyzer capable of quantifying BACT and other urinary particles such as RBC, WBC, EC, DEBRIS, CAST, PATH. CAST, YLC, SRC as well as measuring urine conductivity. To determine urine anti-doping reference intervals, 501 samples received in our laboratory over a period of two months were submitted to an immediate examination. All samples were collected and then transported at room temperature. Analysis of variance was performed to test the effects of factors such as gender, test type [in-competition, out-of-competition] and delivery time.Results: The data obtained showed that most of the urine samples were highly contaminated with bacteria. The other urine particles were also very different according to the factors.Conclusions: The Sysmex(R) UF-500i was capable of providing a snapshot of urine particles present in the samples at the time of the delivery to the laboratory. These particles, BACT in particular, gave a good idea of the possible microbial degradation which had and/or could have occurred in the sample. This information could be used as the first quality control set up in WADA (World Anti-Doping Agency) accredited laboratories to determine if steroid profiles, endogenous and prohibited substances have possibly been altered. (C) 2011 Elsevier Ireland Ltd. All rights reserved.
Resumo:
Electrical deep brain stimulation (DBS) is an efficient method to treat movement disorders. Many models of DBS, based mostly on finite elements, have recently been proposed to better understand the interaction between the electrical stimulation and the brain tissues. In monopolar DBS, clinically widely used, the implanted pulse generator (IPG) is used as reference electrode (RE). In this paper, the influence of the RE model of monopolar DBS is investigated. For that purpose, a finite element model of the full electric loop including the head, the neck and the superior chest is used. Head, neck and superior chest are made of simple structures such as parallelepipeds and cylinders. The tissues surrounding the electrode are accurately modelled from data provided by the diffusion tensor magnetic resonance imaging (DT-MRI). Three different configurations of RE are compared with a commonly used model of reduced size. The electrical impedance seen by the DBS system and the potential distribution are computed for each model. Moreover, axons are modelled to compute the area of tissue activated by stimulation. Results show that these indicators are influenced by the surface and position of the RE. The use of a RE model corresponding to the implanted device rather than the usually simplified model leads to an increase of the system impedance (+48%) and a reduction of the area of activated tissue (-15%).
Resumo:
A general criterion for the design of adaptive systemsin digital communications called the statistical reference criterionis proposed. The criterion is based on imposition of the probabilitydensity function of the signal of interest at the outputof the adaptive system, with its application to the scenario ofhighly powerful interferers being the main focus of this paper.The knowledge of the pdf of the wanted signal is used as adiscriminator between signals so that interferers with differingdistributions are rejected by the algorithm. Its performance isstudied over a range of scenarios. Equations for gradient-basedcoefficient updates are derived, and the relationship with otherexisting algorithms like the minimum variance and the Wienercriterion are examined.
Resumo:
BACKGROUND: The GENCODE consortium was formed to identify and map all protein-coding genes within the ENCODE regions. This was achieved by a combination of initial manual annotation by the HAVANA team, experimental validation by the GENCODE consortium and a refinement of the annotation based on these experimental results. RESULTS: The GENCODE gene features are divided into eight different categories of which only the first two (known and novel coding sequence) are confidently predicted to be protein-coding genes. 5' rapid amplification of cDNA ends (RACE) and RT-PCR were used to experimentally verify the initial annotation. Of the 420 coding loci tested, 229 RACE products have been sequenced. They supported 5' extensions of 30 loci and new splice variants in 50 loci. In addition, 46 loci without evidence for a coding sequence were validated, consisting of 31 novel and 15 putative transcripts. We assessed the comprehensiveness of the GENCODE annotation by attempting to validate all the predicted exon boundaries outside the GENCODE annotation. Out of 1,215 tested in a subset of the ENCODE regions, 14 novel exon pairs were validated, only two of them in intergenic regions. CONCLUSION: In total, 487 loci, of which 434 are coding, have been annotated as part of the GENCODE reference set available from the UCSC browser. Comparison of GENCODE annotation with RefSeq and ENSEMBL show only 40% of GENCODE exons are contained within the two sets, which is a reflection of the high number of alternative splice forms with unique exons annotated. Over 50% of coding loci have been experimentally verified by 5' RACE for EGASP and the GENCODE collaboration is continuing to refine its annotation of 1% human genome with the aid of experimental validation.
Resumo:
Carnitine-free total parenteral nutrition (TPN) is claimed to result in a carnitine deficiency with subsequent impairment of fat oxidation. The present study was designed to evaluate the possible benefit of carnitine supplementation on postoperative fat and nitrogen utilization. Sixteen patients undergoing total esophagectomy were evenly randomized and received TPN without or with L-carnitine supplementation (74 mumol.kg-1.d-1) during 11 postoperative days. On day 11, a 4-h infusion of L-carnitine (125 mumol/kg) was performed in both groups. The effect of supplementation was evaluated by indirect calorimetry, N balance, and repeated measurements of plasma lipids and ketone bodies. Irrespective of continuous or acute supplementation, respiratory quotient and fat oxidation were similarly maintained throughout the study in both groups whereas N balance appeared to be more favorable without carnitine. We conclude that carnitine-supplemented TPN does not improve fat oxidation or promote N utilization in the postoperative phase.
Resumo:
Työn tavoitteena oli selvittää mitä käsittelyvaihtoehtoja on olemassa jäteveden puhdistamon tertiäärikäsittelyyn ja miten suuri tarve paperi- ja selluteollisuuden prosessivesien puhdistukseen on. Tarkoituksena oli saada käsitys koko tertiäärikäsittelystä eri näkökulmista. Lopuksi läpikäytiin tertiäärikäsittelymenetelmiä ja etsittiin mahdollisia uusia menetelmiä, joita voitaisiin käyttää jäteveden tertiääripuhdistukseen. Ensimmäisenä työssä on perehdytty jäteveden koostumukseen paperi- ja selluteollisuudessa ja puhdistukseen ilmastetulla aktiivilietemenetelmällä, jotta tertiäärikäsittely ymmärrettäisiin konseptina paremmin. Lisäksi työssä selvitettiin tertiäärikäsittelyn tarvetta ja vaihtoehtoja sen käyttämättä jättämiselle teollisuuden ja muun ympäristöä vahingoittavan toiminnan ympäristönäkökohdat huomioonottaen. Lyhyiden menetelmäesitysten jälkeen kiteytetään tertiäärikäsittelyn ympäristönäkökohdatja vaihtoehdot sen käytölle yhteenvetona, jossa otetaan huomioon myös viranomaisten, yrityksen ja BAT referenssien sisältämä tieto tertiäärikäsittelystä. Työn kokeellinen osa sisältää erään tertiäärikäsittelysovelluksenrakentamisen, koekäytön ja laboratorioanalyysien yhteenvedon. Lisäksi menetelmää verrataan kustannus-tehokkuudeltaan vastaavien menetelmien kanssa. Tarkoituksena oli löytää jäteveden tertiäärikäsittelyyn sopiva laitteisto, jonka toimintaanei sisältyisi kemikaalien annostelua ja sitä käytettäisiin lähinnä jätevedenpuhdistamon ongelmatilanteiden väliaikaiseksi ratkaisuksi. Mahdollisesti se voisi toimia myös jatkuvatoimisesti veden kirkastuksessa. Diplomityössä rakennettu laitteisto, jota käytettiin myös pilot koeajoissa, ei ollut paras mahdollinen laitteisto tertiäärikäsittelyn toteuttamiseksi paperi- ja selluteollisuudessa, mutta kilpailukykyinen muiden laitteistojen kanssa. Laitteiston toimintaperiaate on kuitenkin käyttökelpoinen tietyin varauksin ja sitä voidaan käyttää vedenpuhdistamiseen.
Resumo:
Työn tavoitteena oli tutkia hyvän asiakasreferenssin ominaisuuksia suodatinvalmistaja Laroxin myynnin ja huollon sekä yrityksen asiakkaiden näkökulmasta. Larox voi käyttää saatua tietoa referenssien tehokkaampaan valintaan ja hyödyntämiseen. Kaksi internet-kyselyä toteutettiin, välineenä Webropol. Alustava kysely sunnattiin Laroxin myynnille ja huollolle. Kysely koostui viidestä kategoriasta asiakasreferenssejä, joiden tärkeyttä arvioitiin, sekä vapaista vastauksista. Tunnistettuja hyvän asiakasreferenssin ominaisuuksia ovat hyvä suhde referenssiasiakkaaseen, positiiviset jarehelliset suosittelut asiakkaalta, referenssilaitteen hyvä toimintakyky ja asiakas joka ymmärtää huollon tärkeyden. Pääkysely suunnattiin Laroxin asiakkaille. Tilastollisilla analyyseilla tutkittiin koetun riskin mallinmuuttujien välisiä yhteyksiä. Analyysit eivät paljastaneet merkittäviä riippuvuuksia asiakasreferenssin ominaisuuksien tärkeydessä eritaustaisten vastaajien tai tilannetekijöiden välillä, mutta asiakasreferenssin ominaisuuksien faktorit tukevat mallia. Referenssilaitteiden toimintakyky vaikuttaa tärkeimmältä ja huollon tärkeys on myös merkittävä.
Resumo:
Työssä tutkittiin korkean leimahduspisteen laimentimien vaikutusta uuton tehokkuuteen ja turvallisuuteen. Kirjallisuusosa sisältää katsauksen uuttolaitoksilla tapahtuneista suuronnettomuuksista, staattisen sähkön aiheuttamista vaaroista uuttolaitoksilla ja kaupallisesti saatavista laimentimista. Lisäksi kirjallisuusosassa tarkastellaan hiilivetyjen molekyylirakenteen vaikutusta niiden leimahduspisteeseen, haihtuvuuteen, viskositeettiin ja liuotinominaisuuksiin. Kokeellisessa osassa tutkittiin uuton tehokkuutta kuvaavia ominaisuuksia, joita olivat sekoituksen pisarakoko, faasien selkeytymisnopeus,uuton ja takaisinuuton kinetiikka, orgaanisen faasin viskositeetti ja tiheys. Uuttoliuosten turvallisuusominaisuuksia tutkittiin mittaamalla synteettisten uuttoliuosten ja laimentimien leimahduspisteitä sekä sähköisesti varattujen laimentimien relaksaatioaikoja. Korkean leimahduspisteen laimentimena käytettiin Orfom SX 11-laimenninta. Vertailukohteena käytettiin Shellsol D70- ja Escaid 100- laimentimia. Malliuuttona käytettiin kuparin uuttoa hydroksioksiimireagensilla happamasta sulfaattiliuoksesta. Kokeissa havaittiin, että korkean leimahduspisteen laimentimen viskositeetti oli huomattavasti suurempi kuin Shellsol D70- laimentimella. Korkea viskositeetti hidasti faasien selkeytymistä uutossa, mutta sillä ei ollut vaikutusta uuton kinetiikkaan tai sekoituksen aiheuttamaan pisarakokoon. Uuttoliuoksen reagenssipitoisuudella havaittiin olevan vaikutusta uuttoliuoksen leimahduspisteeseen, mutta uuttoliuoksen latausasteella ei havaittu olevan vaikutusta. Sähköisesti varattujen laimentimien varauksien relaksaatioajoissa oli hieman eroja, mutta relaksaatioajat olivat kaikilla laimentimilla liian pitkiä staattisen sähkön aiheuttaman vaaran poistamiseksi.
Resumo:
De nombreuses recommandations de pratique clinique (RPC) ont été publiées, en réponse au développement du concept de la médecine fondée sur les preuves et comme solution à la difficulté de synthétiser et trier l'abondante littérature médicale. Pour faire un choix parmi le foisonnement de nouvelles RPC, il est primordial d'évaluer leur qualité. Récemment, le premier instrument d'évaluation standardisée de la qualité des RPC, appelé " AGREE " pour appraisal of guidelines for research and evaluation, a été validé. Nous avons comparé - avec l'aide de la grille " AGREE " - les six principales RPC publiées depuis une dizaine d'années sur le traitement de la schizophrénie : (1) les Recommandations de l'Agence nationale pour le développement de l'évaluation médicale (ANDEM) ; (2) The American Psychiatric Association (APA) practice guideline for the treatment of patients with schizophrenia ; (3) The quick reference guide of APA practice guideline for the treatment of patients with schizophrenia [APA - guide rapide de référence] ; (4) The schizophrenia patient outcomes research team (PORT) treatment recommandations ; (5) The Texas medication algorithm project " T-MAP " ; (6) The expert consensus guideline for the treatment of schizophrenia. Les résultats de notre étude ont ensuite été comparés avec ceux d'une étude similaire publiée en 2005 par Gæbel et al. portant sur 24 RPC abordant le traitement de la schizophrénie, réalisée également avec l'aide de la grille " AGREE " et deux évaluateurs [Br J Psychiatry 187 (2005) 248-255]. De manière générale, les scores des deux études ne sont pas trop éloignés et les deux évaluations globales des RPC convergent : chacune des six RPC est perfectible et présente différemment des points faibles et des points forts. La rigueur d'élaboration des six RPC est dans l'ensemble très moyenne, la prise en compte de l'opinion des utilisateurs potentiels est lacunaire et un effort sur la présentation des recommandations faciliterait leur utilisation clinique. L'applicabilité des recommandations est également peu considérée par les auteurs. Globalement, deux RPC se distinguent et peuvent être fortement recommandées selon les critères de la grille " AGREE " : " l'APA - guide rapide de référence " et le " T-MAP ".
Resumo:
Laboratory values of the most commonly assayed clinical chemistry variables were determined in selected elderly and healthy ambulatory populations. The upper and lower limits (2.5 and 97.5 fractiles) were compared with the adult reference values in use in university hospitals of Switzerland. The results suggest that conventional adult reference values can be used for most variables in the elderly and that these values are also useful in an ambulatory population.
Resumo:
Tutkielman pääaiheena on asunto-osakkeiden kauppa. Keskeisimpänä tutkimusaiheena on myyjän asemesta korjausrakentamiseen painottuva näkökulma. Tutkielman tarkoituksena on analysoida omistuksen, statuksen ja päätöksenteon vaikutusta myyjän vastuisiin. Tutkielmassa pyritään myös selvittämään asunto-osakeyhtiön omistuspohjan merkitystä elinkeinonharjoittajana toimivan osakkaan vastuisiin. Metodina käytetään vertailevaa tutkimusotetta, painottuenosaltaan kausaliteettiin. Teemaa koskevan analyysin avulla pyritään lainsäädännön sisältä tulkitsemaan ja selkeyttämään asuntokauppaan liittyviä ongelmia. Praktisen lähestymistavan avulla pyritään tuottamaan viitekehys, joka palvelee voimassaolevan normatiivisen tiedon kehittämistä. Tutkielma osoittaa, että lainsäädäntö on jakautunut asunto-osakkeiden kaupan näkökulmasta tavalla, jota voidaan kritisoida. Asuntokauppalaissa sääntely ei kohdistu tilanteisiin, joissa huomioitaisiin korjausrakentamisen moniulotteisuus. Pikemminkin käytännön näkökulmasta on nähtävissä suunta, jossa korostetaan tiedon merkitystä osanavaihdantaa jopa sisällön ja validiteetin kustannuksella
Resumo:
Résumé: Le développement rapide de nouvelles technologies comme l'imagerie médicale a permis l'expansion des études sur les fonctions cérébrales. Le rôle principal des études fonctionnelles cérébrales est de comparer l'activation neuronale entre différents individus. Dans ce contexte, la variabilité anatomique de la taille et de la forme du cerveau pose un problème majeur. Les méthodes actuelles permettent les comparaisons interindividuelles par la normalisation des cerveaux en utilisant un cerveau standard. Les cerveaux standards les plus utilisés actuellement sont le cerveau de Talairach et le cerveau de l'Institut Neurologique de Montréal (MNI) (SPM99). Les méthodes de recalage qui utilisent le cerveau de Talairach, ou celui de MNI, ne sont pas suffisamment précises pour superposer les parties plus variables d'un cortex cérébral (p.ex., le néocortex ou la zone perisylvienne), ainsi que les régions qui ont une asymétrie très importante entre les deux hémisphères. Le but de ce projet est d'évaluer une nouvelle technique de traitement d'images basée sur le recalage non-rigide et utilisant les repères anatomiques. Tout d'abord, nous devons identifier et extraire les structures anatomiques (les repères anatomiques) dans le cerveau à déformer et celui de référence. La correspondance entre ces deux jeux de repères nous permet de déterminer en 3D la déformation appropriée. Pour les repères anatomiques, nous utilisons six points de contrôle qui sont situés : un sur le gyrus de Heschl, un sur la zone motrice de la main et le dernier sur la fissure sylvienne, bilatéralement. Evaluation de notre programme de recalage est accomplie sur les images d'IRM et d'IRMf de neuf sujets parmi dix-huit qui ont participés dans une étude précédente de Maeder et al. Le résultat sur les images anatomiques, IRM, montre le déplacement des repères anatomiques du cerveau à déformer à la position des repères anatomiques de cerveau de référence. La distance du cerveau à déformer par rapport au cerveau de référence diminue après le recalage. Le recalage des images fonctionnelles, IRMf, ne montre pas de variation significative. Le petit nombre de repères, six points de contrôle, n'est pas suffisant pour produire les modifications des cartes statistiques. Cette thèse ouvre la voie à une nouvelle technique de recalage du cortex cérébral dont la direction principale est le recalage de plusieurs points représentant un sillon cérébral. Abstract : The fast development of new technologies such as digital medical imaging brought to the expansion of brain functional studies. One of the methodolgical key issue in brain functional studies is to compare neuronal activation between individuals. In this context, the great variability of brain size and shape is a major problem. Current methods allow inter-individual comparisions by means of normalisation of subjects' brains in relation to a standard brain. A largerly used standard brains are the proportional grid of Talairach and Tournoux and the Montreal Neurological Insititute standard brain (SPM99). However, there is a lack of more precise methods for the superposition of more variable portions of the cerebral cortex (e.g, neocrotex and perisyvlian zone) and in brain regions highly asymmetric between the two cerebral hemipsheres (e.g. planum termporale). The aim of this thesis is to evaluate a new image processing technique based on non-linear model-based registration. Contrary to the intensity-based, model-based registration uses spatial and not intensitiy information to fit one image to another. We extract identifiable anatomical features (point landmarks) in both deforming and target images and by their correspondence we determine the appropriate deformation in 3D. As landmarks, we use six control points that are situated: one on the Heschl'y Gyrus, one on the motor hand area, and one on the sylvian fissure, bilaterally. The evaluation of this model-based approach is performed on MRI and fMRI images of nine of eighteen subjects participating in the Maeder et al. study. Results on anatomical, i.e. MRI, images, show the mouvement of the deforming brain control points to the location of the reference brain control points. The distance of the deforming brain to the reference brain is smallest after the registration compared to the distance before the registration. Registration of functional images, i.e fMRI, doesn't show a significant variation. The small number of registration landmarks, i.e. six, is obvious not sufficient to produce significant modification on the fMRI statistical maps. This thesis opens the way to a new computation technique for cortex registration in which the main directions will be improvement of the registation algorithm, using not only one point as landmark, but many points, representing one particular sulcus.
Resumo:
This thesis studies gray-level distance transforms, particularly the Distance Transform on Curved Space (DTOCS). The transform is produced by calculating distances on a gray-level surface. The DTOCS is improved by definingmore accurate local distances, and developing a faster transformation algorithm. The Optimal DTOCS enhances the locally Euclidean Weighted DTOCS (WDTOCS) with local distance coefficients, which minimize the maximum error from the Euclideandistance in the image plane, and produce more accurate global distance values.Convergence properties of the traditional mask operation, or sequential localtransformation, and the ordered propagation approach are analyzed, and compared to the new efficient priority pixel queue algorithm. The Route DTOCS algorithmdeveloped in this work can be used to find and visualize shortest routes between two points, or two point sets, along a varying height surface. In a digital image, there can be several paths sharing the same minimal length, and the Route DTOCS visualizes them all. A single optimal path can be extracted from the route set using a simple backtracking algorithm. A new extension of the priority pixel queue algorithm produces the nearest neighbor transform, or Voronoi or Dirichlet tessellation, simultaneously with the distance map. The transformation divides the image into regions so that each pixel belongs to the region surrounding the reference point, which is nearest according to the distance definition used. Applications and application ideas for the DTOCS and its extensions are presented, including obstacle avoidance, image compression and surface roughness evaluation.