906 resultados para automatically generated meta classifiers with large levels
Resumo:
This thesis concerns artificially intelligent natural language processing systems that are capable of learning the properties of lexical items (properties like verbal valency or inflectional class membership) autonomously while they are fulfilling their tasks for which they have been deployed in the first place. Many of these tasks require a deep analysis of language input, which can be characterized as a mapping of utterances in a given input C to a set S of linguistically motivated structures with the help of linguistic information encoded in a grammar G and a lexicon L: G + L + C → S (1) The idea that underlies intelligent lexical acquisition systems is to modify this schematic formula in such a way that the system is able to exploit the information encoded in S to create a new, improved version of the lexicon: G + L + S → L' (2) Moreover, the thesis claims that a system can only be considered intelligent if it does not just make maximum usage of the learning opportunities in C, but if it is also able to revise falsely acquired lexical knowledge. So, one of the central elements in this work is the formulation of a couple of criteria for intelligent lexical acquisition systems subsumed under one paradigm: the Learn-Alpha design rule. The thesis describes the design and quality of a prototype for such a system, whose acquisition components have been developed from scratch and built on top of one of the state-of-the-art Head-driven Phrase Structure Grammar (HPSG) processing systems. The quality of this prototype is investigated in a series of experiments, in which the system is fed with extracts of a large English corpus. While the idea of using machine-readable language input to automatically acquire lexical knowledge is not new, we are not aware of a system that fulfills Learn-Alpha and is able to deal with large corpora. To instance four major challenges of constructing such a system, it should be mentioned that a) the high number of possible structural descriptions caused by highly underspeci ed lexical entries demands for a parser with a very effective ambiguity management system, b) the automatic construction of concise lexical entries out of a bulk of observed lexical facts requires a special technique of data alignment, c) the reliability of these entries depends on the system's decision on whether it has seen 'enough' input and d) general properties of language might render some lexical features indeterminable if the system tries to acquire them with a too high precision. The cornerstone of this dissertation is the motivation and development of a general theory of automatic lexical acquisition that is applicable to every language and independent of any particular theory of grammar or lexicon. This work is divided into five chapters. The introductory chapter first contrasts three different and mutually incompatible approaches to (artificial) lexical acquisition: cue-based queries, head-lexicalized probabilistic context free grammars and learning by unification. Then the postulation of the Learn-Alpha design rule is presented. The second chapter outlines the theory that underlies Learn-Alpha and exposes all the related notions and concepts required for a proper understanding of artificial lexical acquisition. Chapter 3 develops the prototyped acquisition method, called ANALYZE-LEARN-REDUCE, a framework which implements Learn-Alpha. The fourth chapter presents the design and results of a bootstrapping experiment conducted on this prototype: lexeme detection, learning of verbal valency, categorization into nominal count/mass classes, selection of prepositions and sentential complements, among others. The thesis concludes with a review of the conclusions and motivation for further improvements as well as proposals for future research on the automatic induction of lexical features.
Resumo:
Das allergische Asthma ist eine weit verbreitete, immunologische Erkrankung, deren Prävalenz in den vergangenen 20 Jahren vor allem in industrialisierten Regionen drastisch zugenommen hat. Trotz intensiver Forschung und Entwicklung medikamentöser Therapien steigt die Zahl der Patienten stetig an. Charakteristisch für diese Erkrankung sind entzündliche Veränderungen in der Lunge, erhöhte Atemwegsüberempfindlichkeit (AHR), Mukusproduktion und in chronischen Fällen auch Atemwegsobstruktion. Bei der Entstehung des allergischen Asthmas wird ein anfälliges Individuum durch die Inhalation eines normalerweise unschädlichen, in der Umwelt vorkommenden Antigens (Allergen) sensibilisiert, wodurch im Körper eine eigentlich unangebrachte Immunreaktion in Gang gesetzt wird. CD4+ T-Lymphozyten und ganz besonders die Subpopulationen der T-Helfer 1 (Th1) und Th2 Zellen spielen in dem Prozess eine zentrale Rolle. Obwohl ein Großteil der Asthmatiker mit einer Atemwegseosinophilie und erhöhter Expression der Th2-typischen Zytokine IL-4 und IL-13 ein Th2-typisches Krankheitsbild aufweisen, wurden weitere Asthmaphänotypen identifiziert. Vornehmlich in Patienten, die an schwerem Asthma leiden, sind dominierende Neutrophilie und erhöhte Mengen IFN-γ in den Atemwegen nachweisbar, was auf eine Th1-gesteuerte Immunreaktion hindeutet. Eine effektive, heilende Therapie des Asthmas wurde bislang nicht entwickelt. Die Inhibition der T-Zellantwort etwa durch Applikation allergenspezifischer, regulatorischer T-Zellen (Tregs) gilt als ein vielversprechender, aber nicht vollständig erforschter Ansatz zur Kontrolle der Krankheitssymptome. In diesem Zusammenhang wurden in der vorliegenden Arbeit die Mechanismen und Effekte natürlich vorkommender CD4+CD25+Foxp3+ regulatorischer T-Zellen (nTregs) auf eine Th1 bzw. Th2-induzierte allergische Atemwegserkrankung untersucht. Anhand eines adoptiven Zelltransfermodells unter Einsatz lymphozytendefizienter Rag2-/- Mäuse konnte gezeigt werden, dass sowohl Th1 als auch Th2 Zellen, kombiniert mit mehrfacher, inhalativer Allergenprovokation, eine erhöhte AHR induzieren. Während der Transfer allergenspezifischer Th2 Zellen eine Eosinophilie in der bronchoalveolären Lavage (BAL) und vermehrte Mukusproduktion in den Atemwegen hervorrief, war in Th1-transferierten Tieren zwar eine massive Infiltration neutrophiler Granulozyten zu beobachten, eine Becherzellmetaplasie mit vermehrten, mukusproduzierenden Atemwegsepithelzellen blieb allerdings aus. In vitro und in vivo waren voraktivierte nTregs (preTregs) nur eingeschränkt in der Lage, die Th2-gesteuerte Atemwegserkrankung zu inhibieren. Im Gegensatz dazu konnten die Th1-Effektorfunktionen in vitro und die Th1-induzierte AHR und Atemwegsentzündung in vivo durch preTregs effektiv gehemmt werden, was auf eine unterschiedliche Empfindlichkeit der Th-Subpopulationen weist. Innerhalb der nTreg-vermittelten Suppression wird der sekundäre Botenstoff cAMP auf die zu supprimierende Zelle übertragen und führt zur Hemmung von Proliferation und Zytokinproduktion. Dass dieser Mechanismus nicht nur in vitro, sondern auch in der Suppression der Th2-gesteuerten allergischen Atemwegserkrankung eine Rolle spielt, konnte durch die Störung des intrazellulären cAMP-Abbaus mittels PDE4-Inhibitoren verdeutlicht werden. Sowohl die prophylaktische, als auch die therapeutische Applikation der PDE4-Inhibitoren verstärkte den regulativen Effekt der nTregs auf AHR und Entzündung, korrelierend mit erhöhten, zytosolischen cAMP-Konzentrationen in den Th2 Zellen der Lunge. Trotz des Fortschritts in der Isolation und In vitro-Expansion humaner nTregs ist die Ausbeute an Zellen äußerst limitiert und die Übertragbarkeit größerer Zellmengen nicht zuletzt aufgrund von hohem Kontaminationsrisiko während mehrtägiger In vitro-Expansion fragwürdig. Die Ergebnisse der vorliegenden Arbeit zeigen, dass eine Behandlung mit dem PDE4-Inhibitor die suppressive Kapazität der allergenspezifischen nTregs deutlich erhöhte. Den nTreg-vermittelten Suppressionsmechanismus durch den Einsatz von Pharmazeutika zu unterstützen bietet einen viel versprechenden und realistischen Ansatz zur Therapie des allergischen Asthmas.
Resumo:
Im Rahmen dieser Arbeit wurde die Bindung von Koffein und verwandten Oxopurinen in C¬3-symmetrischen Rezeptoren auf der Basis von Triphenylenketalen untersucht. Dabei stand vor allem die Evaluierung für eine spätere Anwendung im Vordergrund. Für die Anwendung als Chemosensor wurden mehrere optische Verfahren getestet. Die Verwendung von UV/Vis-Spektroskopie gelingt nur unter Einsatz eines elektronenarmen Konkurrenzgastes, welcher durch das stärker bindende Koffein unter Entfärbung verdrängt wird. Obwohl dieser Effekt sogar mit bloßem Auge zu erkennen ist und somit eine einfache Untersuchung ermöglichen würde, machen die besondere Reaktivität des Konkurrenzgastes und dessen geringe Affinität zum Rezeptor eine weitere Anwendung als Chemosensor für Koffein unwahrscheinlich. Den entscheidenden Durchbruch lieferte der Wechsel auf Fluoreszenzspektroskopie. Die Bindung von Gästen lässt sich mit dieser Methode direkt beobachten und für quantitative Studien nutzen. Die Signalzunahme bei Zugabe von Koffein liegt bei maximal 30%. Durch Verwendung eines vom Koffein abgeleiteten Konkurrenzgastes können weitere Verbesserungen erzielt werden. So konnte eine maximale Signaldynamik von fast 400% erzielt werden. Durch die Entwicklung eines geeigneten Probenvorbereitungsprotokolls war es möglich, mit dem fluoreszenzbasierten System einen Nachweis von Koffein an kommerziell verfügbaren Getränkeproben durchzuführen. Die Ergebnisse waren in guter Übereinstimmung mit HPLC-Kontrollexperimenten. Die Eignung von Rezeptoren auf Triphenylenketalbasis für die enantiofaciale Differenzierung an Heteroaromaten wurde durch Untersuchung verschiedener Wirt-Gast-Komplexe mittels CD-Spektroskopie und Tieftemperatur-NMR systematisch demonstriert. Rezeptoren mit Menthyl-Substituenten liefern laut NMR die stärkste Seitendifferenzierung. Anhand des CD wird ein vollständiges und schlüssiges Bild über den Zusammenhang zwischen dem Raumbedarf am Gast, der Ausrichtung der chiralen Gruppen am Wirt und dem erhaltenen CD hergestellt. Durch umfangreiche molekulardynamische Simulationen und nachfolgende semiempirische Berechnungen wurden Referenzspektren berechnet, welche die Zuordnung der Stereochemie anhand des CD eindeutig belegen. Die Ergebnisse sind zudem in guter Übereinstimmung mit den Ergebnissen aus röntgenkristallographischen Untersuchungen. (Diese Methode ließ sich erfolgreich auf die helicale Faltung von Alkanen in Kapseln von Rebek, jr. umsetzen.) Obwohl die Energieunterschiede zwischen den diastereomeren Komplexen klein sind, konnte anhand der CD-Spektroskopie somit erstmalig die enantiofaciale Differenzierung an einem heterocyclischen System bei Raumtemperatur beobachtet werden. Die beste enantiofaciale Differenzierung erzielen die Menthyl-abgeleiteten Rezeptoren. Diese sind hinsichtlich einer möglichen Anwendung als chirales „Auxiliar“ ungeeignet, da sie mit den sperrigen Cyclohexylgruppen auch den Raum oberhalb des gebundenen Gastes blockieren. Daher wird für die weitere Entwicklung auf die praktische Einführung chiraler Information in Form des Isocyanats verzichten werden müssen. Stattdessen zielen aktuelle Bemühungen auf den Aufbau chiraler Rückgrate, welche den Raum in der unteren Peripherie des Gastes beeinflussen.
Resumo:
The development of anti-IFNα antibodies is an occurrence described in chronic hepatitis C patients during treatment with Interferonα/PEG-Interferonα. However, its relevance, especially in difficult-to treat patients, has not been defined. Methods: We retrospectively measured the serum levels of anti-IFNα antibodies (baseline and week 12) and IFNα levels (week 12) by ELISA in 76 previous non-responders, and in 14 naive patients treated with Pegylated-IFNα and Ribavirin. A group of 57 healthy donors (HD) was also assessed as control. Positivity to anti-IFNα antibodies was established on the values of HD. Results: Baseline anti-IFNα antibodies were detected in 15.5% of patients and in 7% of HD, with significantly higher concentrations in patients than HD (181.5±389.9 vs 95.9±143.0 ng mL−1, p=0.0023). All positive patients were IFNα-experienced. At week 12, the prevalence of positivity increased to 22.3 and 28.5% in experienced and naïve patients, respectively, and the levels of anti-IFNα antibodies did not differ between the two groups (391±792.3 vs 384.7±662.6 ng mL−1, respectively). IFNα concentrations were significantly lower in antibody-positive patients than in antibody-negatives (988.2±1402 vs 3462±830.8 pg mL−1, p≤0.0001) and the levels of antibodies and IFNα were inversely correlated (r=-0.405, p=0.0001). The antibody-positive population clustered in null responders (67%) and 19/21 patients (90%) did not achieve SVR. Conclusions: The development of anti-IFNα antibodies is a non-negligible occurrence in patients treated with PEG-IFNα, is stable over time, and has a relevant clinical impact when associated with low levels of circulating PEG-IFNα. It should be considered in patients undergoing treatments including PEG-IFNα.
Resumo:
In hadronischen Kollisionen entstehen bei einem Großteil der Ereignisse mit einem hohen Impulsübertrag Paare aus hochenergetischen Jets. Deren Produktion und Eigenschaften können mit hoher Genauigkeit durch die Störungstheorie in der Quantenchromodynamik (QCD) vorhergesagt werden. Die Produktion von \textit{bottom}-Quarks in solchen Kollisionen kann als Maßstab genutzt werden, um die Vorhersagen der QCD zu testen, da diese Quarks die Dynamik des Produktionsprozesses bei Skalen wieder spiegelt, in der eine Störungsrechnung ohne Einschränkungen möglich ist. Auf Grund der hohen Masse von Teilchen, die ein \textit{bottom}-Quark enthalten, erhält der gemessene, hadronische Zustand den größten Teil der Information von dem Produktionsprozess der Quarks. Weil sie eine große Produktionsrate besitzen, spielen sie und ihre Zerfallsprodukte eine wichtige Rolle als Untergrund in vielen Analysen, insbesondere in Suchen nach neuer Physik. In ihrer herausragenden Stellung in der dritten Quark-Generation könnten sich vermehrt Zeichen im Vergleich zu den leichteren Quarks für neue Phänomene zeigen. Daher ist die Untersuchung des Verhältnisses zwischen der Produktion von Jets, die solche \textit{bottom}-Quarks enthalten, auch bekannt als $b$-Jets, und aller nachgewiesener Jets ein wichtiger Indikator für neue massive Objekte. In dieser Arbeit werden die Produktionsrate und die Korrelationen von Paaren aus $b$-Jets bestimmt und nach ersten Hinweisen eines neuen massiven Teilchens, das bisher nicht im Standard-Modell enthalten ist, in dem invarianten Massenspektrum der $b$-Jets gesucht. Am Large Hadron Collider (LHC) kollidieren zwei Protonenstrahlen bei einer Schwerpunktsenergie von $\sqrt s = 7$ TeV, und es werden viele solcher Paare aus $b$-Jets produziert. Diese Analyse benutzt die aufgezeichneten Kollisionen des ATLAS-Detektors. Die integrierte Luminosität der verwendbaren Daten beläuft sich auf 34~pb$^{-1}$. $b$-Jets werden mit Hilfe ihrer langen Lebensdauer und den rekonstruierten, geladenen Zerfallsprodukten identifiziert. Für diese Analyse müssen insbesondere die Unterschiede im Verhalten von Jets, die aus leichten Objekten wie Gluonen und leichten Quarks hervorgehen, zu diesen $b$-Jets beachtet werden. Die Energieskala dieser $b$-Jets wird untersucht und die zusätzlichen Unsicherheit in der Energiemessung der Jets bestimmt. Effekte bei der Jet-Rekonstruktion im Detektor, die einzigartig für $b$-Jets sind, werden studiert, um letztlich diese Messung unabhängig vom Detektor und auf Niveau der Hadronen auswerten zu können. Hiernach wird die Messung zu Vorhersagen auf nächst-zu-führender Ordnung verglichen. Dabei stellt sich heraus, dass die Vorhersagen in Übereinstimmung zu den aufgenommenen Daten sind. Daraus lässt sich schließen, dass der zugrunde liegende Produktionsmechanismus auch in diesem neu erschlossenen Energiebereich am LHC gültig ist. Jedoch werden auch erste Hinweise auf Mängel in der Beschreibung der Eigenschaften dieser Ereignisse gefunden. Weiterhin können keine Anhaltspunkte für eine neue Resonanz, die in Paare aus $b$-Jets zerfällt, in dem invarianten Massenspektrum bis etwa 1.7~TeV gefunden werden. Für das Auftreten einer solchen Resonanz mit einer Gauß-förmigen Massenverteilung werden modell-unabhängige Grenzen berechnet.
Resumo:
Durch steigende Energiekosten und erhöhte CO2 Emission ist die Forschung an thermoelektrischen (TE) Materialien in den Fokus gerückt. Die Eignung eines Materials für die Verwendung in einem TE Modul ist verknüpft mit der Gütezahl ZT und entspricht α2σTκ-1 (Seebeck Koeffizient α, Leitfähigkeit σ, Temperatur T und thermische Leitfähigkeit κ). Ohne den Leistungsfaktor α2σ zu verändern, soll ZT durch Senkung der thermischen Leitfähigkeit mittels Nanostrukturierung angehoben werden.rnBis heute sind die TE Eigenschaften von den makroskopischen halb-Heusler Materialen TiNiSn und Zr0.5Hf0.5NiSn ausgiebig erforscht worden. Mit Hilfe von dc Magnetron-Sputterdeposition wurden nun erstmals halbleitende TiNiSn und Zr0.5Hf0.5NiSn Schichten hergestellt. Auf MgO (100) Substraten sind stark texturierte polykristalline Schichten bei Substrattemperaturen von 450°C abgeschieden worden. Senkrecht zur Oberfläche haben sich Korngrößen von 55 nm feststellen lassen. Diese haben Halbwertsbreiten bei Rockingkurven von unter 1° aufgewiesen. Strukturanalysen sind mit Hilfe von Röntgenbeugungsexperimenten (XRD) durchgeführt worden. Durch Wachstumsraten von 1 nms 1 konnten in kürzester Zeit Filmdicken von mehr als einem µm hergestellt werden. TiNiSn zeigte den höchsten Leistungsfaktor von 0.4 mWK 2m 1 (550 K). Zusätzlich wurde bei Raumtemperatur mit Hilfe der differentiellen 3ω Methode eine thermische Leitfähigkeit von 2.8 Wm 1K 1 bestimmt. Es ist bekannt, dass die thermische Leitfähigkeit mit der Variation von Massen abnimmt. Weil zudem angenommen wird, dass sie durch Grenzflächenstreuung von Phononen ebenfalls reduziert wird, wurden Übergitter hergestellt. Dabei wurden TiNiSn und Zr0.5Hf0.5NiSn nacheinander abgeschieden. Die sehr hohe Kristallqualität der Übergitter mit ihren scharfen Grenzflächen konnte durch Satellitenpeaks und Transmissionsmikroskopie (STEM) nachgewiesen werden. Für ein Übergitter mit einer Periodizität von 21 nm (TiNiSn und Zr0.5Hf0.5NiSn jeweils 10.5 nm) ist bei einer Temperatur von 550 K ein Leistungsfaktor von 0.77 mWK 2m 1 nachgewiesen worden (α = 80 µVK 1; σ = 8.2 µΩm). Ein Übergitter mit der Periodizität von 8 nm hat senkrecht zu den Grenzflächen eine thermische Leitfähigkeit von 1 Wm 1K 1 aufgewiesen. Damit hat sich die Reduzierung der thermischen Leitfähigkeit durch die halb-Heusler Übergitter bestätigt. Durch die isoelektronischen Eigenschaften von Titan, Zirkonium und Hafnium wird angenommen, dass die elektrische Bandstruktur und damit der Leistungsfaktor senkrecht zu den Grenzflächen nur schwach beeinflusst wird.rn
Resumo:
Angiotensin II induziert intrazellulär die Bildung reaktiver Sauerstoffspezies, welche DNA-Schäden erzeugen können. Um die Hypothese zu prüfen, dass durch Angiotensin II induzierte DNA-Schäden für die erhöhte Krebsinzidenz hypertensiver Menschen verantwortlich sind, wurde eine vierwöchige Behandlung von Mäusen mit Angiotensin II (0,6 μg/kg/min) durchgeführt. Mit der Alkalischen Elution wurden in Zellen aus verschiedenen Organen der Mäuse die Menge an DNA-Einzelstrangbrüchen und oxidativen DNA-Modifikationen bestimmt. In der Niere wurde außerdem mit dem BigBlue® Mutations-Assay die Entstehung von Mutationen analysiert. In keinem der analysierten Organe konnte eine Erhöhung der DNA-Schäden oder eine Erhöhung der Mutationsfrequenzen durch die Angiotensin II-Behandlung nachgewiesen werden. Die durchgeführten Untersuchungen geben somit keinen Hinweis auf eine DNA-schädigende und mutagene Wirkung von Angiotensin II.rnBei der Entstehung und dem Krankheitsverlauf von Arteriosklerose spielen reaktive Sauerstoffspezies ebenfalls eine noch nicht genau geklärte Rolle. Um zu ermitteln, ob oxidative DNA-Schäden die Entstehung der Arteriosklerose begünstigen, wurde die Endothelfunktion von Wildtyp- und reparaturdefizienten Ogg1-/--Mäusen verglichen. Entgegen der Vermutung, dass oxidative DNA-Modifikationen die Endothelfunktion verschlechtern, zeigen die Untersuchungen, dass Ogg1-/--Mäuse, die höhere Spiegel an oxidativen DNA-Modifikationen in ihrem Genom haben, eine signifikant bessere Endothelfunktion besitzen als Wildtyptiere. Dieser Befund weist auf eine neuartige, von der DNA-Reparatur unabhängige Funktion von OGG1 hin.rn
Resumo:
Satellite image classification involves designing and developing efficient image classifiers. With satellite image data and image analysis methods multiplying rapidly, selecting the right mix of data sources and data analysis approaches has become critical to the generation of quality land-use maps. In this study, a new postprocessing information fusion algorithm for the extraction and representation of land-use information based on high-resolution satellite imagery is presented. This approach can produce land-use maps with sharp interregional boundaries and homogeneous regions. The proposed approach is conducted in five steps. First, a GIS layer - ATKIS data - was used to generate two coarse homogeneous regions, i.e. urban and rural areas. Second, a thematic (class) map was generated by use of a hybrid spectral classifier combining Gaussian Maximum Likelihood algorithm (GML) and ISODATA classifier. Third, a probabilistic relaxation algorithm was performed on the thematic map, resulting in a smoothed thematic map. Fourth, edge detection and edge thinning techniques were used to generate a contour map with pixel-width interclass boundaries. Fifth, the contour map was superimposed on the thematic map by use of a region-growing algorithm with the contour map and the smoothed thematic map as two constraints. For the operation of the proposed method, a software package is developed using programming language C. This software package comprises the GML algorithm, a probabilistic relaxation algorithm, TBL edge detector, an edge thresholding algorithm, a fast parallel thinning algorithm, and a region-growing information fusion algorithm. The county of Landau of the State Rheinland-Pfalz, Germany was selected as a test site. The high-resolution IRS-1C imagery was used as the principal input data.
Resumo:
Intramyocellular lipids (IMCL) are flexible fuel stores that are depleted by physical exercise and replenished by fat intake. IMCL or their degradation products are thought to interfere with insulin signaling thereby contributing to insulin resistance. From a practical point of view it is desirable to deplete IMCL prior to replenishing them. So far, it is not clear for how long and at which intensity subjects have to exercise in order to deplete IMCL. We therefore aimed at developing a standardized exercise protocol that is applicable to subjects over a broad range of exercise capacity and insulin sensitivity and allows measuring reliably reduced IMCL levels.Twelve male subjects, including four diabetes type 2 patients, with wide ranges of exercise capacity (VO(2)peak per total body weight 27.9-55.8 ml x kg(-1) x min(-1)), insulin sensitivity (glucose infusion rate per lean body mass 4.7-15.3 mg x min(-1) x kg(-1)), and BMI (21.7-31.5 kg x m(-2)), respectively, were enrolled. Using (1)H magnetic resonance spectroscopy ((1)H-MRS), IMCL was measured in m.tibialis anterior and m.vastus intermedius before and during a depletion protocol of a week, consisting of a moderate additional physical activity (1 h daily at 60% VO(2)peak) and modest low-fat (10-15%) diet.Absolute IMCL-levels were significantly reduced in both muscles during the first 3 days and stayed constant for the next 3 days of an identical diet/exercise-scheme. These reduced IMCL levels were independent of insulin sensitivity, yet a tendency to lower depleted IMCL levels has been observed in subjects with higher VO(2)peak.The proposed protocol is feasible in subjects with large differences in exercise capacity, insulin sensitivity, and BMI, leading to reduced IMCL levels that neither depend on the exact duration of the depletion protocol nor on insulin sensitivity. This allows for a standardized preparation of IMCL levels either for correlation with other physiological parameters or for replenishment studies.
Resumo:
Osteoarticular allograft is one possible treatment in wide surgical resections with large defects. Performing best osteoarticular allograft selection is of great relevance for optimal exploitation of the bone databank, good surgery outcome and patient’s recovery. Current approaches are, however, very time consuming hindering these points in practice. We present a validation study of a software able to perform automatic bone measurements used to automatically assess the distal femur sizes across a databank. 170 distal femur surfaces were reconstructed from CT data and measured manually using a size measure protocol taking into account the transepicondyler distance (A), anterior-posterior distance in medial condyle (B) and anterior-posterior distance in lateral condyle (C). Intra- and inter-observer studies were conducted and regarded as ground truth measurements. Manual and automatic measures were compared. For the automatic measurements, the correlation coefficients between observer one and automatic method, were of 0.99 for A measure and 0.96 for B and C measures. The average time needed to perform the measurements was of 16 h for both manual measurements, and of 3 min for the automatic method. Results demonstrate the high reliability and, most importantly, high repeatability of the proposed approach, and considerable speed-up on the planning.
Resumo:
Malignant rhabdoid tumor (MRT) of the liver is a rare malignancy with grave prognosis. This entity should be considered in the differential diagnosis of any aggressive liver tumor with low levels of alpha fetoprotein. We report 2 cases of hepatic MRT presenting in infancy. In these 2 cases, we show that loss of INI1 facilitates making the correct diagnosis of primary hepatic MRT utilizing BAF 47 (INI1 gene product) immunostains. Difficulty encountered in making this rare diagnosis, including the need for repeated biopsies, can be avoided if MRT is considered in the differential diagnosis early on and BAF 47 immunohistochemistry is ordered.
Resumo:
Long-term results after laparoscopic repair of large incisional hernias remain to be determined. The aim of this prospective study was to compare early and late complications between laparoscopic repair and open repair in patients with large incisional hernias.
Resumo:
Osteoarticular allograft transplantation is a popular treatment method in wide surgical resections with large defects. For this reason hospitals are building bone data banks. Performing the optimal allograft selection on bone banks is crucial to the surgical outcome and patient recovery. However, current approaches are very time consuming hindering an efficient selection. We present an automatic method based on registration of femur bones to overcome this limitation. We introduce a new regularization term for the log-domain demons algorithm. This term replaces the standard Gaussian smoothing with a femur specific polyaffine model. The polyaffine femur model is constructed with two affine (femoral head and condyles) and one rigid (shaft) transformation. Our main contribution in this paper is to show that the demons algorithm can be improved in specific cases with an appropriate model. We are not trying to find the most optimal polyaffine model of the femur, but the simplest model with a minimal number of parameters. There is no need to optimize for different number of regions, boundaries and choice of weights, since this fine tuning will be done automatically by a final demons relaxation step with Gaussian smoothing. The newly developed synthesis approach provides a clear anatomically motivated modeling contribution through the specific three component transformation model, and clearly shows a performance improvement (in terms of anatomical meaningful correspondences) on 146 CT images of femurs compared to a standard multiresolution demons. In addition, this simple model improves the robustness of the demons while preserving its accuracy. The ground truth are manual measurements performed by medical experts.
Resumo:
A major myonecrotic zinc containing metalloprotease 'malabarin' with thrombin like activity was purified by the combination of gel permeation and anion exchange chromatography from T. malabaricus snake venom. MALDI-TOF analysis of malabarin indicated a molecular mass of 45.76 kDa and its N-terminal sequence was found to be Ile-Ile-Leu- Pro(Leu)-Ile-Gly-Val-Ile-Leu(Glu)-Thr-Thr. Atomic absorption spectral analysis of malabarin raveled the association of zinc metal ion. Malabarin is not lethal when injected i.p. or i.m. but causes extensive hemorrhage and degradation of muscle tissue within 24 hours. Sections of muscle tissue under light microscope revealed hemorrhage and congestion of blood vessel during initial stage followed by extensive muscle fiber necrosis with elevated levels of serum creatine kinase and lactate dehydrogenase activity. Malabarin also exhibited strong procoagulant action and its procoagulant action is due to thrombin like activity; it hydrolyzes fibrinogen to form fibrin clot. The enzyme preferentially hydrolyzes A? followed by B subunits of fibrinogen from the N-terminal region and the released products were identified as fibrinopeptide A and fibrinopeptide B by MALDI. The myonecrotic, fibrinogenolytic and subsequent procoagulant activities of malabarin was neutralized by specific metalloprotease inhibitors such as EDTA, EGTA and 1, 10-phenanthroline but not by PMSF a specific serine protease inhibitor. Since there is no antivenom available to neutralize local toxicity caused by T. malabaricus snakebite, EDTA chelation therapy may have more clinical relevance over conventional treatment.
Resumo:
1.Biologists have long puzzled over the apparent conspicuousness of blue-green eggshell coloration in birds. One candidate explanation is the sexual signalling hypothesis that the blue-green colour of eggshells can reveal an intrinsic aspect of females' physiological quality, with only high-quality females having sufficient antioxidant capacity to pigment their eggs with large amounts of biliverdin. Subsequent work has argued instead that eggshell colour might signal condition-dependent traits based on diet. 2.Using Araucana chickens that lay blue-green eggs, we explored (i) whether high levels of dietary antioxidants yield eggshells with greater blue-green reflectance, (ii) whether females differ from one another in eggshell coloration despite standardized environments, diets and rearing conditions, and (iii) the relative strength with which diet vs. female identity affects eggshell coloration. 3.We reared birds to maturity and then placed them on either a high- or low-antioxidant diet, differing fourfold in Vitamin E acetate and Vitamin A retinol. After 8 weeks, the treatments were reversed, such that females laid eggs on both diets in an order-balanced design. We measured the reflectance spectra of 545 eggs from 25 females. 4.Diet had a very limited effect on eggshell spectral reflectance, but individual females differed strongly and consistently from one another, despite having been reared under uniform conditions. However, predictions from avian visual modelling suggest that most of the egg colour differences between females, and nearly all of the differences between diets, are unlikely to be visually discriminable. 5.Our data suggest that eggshell reflectance spectra may carry information on intrinsic properties of the female that laid the eggs, but the utility of this coloration as a signal to conspecifics in this species may be limited by the sensitivity of a receiver to detect it.