973 resultados para Siglos I a.C.-I d.C.
Resumo:
Introduction 1.1 Occurrence of polycyclic aromatic hydrocarbons (PAH) in the environment Worldwide industrial and agricultural developments have released a large number of natural and synthetic hazardous compounds into the environment due to careless waste disposal, illegal waste dumping and accidental spills. As a result, there are numerous sites in the world that require cleanup of soils and groundwater. Polycyclic aromatic hydrocarbons (PAHs) are one of the major groups of these contaminants (Da Silva et al., 2003). PAHs constitute a diverse class of organic compounds consisting of two or more aromatic rings with various structural configurations (Prabhu and Phale, 2003). Being a derivative of benzene, PAHs are thermodynamically stable. In addition, these chemicals tend to adhere to particle surfaces, such as soils, because of their low water solubility and strong hydrophobicity, and this results in greater persistence under natural conditions. This persistence coupled with their potential carcinogenicity makes PAHs problematic environmental contaminants (Cerniglia, 1992; Sutherland, 1992). PAHs are widely found in high concentrations at many industrial sites, particularly those associated with petroleum, gas production and wood preserving industries (Wilson and Jones, 1993). 1.2 Remediation technologies Conventional techniques used for the remediation of soil polluted with organic contaminants include excavation of the contaminated soil and disposal to a landfill or capping - containment - of the contaminated areas of a site. These methods have some drawbacks. The first method simply moves the contamination elsewhere and may create significant risks in the excavation, handling and transport of hazardous material. Additionally, it is very difficult and increasingly expensive to find new landfill sites for the final disposal of the material. The cap and containment method is only an interim solution since the contamination remains on site, requiring monitoring and maintenance of the isolation barriers long into the future, with all the associated costs and potential liability. A better approach than these traditional methods is to completely destroy the pollutants, if possible, or transform them into harmless substances. Some technologies that have been used are high-temperature incineration and various types of chemical decomposition (for example, base-catalyzed dechlorination, UV oxidation). However, these methods have significant disadvantages, principally their technological complexity, high cost , and the lack of public acceptance. Bioremediation, on the contrast, is a promising option for the complete removal and destruction of contaminants. 1.3 Bioremediation of PAH contaminated soil & groundwater Bioremediation is the use of living organisms, primarily microorganisms, to degrade or detoxify hazardous wastes into harmless substances such as carbon dioxide, water and cell biomass Most PAHs are biodegradable unter natural conditions (Da Silva et al., 2003; Meysami and Baheri, 2003) and bioremediation for cleanup of PAH wastes has been extensively studied at both laboratory and commercial levels- It has been implemented at a number of contaminated sites, including the cleanup of the Exxon Valdez oil spill in Prince William Sound, Alaska in 1989, the Mega Borg spill off the Texas coast in 1990 and the Burgan Oil Field, Kuwait in 1994 (Purwaningsih, 2002). Different strategies for PAH bioremediation, such as in situ , ex situ or on site bioremediation were developed in recent years. In situ bioremediation is a technique that is applied to soil and groundwater at the site without removing the contaminated soil or groundwater, based on the provision of optimum conditions for microbiological contaminant breakdown.. Ex situ bioremediation of PAHs, on the other hand, is a technique applied to soil and groundwater which has been removed from the site via excavation (soil) or pumping (water). Hazardous contaminants are converted in controlled bioreactors into harmless compounds in an efficient manner. 1.4 Bioavailability of PAH in the subsurface Frequently, PAH contamination in the environment is occurs as contaminants that are sorbed onto soilparticles rather than in phase (NAPL, non aqueous phase liquids). It is known that the biodegradation rate of most PAHs sorbed onto soil is far lower than rates measured in solution cultures of microorganisms with pure solid pollutants (Alexander and Scow, 1989; Hamaker, 1972). It is generally believed that only that fraction of PAHs dissolved in the solution can be metabolized by microorganisms in soil. The amount of contaminant that can be readily taken up and degraded by microorganisms is defined as bioavailability (Bosma et al., 1997; Maier, 2000). Two phenomena have been suggested to cause the low bioavailability of PAHs in soil (Danielsson, 2000). The first one is strong adsorption of the contaminants to the soil constituents which then leads to very slow release rates of contaminants to the aqueous phase. Sorption is often well correlated with soil organic matter content (Means, 1980) and significantly reduces biodegradation (Manilal and Alexander, 1991). The second phenomenon is slow mass transfer of pollutants, such as pore diffusion in the soil aggregates or diffusion in the organic matter in the soil. The complex set of these physical, chemical and biological processes is schematically illustrated in Figure 1. As shown in Figure 1, biodegradation processes are taking place in the soil solution while diffusion processes occur in the narrow pores in and between soil aggregates (Danielsson, 2000). Seemingly contradictory studies can be found in the literature that indicate the rate and final extent of metabolism may be either lower or higher for sorbed PAHs by soil than those for pure PAHs (Van Loosdrecht et al., 1990). These contrasting results demonstrate that the bioavailability of organic contaminants sorbed onto soil is far from being well understood. Besides bioavailability, there are several other factors influencing the rate and extent of biodegradation of PAHs in soil including microbial population characteristics, physical and chemical properties of PAHs and environmental factors (temperature, moisture, pH, degree of contamination). Figure 1: Schematic diagram showing possible rate-limiting processes during bioremediation of hydrophobic organic contaminants in a contaminated soil-water system (not to scale) (Danielsson, 2000). 1.5 Increasing the bioavailability of PAH in soil Attempts to improve the biodegradation of PAHs in soil by increasing their bioavailability include the use of surfactants , solvents or solubility enhancers.. However, introduction of synthetic surfactant may result in the addition of one more pollutant. (Wang and Brusseau, 1993).A study conducted by Mulder et al. showed that the introduction of hydropropyl-ß-cyclodextrin (HPCD), a well-known PAH solubility enhancer, significantly increased the solubilization of PAHs although it did not improve the biodegradation rate of PAHs (Mulder et al., 1998), indicating that further research is required in order to develop a feasible and efficient remediation method. Enhancing the extent of PAHs mass transfer from the soil phase to the liquid might prove an efficient and environmentally low-risk alternative way of addressing the problem of slow PAH biodegradation in soil.
Resumo:
In der murinen kutanen Leishmaniose ist die Ausheilung der Infektion mit dem Auftreten von schützenden CD4+ Th1- sowie CD8+ Tc1-Immunantworten assoziiert. Daher sollte eine wirksame Vakzine beide T-Zell-Populationen induzieren. Im Rahmen dieser Dissertation konnte gezeigt werden, daß mit TAT-LACK Fusionsproteinen effektiv gegen eine progressiv verlaufende Infektion mit Leishmania major in empfindlichen BALB/c sowie resistenten C57BL/6 Mäusen vakziniert werden kann. TAT-LACK konnte hierbei sowohl im DC- als auch im proteinbasierten Ansatz protektive Immunität verleihen. Das TAT-Peptid ist in der Lage, Proteine direkt in das Zytosol von DC zu schleusen und so den für die CD8+ T-Zell-Antworten erforderlichen MHC Klasse I Präsentationsweg einzuschlagen. Stammesspezifische Untersuchungen des inflammatorischen Infiltrates in Läsion und Lymphknoten bestätigten die physiologische Relevanz von DC und CD8+ T-Zellen im Verlauf einer etablierten Leishmania-Infektion in beiden Mausstämmen und rechtfertigten somit den Einsatz einer DC basierten Vakzine, die vermehrt CD8+ T-Zellen induzieren sollte. Tatsächlich konnte mit TAT-LACK transduzierten DC in beiden Mausstämmen effektiv gegen eine progressiv verlaufende Leishmania-Infektion vakziniert werden. Der Vakzinierungserfolg ließ sich anhand verringerter Läsionsvolumina, reduzierter Parasitenlasten und einer Verschiebung des Zytokinprofils in Richtung einer Th1 dominierten Immunantwort bestätigen. In allen Ansätzen war die i.d. Vakzinierung mit TAT-LACK transduzierten DC der Injektion von LACK gepulsten DC überlegen. Experimente mit DC aus IL-12p40 defizienten Mäusen belegten die IL-12 Abhängigkeit der Vakzine. Mit Hilfe von in vitro Restimulierungsexperimenten konnte nachgewiesen werden, daß nach Applikation TAT-LACK transduzierter DC in beiden Mausstämmen vermehrt CD8+ T-Zellen induziert werden. Des weiteren waren TAT-LACK transduzierte DC in Restimulationsexperimenten stärkere Aktivatoren der CD8+ T-Zell-Proliferation als LACK gepulste DC. Depletionsexperimente bestätigten die T-Zell-Abhängigkeit der Vakzine. Weitere in vivo Versuche belegten zudem die protektive Wirkung von TAT-LACK Fusionsproteinen im direkten, proteinbasierten Vakzinierungsansatz. Floreszenzmikroskopische Analysen der Epidermis bestätigten hierbei Aktivierung und Auswanderung von LC nach i.d. TAT-LACK Applikation.
Resumo:
Numerose evidenze sperimentali hanno dimostrato il contributo delle cellule staminali di derivazione midollare nei processi di rigenerazione epatica dopo danno tissutale. E’ cresciuto pertanto l’interesse sul loro potenziale impiego in pazienti con cirrosi. Questo studio si propone di valutare la fattibilità e la sicurezza della reinfusione intraepatica di cellule staminali midollari autologhe CD133+ in 12 pazienti con insufficienza epatica terminale definita da un punteggio di Model for End Stage of Liver Disease (MELD) compreso tra 17 e 25. L’efficacia in termini di funzionalità epatica rappresenta un obiettivo secondario. Previa mobilizzazione nel sangue periferico mediante somministrazione di granulocyte-colony stimulating factor (G-CSF) alla dose di 7,5 mcg/Kg/b.i.d. e raccolta per leucoaferesi, le cellule CD133+ altamente purificate vengono reinfuse in arteria epatica a partire da 5x104/Kg fino a 1x106/kg. Nei tre giorni successivi si somministra G-CSF per favorire l’espansione e l’attecchimento delle cellule. Durante la mobilizzazione, la reinfusione e nei 12 mesi successivi i pazienti sono sottoposti a periodici controlli clinici, laboratoristici e strumentali e ad attenta valutazione di effetti collaterali. Lo studio è tuttora in corso e ad oggi, 11 pazienti sono stati sottoposti a reinfusione e 4 hanno completato i 12 mesi di follow-up. Il G-CSF è stato ben tollerato e ha consentito di ottenere una buona espansione cellulare. Dopo la reinfusione sono stati documentati un ematoma inguinale e due episodi transitori di encefalopatia portosistemica. Durante il follow-up 4 pazienti sono stati trapiantati e 2 sono morti. Non è stata osservata alcuna modificazione significativa degli indici di funzione epatica. Questi risultati preliminari confermano la possibilità di mobilizzare e reinfondere un numero adeguato di cellule staminali di derivazione midollare in pazienti con malattia epatica in stadio terminale.
Resumo:
BACKGROUND: Reference values for quantitative electromyography (QEMG) in neck muscles of Royal Dutch Sport horses are lacking. OBJECTIVE: Determine normative data on quantitative motor unit action potential (QMUP) analysis of serratus ventralis cervicis (SV) and brachiocephalicus (BC) muscle. ANIMALS: Seven adult normal horses (mean age 9.5 standard deviation [SD] +/- 2.3 years, mean height 1.64 SD +/- 4.5 cm, and mean rectal temperature 37.6 SD +/- 0.3 degrees C). METHODS: An observational study on QMUP analysis in 6 segments of each muscle was performed with commercial electromyography equipment. Measurements were made according to formerly published methods. Natural logarithm transformed data were tested with ANOVA and posthoc testing according to Bonferroni. RESULTS: Mean duration, amplitude, phases, turns, area, and size index (SI) did not differ significantly among the 6 segments in each muscle. Mean amplitude, number of phases, and SI were significantly (P < .002) higher in SV than BC, 520 versus 448 muV, 3.0 versus 2.8 muV, and 0.48 versus 0.30 muV, respectively. In SV 95% confidence intervals (CI) for amplitude, duration, number of phases, turns, polyphasia area, and SI were 488-551 muV, 4.3-4.6 ms, 2.9-3.0, 2.4-2.6, 7-12%, 382-448, and 0.26-0.70, respectively; in BC this was 412-483 muV, 4.3-4.7 ms, 2.7-2.8, 2.4-2.6, 4-7%, 393-469, and 0.27-0.34, respectively. Maximal voluntary activity expressed by turns/second did not differ significantly between SV and BC with a 95% CI of 132-173 and 137-198, respectively. CONCLUSIONS AND CLINICAL IMPORTANCE: The establishment of normative data makes objective QEMG of paraspinal muscles in horses suspected of cervical neurogenic disorders possible. Differences between muscles should be taken into account.
Resumo:
A 7-month-old New Forest foal presented for episodes of recumbency and stiffness with myotonic discharges on electromyography. The observed phenotype resembled congenital myotonia caused by CLCN1 mutations in goats and humans. Mutation of the CLCN1 gene was considered as possible cause and mutation analysis was performed. The affected foal was homozygous for a missense mutation (c.1775A>C, p.D592A) located in a well conserved domain of the CLCN1 gene. The mutation showed a recessive mode of inheritance within the reported pony family. Therefore, this CLCN1 polymorphism is considered to be a possible cause of congenital myotonia.
Resumo:
Exacerbation of cerebrospinal fluid (CSF) inflammation in response to bacteriolysis by beta-lactam antibiotics contributes to brain damage and neurological sequelae in bacterial meningitis. Daptomycin, a nonlytic antibiotic acting on Gram-positive bacteria, lessens inflammation and brain injury compared to ceftriaxone. With a view to a clinical application for pediatric bacterial meningitis, we investigated the effect of combining daptomycin or rifampin with ceftriaxone in an infant rat pneumococcal meningitis model. Eleven-day-old Wistar rats with pneumococcal meningitis were randomized to treatment starting at 18 h after infection with (i) ceftriaxone (100 mg/kg of body weight, subcutaneously [s.c.], twice a day [b.i.d.]), (ii) daptomycin (10 mg/kg, s.c., daily) followed 15 min later by ceftriaxone, or (iii) rifampin (20 mg/kg, intraperitoneally [i.p.], b.i.d.) followed 15 min later by ceftriaxone. CSF was sampled at 6 and 22 h after the initiation of therapy and was assessed for concentrations of defined chemokines and cytokines. Brain damage was quantified by histomorphometry at 40 h after infection and hearing loss was assessed at 3 weeks after infection. Daptomycin plus ceftriaxone versus ceftriaxone significantly (P < 0.04) lowered CSF concentrations of monocyte chemoattractant protein 1 (MCP-1), MIP-1α, and interleukin 6 (IL-6) at 6 h and MIP-1α, IL-6, and IL-10 at 22 h after initiation of therapy, led to significantly (P < 0.01) less apoptosis, and significantly (P < 0.01) improved hearing capacity. While rifampin plus ceftriaxone versus ceftriaxone also led to lower CSF inflammation (P < 0.02 for IL-6 at 6 h), it had no significant effect on apoptosis and hearing capacity. Adjuvant daptomycin could therefore offer added benefits for the treatment of pediatric pneumococcal meningitis.
Resumo:
Capillary zone electrophoresis (CZE) with a dynamic double coating based on the new CEofix reagents is shown to provide high-resolution separations of serum transferrin (Tf) isoforms, a prerequisite for the monitoring of unusual and complex Tf patterns, including those seen with genetic variants and disorders of glycosylation. A 50 microm I.D. fused-silica capillary of 60 cm total length, an applied voltage of 20 kV and a capillary temperature of 30 degrees C results in 15 min CZE runs of high assay precision and thus provides a robust approach for the determination of carbohydrate-deficient transferrin (CDT, sum of asialo-Tf and disialo-Tf in relation to total Tf) in human serum. Except for selected samples of patients with severe liver diseases and sera with high levels of paraproteins, interference-free Tf patterns are detected. Compared with the use of the previous CEofix reagents for CDT under the same instrumental conditions, the resolution between disialo-Tf and trisialo-Tf is significantly higher (1.7 versus 1.4). The CDT levels of reference and patient sera are comparable, suggesting that the new assay can be applied for screening and confirmation analyses. The high-resolution CZE assay represents an attractive alternative to HPLC and can be regarded as a candidate of a reference method for CDT.
Resumo:
In biostatistical applications interest often focuses on the estimation of the distribution of a time-until-event variable T. If one observes whether or not T exceeds an observed monitoring time at a random number of monitoring times, then the data structure is called interval censored data. We extend this data structure by allowing the presence of a possibly time-dependent covariate process that is observed until end of follow up. If one only assumes that the censoring mechanism satisfies coarsening at random, then, by the curve of dimensionality, typically no regular estimators will exist. To fight the curse of dimensionality we follow the approach of Robins and Rotnitzky (1992) by modeling parameters of the censoring mechanism. We model the right-censoring mechanism by modeling the hazard of the follow up time, conditional on T and the covariate process. For the monitoring mechanism we avoid modeling the joint distribution of the monitoring times by only modeling a univariate hazard of the pooled monitoring times, conditional on the follow up time, T, and the covariates process, which can be estimated by treating the pooled sample of monitoring times as i.i.d. In particular, it is assumed that the monitoring times and the right-censoring times only depend on T through the observed covariate process. We introduce inverse probability of censoring weighted (IPCW) estimator of the distribution of T and of smooth functionals thereof which are guaranteed to be consistent and asymptotically normal if we have available correctly specified semiparametric models for the two hazards of the censoring process. Furthermore, given such correctly specified models for these hazards of the censoring process, we propose a one-step estimator which will improve on the IPCW estimator if we correctly specify a lower-dimensional working model for the conditional distribution of T, given the covariate process, that remains consistent and asymptotically normal if this latter working model is misspecified. It is shown that the one-step estimator is efficient if each subject is at most monitored once and the working model contains the truth. In general, it is shown that the one-step estimator optimally uses the surrogate information if the working model contains the truth. It is not optimal in using the interval information provided by the current status indicators at the monitoring times, but simulations in Peterson, van der Laan (1997) show that the efficiency loss is small.
Resumo:
Latex glycoprotein (LGP) from Synadenium grantii latex was purified by the combination of heat precipitation and gel permeation chromatography. LGP is a heat stable protein even at 80 degrees C showed a sharp single band both in SDS-PAGE as well as in native (acidic) PAGE. LGP is a monomeric protein appears as single band under reducing condition. It is a less hydrophobic protein showed sharp single peak in RP-HPLC with retention time of 13.3 m. The relative molecular mass of LGP is 34.4 kDa. CD spectrum of LGP explains less content of alpha-helix (7%), and high content of beta-pleated sheets (48%) and random coils (46%). The N-terminal sequence of LGP is D-F-P-S-D-W-Y-A-Y-E-G-Y-V-I-D-R-P-F-S. Purified LGP is a fibrinogen degrading protease hydrolyses all the three subunits in the order of Aalpha, Bbeta and gamma. The hydrolytic pattern is totally different from plasmin as well as thrombin. LGP reduces recalcification time from 165 to 30 s with citrated human plasma but did not show thrombin like as well as factor Xa-like activity. Although LGP induces procoagulant activity, it hydrolyses partially cross-linked fibrin clot. It hydrolyses all the subunits of partially cross-linked fibrin clot (alpha- chains, beta-chain and gamma-gamma dimer). LGP is a serine protease, inhibited by PMSF. Other serine protease inhibitors, aprotinin and leupeptin did not inhibit the caseinolytic activity as well as fibrinogenolytic activity. We report purification and characterization of a glycoprotein from Synadenium grantii latex with human fibrino(geno)lytic activity.
Resumo:
Radio Frequency Identification (RFID) beeinflusst unbestritten zahlreiche Anwendungsgebiete und schafft die Grundlage für die zukünftige Entwicklung logistischer Systeme. Von besonderer Bedeutung ist in diesem Zusammenhang die systematische Identifikation von Einsatzpotenzialen für diese Technologie. Bislang existiert hierfür noch keine allgemein verbreitete Methodik. Diese Problematik greift der folgende Beitrag auf und zeigt, wie aus den technischen Grundlagen und analysierten Praxisanwendungen Identifikationskriterien abgeleitet werden können. Die so erarbeiteten Kriterien werden in ihrer Anwendung anhand eines fiktiven Beispiels erläutert und damit exemplarisch eine mögliche Analysemethodik vorgestellt. 1. Einleitung Die produktionswirtschaftlichen Anforderungen an die Unternehmen sind zunehmend geprägt durch Globalisierung und damit durch eine zunehmende Komplexität sowie vertiefte Arbeitsteiligkeit. Es entsteht eine zunehmend breitere Streuung der Fertigungsstandorte und Kooperationsbeziehungen. Es gibt letztlich mehr Lager- und Umschlagprozesse in der Lieferkette. Andererseits bringt der erhöhte Qualitäts- und Kostendruck steigende Fixkosten mit sich, er zwingt zur ständigen Rationalisierung der Materialwirtschaft. Es besteht der Zwang zum Einsatz neuer technisch-elektronischer Mittel zur Kontrolle und Steuerung der logistischen Ketten. Im Lager bedeutet das eine zunehmende Nutzung der Informations- und Kommunikationstechnik zur Lager- und Fertigungssteuerung, auch in Verbindung mit Forderungen der Rückverfolgbarkeit der Produkte. An die Logistikleistungen werden damit Anforderungen wie Schnelligkeit, Qualität und Kostenminimierung gestellt. Letztlich bestehen die Warenbereitstellungs- und Verteilsysteme aus der technischen Grundstruktur, dem Lagertyp und dessen Geometrie sowie der dabei einsetzbaren Bedientechnik und deren kinematischen Daten. Der organisatorische Rahmen dieser Systeme ist gekennzeichnet durch die Nutzung diverser Ein- und Auslagerstrategien, die auch wesentlich Kosten und Leistungen (Umschlagleistung) des zu betrachtenden Lagersystems bestimmen. Aufgrund der genannten Forderungen muss es gelingen, aus dem eingesetzten technischen System durch organisatorisch effizienten Betrieb maximale Leistung bei gleichzeitig minimal eingesetzten Kosten zu erzielen. Neben den Investitionskosten sind bei der Planung von automatischen Lagersystemen die erreichbaren mittleren Spielzeiten der Bedientechnik von entscheidender Bedeutung, um die erforderliche Umschlagleistung des Lagers zu gewährleisten. Hierzu existieren eine Reihe von Berechnungsvorschriften und –normen. Diese Berechnungen berücksichtigen jedoch nicht die Auswirkungen der Lagerorganisation, wie beispielsweise fahrzeitminimale Kombinationen von Ein- und Auslageraufträgen bei Doppelspielen, Zonierungsmaßnahmen, die Auswirkungen von verschiedenen Füllgraden des Lagers oder Lagerplatzstrategien. 2. Stand der Technik 2.1. Lagertypen Abbildung 1: Systematische Einteilung der Lagertypen In Abbildung 1 sind verschiedene Lagertypen dargestellt und nach Kriterien eingeteilt. Soll eine Einschränkung hinsichtlich am Markt häufig vorkommender automatischer Palettenlager getroffen werden, so sind besonders die in der Abbildung hervorgehobenen Typen zu nennen. Eine Auswahl der einzelnen Lagertypen erfolgt dann anhand von Kosten, Umschlagleistung und bei Kompaktlagern vorrangig anhand von Flächen- und Raumnutzungsgrad. Werden die Kostenunterschiede bei Personal, Rechentechnik und Steuerungssoftware in den verschiedenen Lagertypen und -ausführungen der jeweiligen Typen vernachlässigt, unterscheiden sich die Gesamtkosten der Lager lediglich in der Bedientechnik sowie in den statisch bedingten Kosten der Regalkonstruktion. Die wichtigsten Kosteneinflüsse auf die Regale sind wiederum Bauhöhe und Bauart (Regalkonstruktion oder selbsttragendes Bauwerk). Abbildung 2 zeigt die zu erwartenden Umschlagleistungen1) der verschiedenen Lagertypen in Abhängigkeit der benötigten Stellplatzanzahl. Die darauf folgende Abbildung 3 zeigt die zu erwartenden Investitionskosten1) je Stellplatz. Die berücksichtigten Kenngrößen sind nachstehend dargestellt. Die abgebildeten Kurven machen deutlich, dass insbesondere Umschlagleistung der Lager und deren Flächen- bzw. Raumnutzungsgrad gegensätzlich verlaufen. Somit sind auch die Einsatzgebiete der Lagertypen voneinander abgrenzbar. Während Hochregallager für Anwendungsfälle mit hohem Gutumschlag in Frage kommen, werden die Kompaktlager eher in Objekten mit begrenztem Platz oder hohen Raumkosten (bspw. Kühllager) eingesetzt. Somit sind Kompaktlager auch häufig für die Umplanung bzw. der notwendigen Vergrößerung der Lagerkapazität innerhalb einer bestehenden baulichen Hülle interessant. Abbildung 2: Umschlagleistungen der verschiedenen Lagertypen Abbildung 3: Investitionskosten der einzelnen Lagertypen 2.2. Einzel-/ Doppelspiele Um anhand der Technik und der geometrischen Verhältnisse im Lager die höchstmögliche Umschlagleistung zu erzielen, ist es sinnvoll, Doppelspiele (DS) zu generieren. Somit ist nicht wie bei Einzelspielen (ES) je umgeschlagene Ladeeinheit eine Leerfahrt erforderlich, sondern nur je zweiter Ladeeinheit. Das Bediengerät fährt also vom Einlagerpunkt direkt zum Auslagerpunkt, ohne zum Übergabepunkt zurückkehren zu müssen. Diese Vorgehensweise setzt die Kenntnis der nächsten Fahraufträge und gegebenenfalls die Möglichkeit der Veränderung derer Reihenfolge voraus. Für eine Optimierung der Umschlagleistung ist die bei DS entstehende Leerfahrt (Zwischenfahrstrecke) und damit die Zwischenfahrzeit zu minimieren (vgl. 3.5). Nachfolgend beschriebene Untersuchungen beziehen sich jeweils auf Doppelspiele. Abbildung 4: Darstellung der anzufahrenden Lagerplätze in der Regalwand,links: Einzelspiel, rechts: Doppelspiel 2.3. Berechnungsvorschriften für Umschlagleistungen von Lagern Es existieren eine Reihe von Vorschriften zur Berechnung der Umschlagleistung von Lagern, exemplarisch sind drei Berechnungsvorschriften dargestellt. Die Richtlinie VDI 3561 [VDI3561] ermöglicht die Berechnung der Spielzeit auch für Doppelspiele. Dazu werden zwei Referenzpunkte festgelegt, die den Aus- bzw. Einlagerpunkt darstellen. Ein Doppelspiel besteht dann aus der Summe folgender Einzelzeiten: • der Hinfahrt vom Übergabepunkt zum Einlagerpunkt (P1), • der Leerfahrt vom Ein- zum Auslagerpunkt (P2) und der • Rückfahrt vom Auslagerpunkt zum Übergabepunkt (vgl. Abb.4 rechts). Die Summe dieser Einzelzeiten wird danach mit der Summe der Übergabezeiten addiert. Der Unterschied der Richtlinie und der Berechnungsvorschrift nach [Gud00] bestehen im wesentlichen aus der Lage der Ein- und Auslagerpunkte. Fahrzeitberechnung nach VDI 3561 P1 ; P2 Fahrzeitberechnung nach Gudehus 1) P1 ; P2 1)Annahme: Vernachlässigung von Totzeiten, Lastaufnahmefaktor = 1 Wird davon ausgegangen, dass in Abhängigkeit der Gassengeometrie immer nur eine der beiden Fahrzeitanteile (vertikal bzw. horizontal) spielzeitbestimmend ist, so ergeben sich beide Fahrstrecken zu 4/3 der jeweiligen Gesamtabmessung. Der Unterschied der beiden Berechnungsvorschriften liegt lediglich in der Aufteilung der Gesamtfahrstrecke auf die Teilfahrstrecken Hin-, Rück- bzw. Zwischenfahrt. Da jedoch die Fahrzeit zu den Anfahrpunkten in der Regel nicht von der gleichen Fahrzeitkomponente bestimmt wird, kommt es in der Praxis zu Unterschieden im Berechnungsergebnis. Die unter dem Titel „Leistungsnachweis für Regalbediengeräte, Spielzeiten“ stehende Norm FEM 9.851 [FEM9.851] beschäftigt sich ebenfalls mit der Berechnung von Spielzeiten von Regalbediengeräten (RBG). Dabei werden sechs verschiedene Anwendungsfälle generiert, die am häufigsten in der Praxis vorkommen. Diese unterscheiden sich insbesondere in der Lage der Übergabepunkte für die Ein- und Auslagerung. Dabei werden die Punkte sowohl horizontal als auch vertikal verschoben. Es werden hierbei auch Fälle betrachtet, in denen der Auslagerpunkt nicht mit dem Einlagerpunkt übereinstimmt, sich beispielsweise auch an dem gegenüberliegenden Gassenende befinden kann. Wird der einfachste Fall betrachtet, dass sich der Übergabepunkt für die Ein- und Auslagerung übereinstimmend an einer unteren Ecke der Gasse befindet, stimmen die Berechnungsformeln mit [Gud00] weitgehend überein. 2.4. Kritik und Untersuchungsansatz Die Berechnung der mittleren Spielzeit der einzelnen Lagergassen durch die beschriebenen Normen erfolgt in der Regel ohne die Berücksichtigung der Geschwindigkeitsdiagonalen, deren Steigung c durch nachstehendes Verhältnis gegeben ist. 1. Einleitung Eine umfassende Prozessanalyse ist die Grundlage einer jeden erfolgreichen RFID-Anwendung [o.Verf. 2006]. Die Merkmale, die bei einer solchen Untersuchung zu beachten sind, werden allerdings nicht öffentlich diskutiert. Wie Resch in seinem Ansatz zeigt, ist aber gerade die Analysephase von entscheidender Bedeutung für den späteren Erfolg einer RFID-Anwendung (vgl. Abb. 1). Abbildung 1: Fehlende Methodiken der Prozessanalyse [Resch2005] In dieser Phase besteht der größte Gestaltungsfreiraum für die spätere Umsetzung. Da in dieser Phase das größte Optimierungspotenzial einer RFID-Anwendung festgelegt wird, entscheidet sich bereits zu Beginn eines Projektes wie groß der maximal erreichbare Nutzen einer Lösung sein kann. Bisher existieren keine allgemein verbreiteten Methoden und Kriterien zur Identifikation dieser Einsatz-/Nutzenpotenziale. Die Prozessanalyse ist die Basis zukünftiger RFID-Anwendungen und ist daher entsprechend umfangreich durch zu führen. RFID-Einsatzpotenziale werden aktuell nur in Funktionsbereichen kommuniziert. Diese Pauschalisierung engt die Sicht auf potenzielle Anwendungen allerdings sehr stark ein. Dadurch besteht die Gefahr, dass die vorhandenen Nutzenpotenziale indirekt beteiligter Prozesse nicht beachtet werden. Es ist daher zwingend notwendig möglichst alle material- und informationsflussbezogenen Prozesse auf ein RFID-Einsatzpotenzial hin zu untersuchen. D.h. sowohl die Prozesse mit direktem Materialflussbezug (bspw. Wareneingang) als auch die Prozesse, die nur indirekt, über den Informationsfluss, mit dem Materialfluss verknüpft sind (bspw. Disposition). Der vorliegende Beitrag stellt daher einen ersten Ansatz für die Ermittlung allgemeingültiger Analysekriterien für RFID-Einsatzpotenziale. Die vorgestellte Methodik und der daraus entwickelte Kriterienkatalog sollen es ermöglichen, RFID-Anwendungen in der Analysephase auf ein möglichst vollständiges Nutzengerüst zu stellen und so den maximalen Nutzen einer Anwendung systematisch zu ermitteln. 2. Identifikationskriterien 2.1. Methodik Basierend auf der Überlegung die Kriterien sowohl theoretisch als auch auf Basis von Praxiserfahrungen zu entwickeln, dienen neben der Betrachtung technischer Grundlagen auch Analysen von realisierten Anwendungen und Pilotprojekten als Basis der Kriterienentwicklung. Abbildung 2 zeigt die grundsätzliche Methodik hinter der Entwicklung der Kriterien. Dabei zeigt sich, dass aus dem gewählten Ansatz zwangsläufig zwei differierende Typen von Kriterien entwickelt werden müssen. Technische Kriterien, aus den Grundlagen der RFID beziehen sich vor allem auf das vorherrschende Prozessumfeld. Frequenzspezifische Eigenschaften (Leistungsdaten) und allgemeine, also frequenzübergreifende Eigenschaften der RFID-Technik bilden die Ausgangsbasis für diese Kriteriengruppe. Dabei werden diese technologischen Eigenschaften in Prozessmerkmale überführt, anhand derer im konkreten Prozessumfeld eine Technologieauswahl durchgeführt werden kann. So können potenzielle RFID-Anwendungen auf eine prinzipielle Anwendbarkeit hin überprüft werden. Abbildung. 2: Vorgehen zur Entwicklung der Identifikationskriterien [Resch2005] Die zweite Gruppe der Kriterien, die organisatorischen Kriterien, werden aus Praxiserfahrungen abgeleitet. Basis dieser Analyse sind Prozesse aus realisierten Anwendungen und Pilotprojekten. Dieser praxisbasierte Teil stellt prozessbezogene Merkmale zusammen, deren Schwerpunkt auf prozessspezifischen organisatorischen Merkmalen, bspw. Durchsatz, oder auch Dokumentationsaufwand liegt. Die ausgewählten Praxisbeispiele sind nach ihren individuellen Prozessmerkmalen analysiert worden. Die Ergebnisse wurden stichpunktartig zusammengefasst, in übergeordnete Kategorien gruppiert und abschließend nach ihrem Flussbezug gegliedert. RFID-Anwendungen beeinflussen sowohl materialflussbezogene Prozesse, als auch direkt oder auch indirekt verknüpfte informationsflussbezogene Prozesse. Daher erfolgt eine Ordnung der identifizierten Kriteriengruppen nach ihrem Flussbezug, um so einem Anwender die Betrachtungsweise nachhaltig zu verdeutlichen und die Analyse zu vereinfachen. 2.2. Praxisbeispiele Die analysierten Praxisbeispiele sind zum Großteil in der Automobilindustrie realisiert (vgl. Abb. 3). Die weiteren Anwendungen sind aus der Instandhaltung sicherheitsrelevanter technischer Gebäudeausrüstung, aus einem Hochregallager eines Logistikdienstleisters sowie aus der Luftfahrtindustrie. Abbildung 3: Branchenspezifische Verteilung der Praxisbeispiele Die Auswahl der Praxisbeispiele ist bewusst auf die Automobilindustrie fokussiert. Dieser Industriezweig hat in Deutschland bereits einige Anwendungen und eine Vielzahl an Pilotprojekten initiiert. Die Bandbreite der realisierten Projekte ist sehr groß und deckt daher viele verschiedene Anwendungsfälle ab. Die Ergebnisse der Untersuchung sind aber auch auf andere Branchen übertragbar, da die untersuchten Praxisprojekte Situationen abbilden, die ebenfalls leicht zu übertragen sind. Die analysierten Anwendungen bilden ein sehr breites Feld an Einsatzszenarien ab. Anwendungen mit massenhaften Stückzahlen sind ebenso vertreten, wie Anwendungen mit hohem Spezialisierungscharakter. Die Anwendungen reichen dabei von einfachen Pilotprojekten im Ladungsträgermanagement, bis hin zu komplexen Anwendungen im Bereich der Produktionssteuerung und der unternehmensübergreifenden Koordination von Materialflüssen. Insgesamt verteilen sich die analysierten Anwendungen auf drei Schwerpunktbereiche. Abbildung 4 stellt die Anwendungsbereiche in einer Übersicht zusammen. Abbildung 4: Übersicht der Anwendungsgebiete aus den Praxisanwendungen Anwendungen aus den Bereichen der Produktionssteuerung und des Materialflusses sind dabei am häufigsten vertreten. Während die Anwendungen aus dem Bereich der Instandhaltung, bzw. dem Qualitätsmanagement, meist mit der Hauptanwendung aus dem Bereich der Produktionssteuerung verknüpft sind. So wird bspw. die Dokumentationen der einzelnen Fertigungsstationen i.d.R. sowohl zur Fertigungssteuerung als auch zur Qualitätssicherung genutzt. 2.3. Ergebnisse der Praxisanalyse Die Analyse der Praxisanwendungen brachte in einem ersten Schritt eine Fülle an spezifischen Merkmalen zusammen. Jeder analysierte Prozess wies seine eigenen Merkmale auf, die aber dem Grundsatz nach systematisiert werden konnten. Die so erarbeiteten Merkmale wurden in einem zweiten Schritt gruppiert. Insgesamt ergaben sich fünf Gruppen, die jeweils nach einer, durch die RFID-Technik durchgeführte Funktion benannt sind. Um eine Prozessanalyse mit Hilfe der Kriterien zu erleichtern, ist jede Gruppe ihrem übergeordneten Flusssystem zugeordnet worden. Nachstehende Abbildung 5 zeigt die einzelnen Gruppierungen mit ihrem jeweiligen Flussbezug. Dabei sind jeder Gruppe beispielhafte Merkmale zugeordnet. Abbildung 5: Organisatorische Kriterien zur Identifikation von RFID-Einsatzpotenzialen Die vorliegende Systematisierung von Identifikationskriterien deckt sowohl Aspekte des reinen Materialflusses, als auch die Aspekte der zugehörigen Informationsflüsse ab. Dabei verhält sich der Flussbezug in jeder Kriteriengruppe unterschiedlich. Die Kriterien der Gruppe Identifikation befassen sich ausschließlich mit dem Identifikationsvorgang. Dabei können die erarbeiteten Kriterien in zwei Arten unterschieden werden, quantitative und qualitative Kriterien. Qualitativ messbar sind Kriterien, die sich auf die Anzahl der Identifikationsvorgänge beziehen. Bspw. die Anzahl der Identifikationsvorgänge im betrachteten Prozessverlauf, bezogen auf ein Identifikationsobjekt oder die Anzahl der Identifikationsvorgänge pro Zeiteinheit an einem Identifikationspunkt innerhalb des Prozessverlaufs. Gleichzeitig umfasst diese Gruppe aber auch Kriterien, die nur qualitativ zu bewerten sind. Kriterien wie die Bedeutung einer exakten Identifikation einzelner Teile im Prozess oder auch der aktuelle Aufwand der Identifikation im Prozess lassen sich nur bedingt oder nicht quantifizieren. Diese Kriteriengruppe fokussiert mit ihren Merkmalen vor allem den Materialfluss. Die einzelnen Merkmale beziehen sich auf den tatsächlichen Identifikationsvorgang und nicht auf die zugehörigen Informationsflüsse. Unter dem Begriff Transparenz sind Kriterien gruppiert, die sich mit der Verfolgbarkeit und Übersichtlichkeit von Prozessen befassen. Dabei gilt es sowohl die Bedeutung für den aktuellen Prozess als auch für die abhängigen Prozesse zu ermitteln. Transparenz bzw. die fehlende Transparenz ist der Kern dieser Kriteriengruppe. Qualitative Kriterien sind in dieser Kategorie besonders stark vertreten, da vor allem die Bedeutung bestimmter Aspekte der Prozesstransparenz als Kriterium dient. Prozesstransparenz liegt i.d.R. nicht vor oder wird nur über komplexe Systeme erreicht. Die Bewertung dieser Kriteriengruppe ist höchst variabel, da Prozesstransparenz in ihrer Bedeutung höchst individuell ist, d.h. von Prozess zu Prozess stark variiert. Die Gruppe Konfiguration fasst Merkmale zusammen, die auf objektspezifische Anpassungsarbeiten im Prozessverlauf hinweisen. Diese Tätigkeiten sind i.d.R. mit einem quantifizierbaren Aufwand verbunden und können so leicht erfasst werden. Die RFID-Technologie eröffnet hier, ähnlich wie im Bereich der Identifikation, Chancen zur Automatisierung bestehender Prozesse. Die Kriterien konzentrieren sich in ihrer Zielrichtung daher schwerpunktmäßig auf die Untersuchung von Potenzialen hinsichtlich der Automation von Konfigurationsvorgängen. Ähnlich wie die vorstehende Gruppe der Transparenz, besitzt diese Gruppe ebenfalls einen starken Bezug zu beiden Flusssystemen. In beiden Gruppen liegt der Fokus der betrachteten Merkmale sowohl auf dem Materialfluss und den physischen Aktionen als auch auf den zugehörigen Informationsflüssen mit entsprechenden Tätigkeiten. Die vierte Gruppe Zuordnung enthält primär Merkmale, die sich auf den Informationsfluss beziehen. Im Vordergrund steht die Art und Weise in der innerhalb eines Prozesses Materialflüsse zwischen Quelle und Senke koordiniert werden. Diese Gruppe enthält ebenfalls sowohl qualitativ als auch quantitativ zu bewertenden Merkmale. RFID-Technik kann hier zu einer deutlichen Komplexitätsreduktion, einer Automation sowie der Reduktion von Stillstands- u. Wartezeiten führen. Die letzte Gruppe Datenverwendung und Dokumentation befasst sich beinahe ausschließlich mit Aspekten des Informationsflusses. Als beinahe Komplementär zur Gruppe der Identifikation stehen hier die informationsflussbezogenen Handlungen, ausgelöst durch einen zugehörigen Materialfluss in der Betrachtung. Dabei stehen vor allem Fehlerraten, manuelle Aufwende der Datenverarbeitung und die Anzahl an Medienbrüchen im Informationsfluss im Vordergrund. Auch hier existiert wiederum ein Geflecht aus qualitativen und quantitativen Kriterien, deren Bewertung individuell durchzuführen ist. 2.4. Technische Kriterien Ergänzt werden die organisatorischen Kriterien um die technischen Kriterien. Diese Kriterien leiten sich aus den technischen Grundlagen der RFID-Technik ab. Diese Grundlagen sind zum einen die Eigenschaft der kontakt- und sichtlosen Übertragung von Energie und Daten, zum anderen der physische Aufbau der Komponenten eines RFID-Systems, dem Reader und dem Transponder. Des Weiteren definieren die frequenzspezifischen Eigenschaften der verschiedenen RFID-Systeme unterschiedliche Leistungsparameter, aus denen technische Kriterien abgeleitet werden können. Daraus ergibt sich die logische Trennung in frequenzabhängige und frequenzunabhängige Kriterien. Auszüge dieser Kriterien zeigt nachstehende Abbildung 6 Abbildung 6: Technische Kriterien Die technischen Kriterien dienen eher zur Technologieauswahl, als zu einer reinen Potenzialidentifikation, da ausschließlich limitierende Aspekte der Technologie betrachtet werden. Einflüsse, bedingt durch die genutzte technische Ausrüstung (bspw. metallische Lagertechnik) oder verfahrensbedingte Einflüsse (elektromagnetische Felder, Schweißroboter, o.ä.), werden über diese Kriterien abgebildet und finden so Berücksichtigung in den zu entwickelnden RFID-Szenarien. Die Wirkung dieser Kriterien hängt stark von dem jeweiligen Stand der Technik ab. Galt bspw. der Einsatz von 13,56 MHz Transpondern direkt auf Metall vor fünf Jahren noch als nicht möglich, so ist die Technik mittlerweile so weit entwickelt, dass auch Lösungen in diesem Bereich angeboten werden. Daher muss festgehalten werden, dass die frequenzabhängigen technischen Kriterien im Zeitverlauf variabel in ihrer Wirkung sind und sich mit dem technischen Fortschritt der RFID-Hardware verändern. Atmosphärische Einflüsse auf die RFID-Hardware sind generell für alle Varianten (unabhängig von der Betriebsfrequenz) der RFID-Technik zu beachten. Der Einfluss der Umgebungsbedingungen auf die Integrität der Hardware ist immer zu berücksichtigen. Temperatur, Druck und Staubbelastung sind hier die Hauptgruppen äußerer Einflüsse auf die RFID-Hardware. Auch diese Gruppe der technischen Kriterien muss mit der sich verändernden technischen Leistungsfähigkeit in ihrer Bewertung angepasst werden. 3. Anwendung der Kriterien 3.1. Anwendungsbeispiel Die Anwendung der Kriterien wird im Folgendem anhand eines kurzen Beispiels erläutert. Nachstehende Abbildung 7 zeigt Ausschnitte aus einem fiktiven Prozess innerhalb eines Großlagers. Abbildung 7: Fiktiver Prozess Von der Entladung des LKW bis zur Einlagerung der Paletten ist der Prozess in vier grobe Phasen strukturiert. Zur Identifikation von RFID-Einsatzpotenzialen werden die einzelnen Prozesselemente nach dem in Tabelle 1dargestellten Schema untersucht. Tabelle 1: Exemplarische Anwendung der Kriterien an einem ausgewählten Beispiel Kriteriengruppe Kriterium Einheit Prozesselement Entladen des LKW Bezugsobjekt LKW Palette Identifikation Anzahl ID - Vorgänge pro Objekt 1/Stck. 2 1 Anzahl ID - Objekte im Zeitraum Stck./ZE 25/h 10/min Transparenz Bedeutung exakter Prozesszeiterfassung Qual. Hoch Hoch intransparente Prozessabschnitte ja/nein Ja Ja Konfiguration Anzahl objektspez. Konfigurationsarbeiten 1/Stck. 0 0 Manueller Anteil der Konfiguration Qual. - - Zuordnung Fehleranteil der Zuordnung Q/S Qual. Mittel Gering Komplexität der Zuordnung Q/S Qual. Hoch Hoch Datenverwendung und Dokumentation Anzahl der Änderungen objektspezifischer Daten im Prozess 1/Stck. 8 (6-7) 2 Anzahl der Medienbrüche im Prozess 1/Stck. - - Die Tabelle zeigt, wie einzelne Prozesselemente mit Hilfe der Identifikationskriterien analysiert werden können. Dabei ergeben sich aus den Ausprägungen der einzelnen Kriterien die Nutzenpotenziale auf deren Basis sich eine spätere RFID-Anwendung gestalten und bewerten lässt. Für die Analyse der einzelnen Prozesselemente ist es notwendig, die Kriterien auf ein Bezugsobjekt zu beziehen. Dieses Bezugsobjekt stellt den potenziellen Träger des Transponders dar. Dabei ist zu beachten, dass innerhalb eines Prozesses mehrere Bezugsobjekte vorhanden sein können. Die Analyse muss daher für jedes Bezugsobjekt einzeln durchgeführt werden. Die Zusammenfassung der Analyseergebnisse pro Bezugsobjekt, über die zusammengehörigen Prozesselemente zeigt die Nutzenpotenziale innerhalb der einzelnen Prozesse. 3.2. Verwendung der Ergebnisse und Bewertungsmöglichkeiten identifizierter Einsatzpotenziale Im vorstehenden Absatz wurde gezeigt, wie die erarbeiteten Kriterien zur Prozessanalyse genutzt werden können. Aus der Analyse ergeben sich Nutzenpotenziale für den RFID-Einsatz. Inwieweit diese erkannten Potenziale tatsächlich zu einer wirtschaftlichen RFID-Anwendung führen, muss in einem zweiten Schritt geprüft werden. Dabei muss festgestellt werden, dass es keine RFID-Lösung „von der Stange“ gibt [Lammers2006]. Jede Anwendung muss individuell auf Wirtschaftlichkeit geprüft werden. Dabei spielen vor allem die Kriterien eine starke Rolle, die nur qualitativ erfasst werden können, z. B. die Bedeutung einer exakten Erfassung der Prozesszeit. Quantitativ erfassbare Kriterien sind vergleichsweise einfach in der wirtschaftlichen Beurteilung, obwohl auch für diese Art Kriterium keine allgemein gültigen Richtwerte zur Beurteilung existieren. Zu groß sind hier die Unterschiede zwischen einzelnen Prozessen und den möglichen Einspareffekten, bedingt durch differierende Kostentreiber und Anforderungen an Leistungsfähigkeiten. Weiterhin müssen sowohl qualitative als auch quantitative Kriterien immer im Zusammenhang gesehen werden. Nur dann kann der potenzielle Nutzen einer RFID-Anwendung vollständig ermittelt werden. Erst aus der Kombination dieser beiden Faktorgruppen ergibt sich das maximale Nutzenpotenzial einer RFID-Anwendung. Vor diesem Hintergrund sind die einzelnen Nutzenpotenziale zu erfassen, daraus mögliche RFID-Szenarien zu entwickeln und diese Szenarien einer abschließenden, detaillierten Wirtschaftlichkeitsanalyse zu unterziehen.
Resumo:
The purpose of this study was the evaluation of a predictive genetic marker for nephropathy and hypertension in patients with type-I-diabetes mellitus (IDDM). The study was performed on 247 pediatric patients with IDDM. The mean age was 15.5 years (range 3.1-29.3), the mean duration of diabetes was 7.6 years (range 0.1-25.7). Age-related blood pressure and nocturnal albumin excretion rate were compared with the insertion/deletion-(I/D) polymorphism of the angiotensin-I converting enzyme gene. The genotype distribution did not differ significantly between IDDM patients (ID 48%, D 28%, I 24%) and the control group (ID 44%, D 37%, I 19%). Neither in the entire group, nor in patients with IDDM for more than 5 years, was a correlation found bet-ween allele distribution and albumin excretion rate. No correlation was found between genotype and blood pressure. When patients with a chronological age above 12 years were analysed separately, the genotype distribution between the groups with normal and elevated blood pressure showed no significant difference. The previously reported association of the I/D-polymorphism with nephropathy could not be confirmed in this study. The development of microalbuminuria, nephropathy and hypertension will be followed in our pediatric patients.
Resumo:
Coronary heart disease (CHD) is the leading cause of death in the United States. Recently, renin-angiotensin system (RAS) was found associated with atherosclerosis formation, with angiotensin II inducing vascular smooth muscle cell growth and migration, platelet activation and aggregation, and stimulation of plasminogen activator inhibitor-1. Angiotensin II is converted from angiotensin I by angiotensin I-converting enzyme (ACE) and this enzyme is mainly genetically determined. The ACE gene has been assigned to chromosome 17q23 and an insertion/deletion (I/D)polymorphism has been characterized by the presence/absence of a 287 bp fragment in intron 16 of the gene. The two alleles form three genotypes, namely, DD, ID and II and the DD genotype has been linked to higher plasma ACE levels and cell ACE activity.^ In this study, the association between the ACE I/D polymorphism and carotid artery wall thickness measured by B-mode ultrasound was investigated in a biracial sample, and the association between the gene and incident CHD was investigated in whites and if the gene-CHD association in whites, if any, was due to the gene effect on atherosclerosis. The study participants are from the prospective Atherosclerosis Risk in Communities (ARIC) Study, including adults aged 45 to 65 years. The present dissertation used a matched case-control design for studying the associations of the ACE gene with carotid artery atherosclerosis and an unmatched case-control design for the association of the gene with CHD. A significant recessive effect of the D allele on carotid artery thickness was found in blacks (OR = 3.06, 95% C.I: 1.11-8.47, DD vs. ID and II) adjusting for age, gender, cigarette smoking, LDL-cholesterol and diabetes. No similar associations were found in whites. The ACE I/D polymorphism is significantly associated with coronary heart disease in whites, and while stratifying data by carotid artery wall thickness, the significant associations were only observed in thin-walled subgroups. Assuming a recessive effect of the D allele, odds ratio was 2.84 (95% C.I:1.17-6.90, DD vs. ID and II) and it was 2.30 (95% C.I:1.22-4.35, DD vs. ID vs. II) assuming a codominant effect of the D allele. No significant associations were observed while comparing thick-walled CHD cases with thin-walled controls. Following conclusions could be drawn: (1) The ACE I/D polymorphism is unlikely to confer appreciable increase in the risk of carotid atherosclerosis in US whites, but may increases the risk of carotid atherosclerosis in blacks. (2) ACE I/D polymorphism is a genetic risk factor for incident CHD in US whites and this effect is separate from the chronic process of atherosclerosis development. Finally, the associations observed here are not causal, since the I/D polymorphism is in an intron, where no ACE proteins are encoded. ^
Resumo:
BACKGROUND: In equine laminitis, the deep digital flexor muscle (DDFM) appears to have increased muscle force, but evidence-based confirmation is lacking. OBJECTIVES: The purpose of this study was to test if the DDFM of laminitic equines has an increased muscle force detectable by needle electromyography interference pattern analysis (IPA). ANIMALS AND METHODS: The control group included six Royal Dutch Sport horses, three Shetland ponies and one Welsh pony [10 healthy, sound adults weighing 411 ± 217 kg (mean ± SD) and aged 10 ± 5 years]. The laminitic group included three Royal Dutch Sport horses, one Friesian, one Haflinger, one Icelandic horse, one Welsh pony, one miniature Appaloosa and six Shetland ponies (14 adults, weight 310 ± 178 kg, aged 13 ± 6 years) with acute/chronic laminitis. The electromyography IPA measurements included firing rate, turns/second (T), amplitude/turn (M) and M/T ratio. Statistical analysis used a general linear model with outcomes transformed to geometric means. RESULTS: The firing rate of the total laminitic group was higher than the total control group. This difference was smaller for the ponies compared to the horses; in the horses, the geometric mean difference of the laminitic group was 1.73 [geometric 95% confidence interval (CI) 1.29-2.32], and in the ponies this value was 1.09 (geometric 95% CI 0.82-1.45). CONCLUSION AND CLINICAL RELEVANCE: In human medicine, an increased firing rate is characteristic of increased muscle force. Thus, the increased firing rate of the DDFM in the context of laminitis suggests an elevated muscle force. However, this seems to be only a partial effect as in this study, the unchanged turns/second and amplitude/turn failed to prove the recruitment of larger motor units with larger amplitude motor unit potentials in laminitic equids.
Resumo:
Dessiné sur les Lieux par C. F. v. P. Off. du C. In. de P.