916 resultados para Failure time analysis


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Objectives. To compare three different designs for measuring the bond strength between Y-TZP ceramic and a composite material, before and after ceramic surface treatment, evaluating the influence of the size of the adhesive interface for each design.Methods. 'Macro'tensile, microtensile, 'macro'shear, microshear, 'macro'push-out, and micropush-out tests were carried out. Two Y-TZP surface treatments were evaluated: silanization (sil) and tribochemical silica coating (30 mu m silica-modified Al2O3 particles + silanization) (TBS). Failure mode analysis of tested samples was also performed. Results. Both the surface treatment and the size of the bonded interface significantly affected the results (p = 0.00). Regardless of the type of surface treatment, the microtensile and microshear tests had higher values than their equivalent "macro" tests. However, the push-out test showed the highest values for the "macro" test. The tensile tests showed the greatest variability in results. The tribochemical silica coating method significantly increased bond strength for all tests.Significance. Different test designs can change the outcome for Y-TZP/cement interfaces, in terms of mean values and reliability (variability). The 'micro'tests expressed higher bond strengths than their equivalent 'macro'tests, with the exception of the push-out test (macro > micro). (C) 2015 Academy of Dental Materials. Published by Elsevier Ltd. All rights reserved.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Patellofemoral pain syndrome (PFPS) is the most frequent complaint in orthopedic clinics; although, its etiology remains unclear [Bolgla, 2010; Felicio, 2011]. Trying to understand its causes has been used time analysis of electromyography (EMG), but this method shows controversies. The aim of this study was to apply a method of processing the EMG signal in the frequency domain of the vastus lateralis (VL) and vastus medialis (VM) muscles for the characterization of PFPS.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The widespread independent evolution of analogous bioluminescent systems is one of the most impressive and diverse examples of convergent evolution on earth. There are roughly 30 extant bioluminescent systems that have evolved independently on Earth, with each system likely having unique enzymes responsible for catalysing the bioluminescent reaction. Bioluminescence is a chemical reaction involving a luciferin molecule and a luciferase or photoprotein that results in the emission of light. Some independent systems utilize the same luciferin, such as the use of tetrapyrrolic compounds by krill and dinoflagellates, and the wide use of coelenterazine by marine organisms, while the enzymes involved are unique. One common thread among all the different bioluminescent systems is the requirement of molecular oxygen. Bioluminescence is found in most forms of life, especially marine organisms. Bioluminescence in known to benefit the organism by: attraction, repulsion, communication, camouflage, and illumination. The marine ecosystem is significantly affected by bioluminescence, the only light found in the pelagic zone and below is from bioluminescent organisms. Transgenic bioluminescent organisms have revolutionized molecular research, medicine and the biotechnology industry. The use of bioluminescence in studying molecular pathways and disease allows for non-invasive and real-time analysis. Bioluminescence-based assays have been developed for several analytes by coupling luminescence to many enzyme-catalysed reactions. Received 17 February 2012, accepted 27 March 2012, first published online 2 May 2012

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Overpopulation of urban areas results from constant migrations that cause disordered urban growth, constituting clusters defined as sets of people or activities concentrated in relatively small physical spaces that often involve precarious conditions. Aim. Using residential grouping, the aim was to identify possible clusters of individuals in São José do Rio Preto, Sao Paulo, Brazil, who have or have had leprosy. Methods. A population-based, descriptive, ecological study using the MapInfo and CrimeStat techniques, geoprocessing, and space-time analysis evaluated the location of 425 people treated for leprosy between 1998 and 2010. Clusters were defined as concentrations of at least 8 people with leprosy; a distance of up to 300 meters between residences was adopted. Additionally, the year of starting treatment and the clinical forms of the disease were analyzed. Results. Ninety-eight (23.1%) of 425 geocoded cases were located within one of ten clusters identified in this study, and 129 cases (30.3%) were in the region of a second-order cluster, an area considered of high risk for the disease. Conclusion.This study identified ten clusters of leprosy cases in the city and identified an area of high risk for the appearance of new cases of the disease.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Background. The surgical treatment of dysfunctional hips is a severe condition for the patient and a costly therapy for the public health. Hip resurfacing techniques seem to hold the promise of various advantages over traditional THR, with particular attention to young and active patients. Although the lesson provided in the past by many branches of engineering is that success in designing competitive products can be achieved only by predicting the possible scenario of failure, to date the understanding of the implant quality is poorly pre-clinically addressed. Thus revision is the only delayed and reliable end point for assessment. The aim of the present work was to model the musculoskeletal system so as to develop a protocol for predicting failure of hip resurfacing prosthesis. Methods. Preliminary studies validated the technique for the generation of subject specific finite element (FE) models of long bones from Computed Thomography data. The proposed protocol consisted in the numerical analysis of the prosthesis biomechanics by deterministic and statistic studies so as to assess the risk of biomechanical failure on the different operative conditions the implant might face in a population of interest during various activities of daily living. Physiological conditions were defined including the variability of the anatomy, bone densitometry, surgery uncertainties and published boundary conditions at the hip. The protocol was tested by analysing a successful design on the market and a new prototype of a resurfacing prosthesis. Results. The intrinsic accuracy of models on bone stress predictions (RMSE < 10%) was aligned to the current state of the art in this field. The accuracy of prediction on the bone-prosthesis contact mechanics was also excellent (< 0.001 mm). The sensitivity of models prediction to uncertainties on modelling parameter was found below 8.4%. The analysis of the successful design resulted in a very good agreement with published retrospective studies. The geometry optimisation of the new prototype lead to a final design with a low risk of failure. The statistical analysis confirmed the minimal risk of the optimised design over the entire population of interest. The performances of the optimised design showed a significant improvement with respect to the first prototype (+35%). Limitations. On the authors opinion the major limitation of this study is on boundary conditions. The muscular forces and the hip joint reaction were derived from the few data available in the literature, which can be considered significant but hardly representative of the entire variability of boundary conditions the implant might face over the patients population. This moved the focus of the research on modelling the musculoskeletal system; the ongoing activity is to develop subject-specific musculoskeletal models of the lower limb from medical images. Conclusions. The developed protocol was able to accurately predict known clinical outcomes when applied to a well-established device and, to support the design optimisation phase providing important information on critical characteristics of the patients when applied to a new prosthesis. The presented approach does have a relevant generality that would allow the extension of the protocol to a large set of orthopaedic scenarios with minor changes. Hence, a failure mode analysis criterion can be considered a suitable tool in developing new orthopaedic devices.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Der AMANDA-II Detektor ist primär für den richtungsaufgelösten Nachweis hochenergetischer Neutrinos konzipiert. Trotzdem können auch niederenergetische Neutrinoausbrüche, wie sie von Supernovae erwartet werden, mit hoher Signifikanz nachgewiesen werden, sofern sie innerhalb der Milchstraße stattfinden. Die experimentelle Signatur im Detektor ist ein kollektiver Anstieg der Rauschraten aller optischen Module. Zur Abschätzung der Stärke des erwarteten Signals wurden theoretische Modelle und Simulationen zu Supernovae und experimentelle Daten der Supernova SN1987A studiert. Außerdem wurden die Sensitivitäten der optischen Module neu bestimmt. Dazu mussten für den Fall des südpolaren Eises die Energieverluste geladener Teilchen untersucht und eine Simulation der Propagation von Photonen entwickelt werden. Schließlich konnte das im Kamiokande-II Detektor gemessene Signal auf die Verhältnisse des AMANDA-II Detektors skaliert werden. Im Rahmen dieser Arbeit wurde ein Algorithmus zur Echtzeit-Suche nach Signalen von Supernovae als Teilmodul der Datennahme implementiert. Dieser beinhaltet diverse Verbesserungen gegenüber der zuvor von der AMANDA-Kollaboration verwendeten Version. Aufgrund einer Optimierung auf Rechengeschwindigkeit können nun mehrere Echtzeit-Suchen mit verschiedenen Analyse-Zeitbasen im Rahmen der Datennahme simultan laufen. Die Disqualifikation optischer Module mit ungeeignetem Verhalten geschieht in Echtzeit. Allerdings muss das Verhalten der Module zu diesem Zweck anhand von gepufferten Daten beurteilt werden. Dadurch kann die Analyse der Daten der qualifizierten Module nicht ohne eine Verzögerung von etwa 5 Minuten geschehen. Im Falle einer erkannten Supernova werden die Daten für die Zeitdauer mehrerer Minuten zur späteren Auswertung in 10 Millisekunden-Intervallen archiviert. Da die Daten des Rauschverhaltens der optischen Module ansonsten in Intervallen von 500 ms zur Verfgung stehen, ist die Zeitbasis der Analyse in Einheiten von 500 ms frei wählbar. Im Rahmen dieser Arbeit wurden drei Analysen dieser Art am Südpol aktiviert: Eine mit der Zeitbasis der Datennahme von 500 ms, eine mit der Zeitbasis 4 s und eine mit der Zeitbasis 10 s. Dadurch wird die Sensitivität für Signale maximiert, die eine charakteristische exponentielle Zerfallszeit von 3 s aufweisen und gleichzeitig eine gute Sensitivität über einen weiten Bereich exponentieller Zerfallszeiten gewahrt. Anhand von Daten der Jahre 2000 bis 2003 wurden diese Analysen ausführlich untersucht. Während die Ergebnisse der Analyse mit t = 500 ms nicht vollständig nachvollziehbare Ergebnisse produzierte, konnten die Resultate der beiden Analysen mit den längeren Zeitbasen durch Simulationen reproduziert und entsprechend gut verstanden werden. Auf der Grundlage der gemessenen Daten wurden die erwarteten Signale von Supernovae simuliert. Aus einem Vergleich zwischen dieser Simulation den gemessenen Daten der Jahre 2000 bis 2003 und der Simulation des erwarteten statistischen Untergrunds kann mit einem Konfidenz-Niveau von mindestens 90 % gefolgert werden, dass in der Milchstraße nicht mehr als 3.2 Supernovae pro Jahr stattfinden. Zur Identifikation einer Supernova wird ein Ratenanstieg mit einer Signifikanz von mindestens 7.4 Standardabweichungen verlangt. Die Anzahl erwarteter Ereignisse aus dem statistischen Untergrund beträgt auf diesem Niveau weniger als ein Millionstel. Dennoch wurde ein solches Ereignis gemessen. Mit der gewählten Signifikanzschwelle werden 74 % aller möglichen Vorläufer-Sterne von Supernovae in der Galaxis überwacht. In Kombination mit dem letzten von der AMANDA-Kollaboration veröffentlicheten Ergebnis ergibt sich sogar eine obere Grenze von nur 2.6 Supernovae pro Jahr. Im Rahmen der Echtzeit-Analyse wird für die kollektive Ratenüberhöhung eine Signifikanz von mindestens 5.5 Standardabweichungen verlangt, bevor eine Meldung über die Detektion eines Supernova-Kandidaten verschickt wird. Damit liegt der überwachte Anteil Sterne der Galaxis bei 81 %, aber auch die Frequenz falscher Alarme steigt auf bei etwa 2 Ereignissen pro Woche. Die Alarm-Meldungen werden über ein Iridium-Modem in die nördliche Hemisphäre übertragen, und sollen schon bald zu SNEWS beitragen, dem weltweiten Netzwerk zur Früherkennung von Supernovae.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Zusammenfassung Die vorliegende Arbeit hat zum Ziel, pharmazeutisch-technologische Möglichkeiten der Retardierung bei ausgewählten Antiasthmatika zur pulmonalen Applikation anzuwenden. Dafür sollten Mikropartikel hergestellt und pharmazeutisch sowie biopharmazeutisch charakterisiert werden. Als Modellsubstanzen werden das Glukokortikoid Budesonid und das β2-Sympathomimetikum Salbutamol in Form seiner Base und seines Salzes verwendet. Die Auswahl erfolgt nach physikochemischen (Lipophilie, Molekulargewicht) und therapeutischen (Halbwertszeit der Wirkung, Applikationsfrequenz) Gesichtspunkten. Mikropartikel auf Polymerbasis ermöglichen eine kontrollierte Freigabe der Arzneistoffe über einen vorausbestimmten Zeitraum. Es erfolgt die Auswahl physiologisch unbedenklicher Hilfsstoffe (Polylaktide R 202H/ Poly(laktid-co-glykolide) RG 502H, RG 752-S) mit unterschiedlichen Anteilen an Coglykolid sowie unterschiedlichen Molekulargewichten, die sich prinzipiell zur Verzögerung der Freisetzung eignen und sich bei der parenteralen Applikation bereits bewährt haben. Die Sprühtrocknung wird als geeignetes pharmazeutisch-technologisches Verfahren zur Präparation von Mikropartikeln im Teilchengrößenbereich von 1- 10 Mikrometern beschrieben, welche den Wirkstoff mit möglichst hoher Beladung verkapselt. Die sprühgetrockneten Pulver sollen pharmazeutisch physikochemisch mittels Rasterelektronenmikroskopie (Morphologie), Laserdiffraktometrie (Teilchengrößenverteilung), DSC und Röntgenpulverdiffraktometrie (thermisches Verhalten) und mittels Stickstoff-Tief-Temperatur Adsorptionsverfahren (spezifische Oberfläche) charakterisiert werden. Zusätzlich wird die Wirkstoffbeladung der sprühgetrockneten Polymer-Mikropartikel mittels HPLC ermittelt. Die biopharmazeutische Charakterisierung der sprühgetrockneten Pulver erfolgt über die in-vitro Freigabekinetik und die Stabilität der Mikropartikel. Zusätzlich werden Versuche an Zellkulturen und in-vivo Versuche an Mäusen durchgeführt, um die Effekte der sprühgetrockneten Mikropartikel und des Hilfsstoffs hinsichtlich der Freisetzungsretardierung zu testen. Bei den in-vivo Versuchen werden der Atemwegswiderstand und die Verlängerung der exspiratorischen Phase (penh) als Parameter für einen antiasthmatischen Effekt gewählt. Die Lungenlavage Flüssigkeit wird zusätzlich überprüft. Die Ergebnisse zeigen, dass es mit Hilfe der Sprühtrocknung möglich ist, Polymer-Mikropartikel herzustellen, die aufgrund ihrer Partikelgröße von d50 ≤ 5,8 µm fähig sind, die unteren Abschnitte der Lunge zu erreichen. Die Morphologie der Mikropartikel ist abhängig vom zu versprühenden Produkt. Thermodynamisch und röntgenpulverdiffraktometrisch betrachtet handelt es sich um amorphe Produkte, die aber über lange Zeit in diesem Zustand stabil sind. Die Wiederfindung der eingesetzten Arzneistoffmenge in den sprühgetrockneten Polymer-Mikropartikeln und die Freigabeversuche zur Charakterisierung der Retardierungseigenschaften der verwendeten Polymere ergeben, dass es mit Hilfe der Sprühtrocknung von Budesonid und Salbutamol mit den Polymeren möglich ist, retardierende Mikropartikel herzustellen. Die Wiederfindung von Budesonid und Salbutamol in den sprühgetrockneten Polymer-Mikropartikeln entspricht nahezu der eingesetzten Menge. Bei Salbutamolsulfat ist dies nicht der Fall. In Zellkulturversuchen der murinen Zellinie RAW 264.7 ergaben sich Hinweise darauf, dass bei Konzentrationen von 10-6 M und 10-8 M, die Downregulation der IL-6 Konzentration durch die Sprüheinbettung von 9,1 % Budesonid mit PLGA in stärkerem Ausmaß erfolgte, als bei unverkapseltem Budesonid. Zusätzlich wurden in-vivo Versuche mit intranasaler und intraperitonealer Gabe durchgeführt. Die Budesonid-Polymer Sprüheinbettung wurde mit unverkapseltem Budesonid vergleichen. Nach intraperitonealer Gabe hatte die Sprüheinbettung mit Budesonid die besten Effekte hinsichtlich der Unterdrückung des penh und des Atemwegswiderstands auch bei steigenden Metacholinkonzentrationen. Die Auswertung der Lungenlavage Flüssigkeit zeigt sehr deutlich die Downregulation der IL-6 Konzentration in der Lunge durch die Sprüheinbettung mit Budesonid. Zur Zeit werden Vorbereitungen getroffen, ein Gerät zu testen, das in der Lage ist, ein Mikrospray zu generieren, so dass eine intratracheale Verabreichung möglich wäre.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Die Förderung der Zelladhäsion durch sogenannte biomimetische Oberflächen wird in der Medizin als vielversprechender Ansatz gesehen, um Komplikationen wie z. B. Fremdkörperreaktionen nach der Implantation entgegenzuwirken. Neben der Immobilisierung einzelner Biomoleküle wie z. B. dem RGD-Peptid, Proteinen und Wachstumsfaktoren auf verschiedenen Materialien, konzentriert man sich derzeit in der Forschung auf die Co-Immobilisierung zweier Moleküle gleichzeitig. Hierbei werden die funktionellen Gruppen z. B. von Kollagen unter Verwendung von nur einer Kopplungschemie verwendet, wodurch die Kopplungseffizienz der einzelnen Komponenten nur begrenzt kontrollierbar ist. Das Ziel der vorliegenden Arbeit war die Entwicklung eines Immobilisierungsverfahrens, welches die unabhängige Kopplung zweier Faktoren kontrolliert ermöglicht. Dabei sollten exemplarisch das adhäsionsfördernde RGD-Peptid (Arginin-Glycin-Asparaginsäure) zusammen mit dem Wachstumsfaktor VEGF (Vascular Endothelial Growth Factor) auf Titan gebunden werden. In weiteren Experimenten sollten dann die pro-adhäsiven Faktoren Fibronektin, Kollagen, Laminin und Osteopontin immobilisiert und untersucht werden. rnDie Aminofunktionalisierung von Titan durch plasma polymerisierte Allylaminschichten wurde als Grundlage für die Entwicklung des nasschemischen Co-immobilisierungsverfahren verwendet. Für eine unabhängige und getrennte Anbindung der verschiedenen Biomoleküle stand in diesem Zusammenhang die Entwicklung eines geeigneten Crosslinker Systems im Vordergrund. Die Oberflächencharakterisierung der entwickelten Oberflächen erfolgte mittels Infrarot Spektroskopie, Surface Plasmon Resonance Spektroskopie (SPR), Kontaktwinkelmessungen, Step Profiling und X-Ray Photoelectron Spektroskopie (XPS). Zur Analyse der Anbindungsprozesse in Echtzeit wurden SPR-Kinetik Messungen durchgeführt. Die biologische Funktionalität der modifizierten Oberflächen wurde in vitro an Endothelzellen (HUVECs) und Osteoblasten (HOBs) und in vivo in einem Tiermodell-System an der Tibia von Kaninchen untersucht.rnDie Ergebnisse zeigen, dass alle genannten Biomoleküle sowohl einzeln auf Titan kovalent gekoppelt als auch am Bespiel von RGD und VEGF in einem getrennten Zwei-Schritt-Verfahren co-immobilisiert werden können. Des Weiteren wurde die biologische Funktionalität der gebundenen Faktoren nachgewiesen. Im Falle der RGD modifizierten Oberflächen wurde nach 7 Tagen eine geförderte Zelladhäsion von HUVECs mit einer signifikant erhöhten Zellbesiedlungsdichte von 28,5 % (p<0,05) gezeigt, wohingegen auf reinem Titan Werte von nur 13 % beobachtet wurden. Sowohl VEGF als auch RGD/VEGF modifizierte Proben wiesen im Vergleich zu Titan schon nach 24 Stunden eine geförderte Zelladhäsion und eine signifikant erhöhte Zellbesiedlungsdichte auf. Bei einer Besiedlung von 7,4 % auf Titan, zeigten VEGF modifizierte Proben mit 32,3 % (p<0,001) eine deutlichere Wirkung auf HUVECs als RGD/VEGF modifizierte Proben mit 13,2 % (p<0,01). Die pro-adhäsiven Faktoren zeigten eine deutliche Stimulation der Zelladhäsion von HUVECs und HOBs im Vergleich zu reinem Titan. Die deutlich höchsten Besiedlungsdichten von HUVECs konnten auf Fibronektin mit 44,6 % (p<0,001) und Kollagen mit 39,9 % (p<0,001) nach 24 Stunden beobachtet werden. Laminin zeigte keine und Osteopontin nur eine sehr geringe Wirkung auf HUVECs. Bei Osteoblasten konnten signifikant erhöhte Besiedlungsdichten im Falle aller pro-adhäsiven Faktoren beobachtet werden, jedoch wurden die höchsten Werte nach 7 Tagen auf Kollagen mit 90,6 % (p<0,001) und Laminin mit 86,5 % (p<0,001) im Vergleich zu Titan mit 32,3 % beobachtet. Die Auswertung der Tierexperimente ergab, dass die VEGF modifizierten Osteosyntheseplatten, im Vergleich zu den reinen Titankontrollen, eine gesteigerte Knochenneubildung auslösten. Eine solche Wirkung konnte für RGD/VEGF modifizierte Implantate nicht beobachtet werden. rnInsgesamt konnte gezeigt werden, dass mittels plasmapolymerisierten Allylamin Schichten die genannten Biomoleküle sowohl einzeln gebunden als auch getrennt und kontrolliert co-immobilisiert werden können. Des Weiteren konnte eine biologische Funktionalität für alle Faktoren nach erfolgter Kopplung in vitro gezeigt werden. Wider Erwarten konnte jedoch kein zusätzlicher biologischer Effekt durch die Co-immobilisierung von RGD und VEGF im Vergleich zu den einzeln immobilisierten Faktoren gezeigt werden. Um zu einer klinischen Anwendung zu gelangen, ist es nun notwendig, das entwickelte Verfahren in Bezug auf die immobilisierten Mengen der verschiedenen Faktoren hin zu optimieren. rn

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Advances in food transformation have dramatically increased the diversity of products on the market and, consequently, exposed consumers to a complex spectrum of bioactive nutrients whose potential risks and benefits have mostly not been confidently demonstrated. Therefore, tools are needed to efficiently screen products for selected physiological properties before they enter the market. NutriChip is an interdisciplinary modular project funded by the Swiss programme Nano-Tera, which groups scientists from several areas of research with the aim of developing analytical strategies that will enable functional screening of foods. The project focuses on postprandial inflammatory stress, which potentially contributes to the development of chronic inflammatory diseases. The first module of the NutriChip project is composed of three in vitro biochemical steps that mimic the digestion process, intestinal absorption, and subsequent modulation of immune cells by the bioavailable nutrients. The second module is a miniaturised form of the first module (gut-on-a-chip) that integrates a microfluidic-based cell co-culture system and super-resolution imaging technologies to provide a physiologically relevant fluid flow environment and allows sensitive real-time analysis of the products screened in vitro. The third module aims at validating the in vitro screening model by assessing the nutritional properties of selected food products in humans. Because of the immunomodulatory properties of milk as well as its amenability to technological transformation, dairy products have been selected as model foods. The NutriChip project reflects the opening of food and nutrition sciences to state-of-the-art technologies, a key step in the translation of transdisciplinary knowledge into nutritional advice.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

In estimation of a survival function, current status data arises when the only information available on individuals is their survival status at a single monitoring time. Here we briefly review extensions of this form of data structure in two directions: (i) doubly censored current status data, where there is incomplete information on the origin of the failure time random variable, and (ii) current status information on more complicated stochastic processes. Simple examples of these data forms are presented for motivation.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Current concepts of synaptic fine-structure are derived from electron microscopic studies of tissue fixed by chemical fixation using aldehydes. However, chemical fixation with glutaraldehyde and paraformaldehyde and subsequent dehydration in ethanol result in uncontrolled tissue shrinkage. While electron microscopy allows for the unequivocal identification of synaptic contacts, it cannot be used for real-time analysis of structural changes at synapses. For the latter purpose advanced fluorescence microscopy techniques are to be applied which, however, do not allow for the identification of synaptic contacts. Here, two approaches are described that may overcome, at least in part, some of these drawbacks in the study of synapses. By focusing on a characteristic, easily identifiable synapse, the mossy fiber synapse in the hippocampus, we first describe high-pressure freezing of fresh tissue as a method that may be applied to study subtle changes in synaptic ultrastructure associated with functional synaptic plasticity. Next, we propose to label presynaptic mossy fiber terminals and postsynaptic complex spines on CA3 pyramidal neurons by different fluorescent dyes to allow for the real-time monitoring of these synapses in living tissue over extended periods of time. We expect these approaches to lead to new insights into the structure and function of central synapses.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Characterizing the spatial scaling and dynamics of convective precipitation in mountainous terrain and the development of downscaling methods to transfer precipitation fields from one scale to another is the overall motivation for this research. Substantial progress has been made on characterizing the space-time organization of Midwestern convective systems and tropical rainfall, which has led to the development of statistical/dynamical downscaling models. Space-time analysis and downscaling of orographic precipitation has received less attention due to the complexities of topographic influences. This study uses multiscale statistical analysis to investigate the spatial scaling of organized thunderstorms that produce heavy rainfall and flooding in mountainous regions. Focus is placed on the eastern and western slopes of the Appalachian region and the Front Range of the Rocky Mountains. Parameter estimates are analyzed over time and attention is given to linking changes in the multiscale parameters with meteorological forcings and orographic influences on the rainfall. Influences of geographic regions and predominant orographic controls on trends in multiscale properties of precipitation are investigated. Spatial resolutions from 1 km to 50 km are considered. This range of spatial scales is needed to bridge typical scale gaps between distributed hydrologic models and numerical weather prediction (NWP) forecasts and attempts to address the open research problem of scaling organized thunderstorms and convection in mountainous terrain down to 1-4 km scales.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Die Bestimmung der Anzahl der Biegewechsel von laufenden Drahtseilen ist ein wesentlicher Bestandteil bei der Betriebsdaueranalyse von Seiltrieben. Auf Seilabschnitte, die während der Betriebszeit die meisten Biegewechsel erfahren, sollte bei einer Seilprüfung besonderes Augenmerk gelegt werden. Gerade bei mehrfacher Einscherung ist jedoch nicht immer von vorn herein ersichtlich, um welche Seilabschnitte es sich dabei handelt. Auf der Basis der Geometrie des mehrfach eingescherten Seiltriebs wird ein rechnergestütztes Analyseverfahren zur Ermittlung der Anzahl der Biegewechsel entlang des Drahtseils bei einem Arbeitsspiel vorgestellt.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The mismatching of alveolar ventilation and perfusion (VA/Q) is the major determinant of impaired gas exchange. The gold standard for measuring VA/Q distributions is based on measurements of the elimination and retention of infused inert gases. Conventional multiple inert gas elimination technique (MIGET) uses gas chromatography (GC) to measure the inert gas partial pressures, which requires tonometry of blood samples with a gas that can then be injected into the chromatograph. The method is laborious and requires meticulous care. A new technique based on micropore membrane inlet mass spectrometry (MMIMS) facilitates the handling of blood and gas samples and provides nearly real-time analysis. In this study we compared MIGET by GC and MMIMS in 10 piglets: 1) 3 with healthy lungs; 2) 4 with oleic acid injury; and 3) 3 with isolated left lower lobe ventilation. The different protocols ensured a large range of normal and abnormal VA/Q distributions. Eight inert gases (SF6, krypton, ethane, cyclopropane, desflurane, enflurane, diethyl ether, and acetone) were infused; six of these gases were measured with MMIMS, and six were measured with GC. We found close agreement of retention and excretion of the gases and the constructed VA/Q distributions between GC and MMIMS, and predicted PaO2 from both methods compared well with measured PaO2. VA/Q by GC produced more widely dispersed modes than MMIMS, explained in part by differences in the algorithms used to calculate VA/Q distributions. In conclusion, MMIMS enables faster measurement of VA/Q, is less demanding than GC, and produces comparable results.