963 resultados para PCR and real time PCR
Resumo:
Während in den letzten Jahren zahlreiche Biosensoren zum spezifischen Nachweis von DNA entwickelt wurden, ist die Anwendung oberflächen-sensitiver Methoden auf enzymatische Reaktionen ein vergleichsweise neues Forschungsgebiet. Trotz der hohen Empfindlichkeit und der Möglichkeit zur Echtzeit-Beobachtung molekularer Prozesse, ist die Anwendung dieser Methoden nicht etabliert, da die Enzymaktivität durch die Nähe zur Oberfläche beeinträchtigt sein kann. Im Rahmen dieser Arbeit wurde die enzymatische Verlängerung immobilisierter DNA durch eine DNA Polymerase mit Hilfe von Oberflächenplasmonen-Fluoreszenzspektroskopie (SPFS) und einer Quarzkristall-Mikrowaage (QCM) untersucht. Die Synthese von DNA wurde im Fall der QCM als Massenzuwachs detektiert, der sich im Abfall der Resonanzfrequenz des Schwingquarzes und einem Anstieg seiner Dissipationsenergie ausdrückte. Die viskoelastischen Eigenschaften der DNA-Schichten wurden bestimmt, indem die erhaltenen Daten mit einem auf Voigt basierenden Modell ausgewertet wurden. SPFS nutzt das evaneszente elektromagnetische Feld, das mit Oberflächenplasmonen einhergeht, zur oberflächen-sensitiven Anregung von Chromophoren. Auf diese Weise wurde der Einbau von Farbstoff-markierten Nukleotiden in die entstehende DNA-Sequenz als Indikator für das Voranschreiten der Reaktion ausgenutzt. Beide Meßtechniken konnten erfolgreich zum Nachweis der DNA-Synthese herangezogen werden, wobei die katalytische Aktivität des Enzyms vergleichbar zu der in Lösung gemessenen war.
Resumo:
The hydrologic risk (and the hydro-geologic one, closely related to it) is, and has always been, a very relevant issue, due to the severe consequences that may be provoked by a flooding or by waters in general in terms of human and economic losses. Floods are natural phenomena, often catastrophic, and cannot be avoided, but their damages can be reduced if they are predicted sufficiently in advance. For this reason, the flood forecasting plays an essential role in the hydro-geological and hydrological risk prevention. Thanks to the development of sophisticated meteorological, hydrologic and hydraulic models, in recent decades the flood forecasting has made a significant progress, nonetheless, models are imperfect, which means that we are still left with a residual uncertainty on what will actually happen. In this thesis, this type of uncertainty is what will be discussed and analyzed. In operational problems, it is possible to affirm that the ultimate aim of forecasting systems is not to reproduce the river behavior, but this is only a means through which reducing the uncertainty associated to what will happen as a consequence of a precipitation event. In other words, the main objective is to assess whether or not preventive interventions should be adopted and which operational strategy may represent the best option. The main problem for a decision maker is to interpret model results and translate them into an effective intervention strategy. To make this possible, it is necessary to clearly define what is meant by uncertainty, since in the literature confusion is often made on this issue. Therefore, the first objective of this thesis is to clarify this concept, starting with a key question: should be the choice of the intervention strategy to adopt based on the evaluation of the model prediction based on its ability to represent the reality or on the evaluation of what actually will happen on the basis of the information given by the model forecast? Once the previous idea is made unambiguous, the other main concern of this work is to develope a tool that can provide an effective decision support, making possible doing objective and realistic risk evaluations. In particular, such tool should be able to provide an uncertainty assessment as accurate as possible. This means primarily three things: it must be able to correctly combine all the available deterministic forecasts, it must assess the probability distribution of the predicted quantity and it must quantify the flooding probability. Furthermore, given that the time to implement prevention strategies is often limited, the flooding probability will have to be linked to the time of occurrence. For this reason, it is necessary to quantify the flooding probability within a horizon time related to that required to implement the intervention strategy and it is also necessary to assess the probability of the flooding time.
Resumo:
Environmental computer models are deterministic models devoted to predict several environmental phenomena such as air pollution or meteorological events. Numerical model output is given in terms of averages over grid cells, usually at high spatial and temporal resolution. However, these outputs are often biased with unknown calibration and not equipped with any information about the associated uncertainty. Conversely, data collected at monitoring stations is more accurate since they essentially provide the true levels. Due the leading role played by numerical models, it now important to compare model output with observations. Statistical methods developed to combine numerical model output and station data are usually referred to as data fusion. In this work, we first combine ozone monitoring data with ozone predictions from the Eta-CMAQ air quality model in order to forecast real-time current 8-hour average ozone level defined as the average of the previous four hours, current hour, and predictions for the next three hours. We propose a Bayesian downscaler model based on first differences with a flexible coefficient structure and an efficient computational strategy to fit model parameters. Model validation for the eastern United States shows consequential improvement of our fully inferential approach compared with the current real-time forecasting system. Furthermore, we consider the introduction of temperature data from a weather forecast model into the downscaler, showing improved real-time ozone predictions. Finally, we introduce a hierarchical model to obtain spatially varying uncertainty associated with numerical model output. We show how we can learn about such uncertainty through suitable stochastic data fusion modeling using some external validation data. We illustrate our Bayesian model by providing the uncertainty map associated with a temperature output over the northeastern United States.
Resumo:
Ziel dieser Dissertation ist die experimentelle Charakterisierung und quantitative Beschreibung der Hybridisierung von komplementären Nukleinsäuresträngen mit oberflächengebundenen Fängermolekülen für die Entwicklung von integrierten Biosensoren. Im Gegensatz zu lösungsbasierten Verfahren ist mit Microarray Substraten die Untersuchung vieler Nukleinsäurekombinationen parallel möglich. Als biologisch relevantes Evaluierungssystem wurde das in Eukaryoten universell exprimierte Actin Gen aus unterschiedlichen Pflanzenspezies verwendet. Dieses Testsystem ermöglicht es, nahe verwandte Pflanzenarten auf Grund von geringen Unterschieden in der Gen-Sequenz (SNPs) zu charakterisieren. Aufbauend auf dieses gut studierte Modell eines House-Keeping Genes wurde ein umfassendes Microarray System, bestehend aus kurzen und langen Oligonukleotiden (mit eingebauten LNA-Molekülen), cDNAs sowie DNA und RNA Targets realisiert. Damit konnte ein für online Messung optimiertes Testsystem mit hohen Signalstärken entwickelt werden. Basierend auf den Ergebnissen wurde der gesamte Signalpfad von Nukleinsärekonzentration bis zum digitalen Wert modelliert. Die aus der Entwicklung und den Experimenten gewonnen Erkenntnisse über die Kinetik und Thermodynamik von Hybridisierung sind in drei Publikationen zusammengefasst die das Rückgrat dieser Dissertation bilden. Die erste Publikation beschreibt die Verbesserung der Reproduzierbarkeit und Spezifizität von Microarray Ergebnissen durch online Messung von Kinetik und Thermodynamik gegenüber endpunktbasierten Messungen mit Standard Microarrays. Für die Auswertung der riesigen Datenmengen wurden zwei Algorithmen entwickelt, eine reaktionskinetische Modellierung der Isothermen und ein auf der Fermi-Dirac Statistik beruhende Beschreibung des Schmelzüberganges. Diese Algorithmen werden in der zweiten Publikation beschrieben. Durch die Realisierung von gleichen Sequenzen in den chemisch unterschiedlichen Nukleinsäuren (DNA, RNA und LNA) ist es möglich, definierte Unterschiede in der Konformation des Riboserings und der C5-Methylgruppe der Pyrimidine zu untersuchen. Die kompetitive Wechselwirkung dieser unterschiedlichen Nukleinsäuren gleicher Sequenz und die Auswirkungen auf Kinetik und Thermodynamik ist das Thema der dritten Publikation. Neben der molekularbiologischen und technologischen Entwicklung im Bereich der Sensorik von Hybridisierungsreaktionen oberflächengebundener Nukleinsäuremolekülen, der automatisierten Auswertung und Modellierung der anfallenden Datenmengen und der damit verbundenen besseren quantitativen Beschreibung von Kinetik und Thermodynamik dieser Reaktionen tragen die Ergebnisse zum besseren Verständnis der physikalisch-chemischen Struktur des elementarsten biologischen Moleküls und seiner nach wie vor nicht vollständig verstandenen Spezifizität bei.
Resumo:
In vielen Industriezweigen, zum Beispiel in der Automobilindustrie, werden Digitale Versuchsmodelle (Digital MockUps) eingesetzt, um die Konstruktion und die Funktion eines Produkts am virtuellen Prototypen zu überprüfen. Ein Anwendungsfall ist dabei die Überprüfung von Sicherheitsabständen einzelner Bauteile, die sogenannte Abstandsanalyse. Ingenieure ermitteln dabei für bestimmte Bauteile, ob diese in ihrer Ruhelage sowie während einer Bewegung einen vorgegeben Sicherheitsabstand zu den umgebenden Bauteilen einhalten. Unterschreiten Bauteile den Sicherheitsabstand, so muss deren Form oder Lage verändert werden. Dazu ist es wichtig, die Bereiche der Bauteile, welche den Sicherhabstand verletzen, genau zu kennen. rnrnIn dieser Arbeit präsentieren wir eine Lösung zur Echtzeitberechnung aller den Sicherheitsabstand unterschreitenden Bereiche zwischen zwei geometrischen Objekten. Die Objekte sind dabei jeweils als Menge von Primitiven (z.B. Dreiecken) gegeben. Für jeden Zeitpunkt, in dem eine Transformation auf eines der Objekte angewendet wird, berechnen wir die Menge aller den Sicherheitsabstand unterschreitenden Primitive und bezeichnen diese als die Menge aller toleranzverletzenden Primitive. Wir präsentieren in dieser Arbeit eine ganzheitliche Lösung, welche sich in die folgenden drei großen Themengebiete unterteilen lässt.rnrnIm ersten Teil dieser Arbeit untersuchen wir Algorithmen, die für zwei Dreiecke überprüfen, ob diese toleranzverletzend sind. Hierfür präsentieren wir verschiedene Ansätze für Dreiecks-Dreiecks Toleranztests und zeigen, dass spezielle Toleranztests deutlich performanter sind als bisher verwendete Abstandsberechnungen. Im Fokus unserer Arbeit steht dabei die Entwicklung eines neuartigen Toleranztests, welcher im Dualraum arbeitet. In all unseren Benchmarks zur Berechnung aller toleranzverletzenden Primitive beweist sich unser Ansatz im dualen Raum immer als der Performanteste.rnrnDer zweite Teil dieser Arbeit befasst sich mit Datenstrukturen und Algorithmen zur Echtzeitberechnung aller toleranzverletzenden Primitive zwischen zwei geometrischen Objekten. Wir entwickeln eine kombinierte Datenstruktur, die sich aus einer flachen hierarchischen Datenstruktur und mehreren Uniform Grids zusammensetzt. Um effiziente Laufzeiten zu gewährleisten ist es vor allem wichtig, den geforderten Sicherheitsabstand sinnvoll im Design der Datenstrukturen und der Anfragealgorithmen zu beachten. Wir präsentieren hierzu Lösungen, die die Menge der zu testenden Paare von Primitiven schnell bestimmen. Darüber hinaus entwickeln wir Strategien, wie Primitive als toleranzverletzend erkannt werden können, ohne einen aufwändigen Primitiv-Primitiv Toleranztest zu berechnen. In unseren Benchmarks zeigen wir, dass wir mit unseren Lösungen in der Lage sind, in Echtzeit alle toleranzverletzenden Primitive zwischen zwei komplexen geometrischen Objekten, bestehend aus jeweils vielen hunderttausend Primitiven, zu berechnen. rnrnIm dritten Teil präsentieren wir eine neuartige, speicheroptimierte Datenstruktur zur Verwaltung der Zellinhalte der zuvor verwendeten Uniform Grids. Wir bezeichnen diese Datenstruktur als Shrubs. Bisherige Ansätze zur Speicheroptimierung von Uniform Grids beziehen sich vor allem auf Hashing Methoden. Diese reduzieren aber nicht den Speicherverbrauch der Zellinhalte. In unserem Anwendungsfall haben benachbarte Zellen oft ähnliche Inhalte. Unser Ansatz ist in der Lage, den Speicherbedarf der Zellinhalte eines Uniform Grids, basierend auf den redundanten Zellinhalten, verlustlos auf ein fünftel der bisherigen Größe zu komprimieren und zur Laufzeit zu dekomprimieren.rnrnAbschießend zeigen wir, wie unsere Lösung zur Berechnung aller toleranzverletzenden Primitive Anwendung in der Praxis finden kann. Neben der reinen Abstandsanalyse zeigen wir Anwendungen für verschiedene Problemstellungen der Pfadplanung.
Resumo:
Analisi e sviluppo di procedure di importazione dati per un integratore di annunci immobiliari dedicato alla vendita di soggiorni turistici in case vacanza. Il documento tratta inoltre l'implementazione di un Web Service conforme all'architettura RESTful per l'accesso e l'esportazione dei dati a soggetti terzi autorizzati tramite Digest Authentication.
Resumo:
The wild-type cholecystokinin type 2 (CCK(2)) receptor is expressed in many gastrointestinal and lung tumours. A splice variant of the CCK(2) receptor with retention of intron 4 (CCK(2)Ri4sv) showing constitutive activity associated with increased tumour growth was described in few colorectal, pancreatic and gastric cancers. Given the potential functional and clinical importance of this spliceoform, its occurrence was quantitatively characterized in a broad collection of 81 gastrointestinal and lung tumours, including insulinomas, ileal carcinoids, gastrointestinal stromal tumours (GIST), gastric, colorectal and pancreatic ductal adenocarcinomas, cholangiocellular and hepatocellular carcinomas, small cell lung cancers (SCLC), non-SCLC (nSCLC) and bronchopulmonary carcinoids, as well as 21 samples of corresponding normal tissues. These samples were assessed for transcript expression of total CCK(2) receptor, wild-type CCK(2) receptor and CCK(2)Ri4sv with end-point and real-time RT-PCR, and for total CCK(2) receptor protein expression on the basis of receptor binding with in vitro receptor autoradiography. Wild-type CCK(2) receptor transcripts were found in the vast majority of tumours and normal tissues. CCK(2)Ri4sv mRNA expression was present predominantly in insulinomas (incidence 100%), GIST (100%) and SCLC (67%), but rarely in pancreatic, colorectal and gastric carcinomas and nSCLC. It was not found in wild-type CCK(2) receptor negative tumours or any normal tissues tested. CCK(2)Ri4sv transcript levels in individual tumours were low, ranging from 0.02% to 0.14% of total CCK(2) receptor transcripts. In conclusion, the CCK(2)Ri4sv is a marker of specific gastrointestinal and lung tumours. With its high selectivity for and high incidence in SCLC and GIST, it may represent an attractive clinical target.
Resumo:
The objective of the study was to determine the feasibility of generating a biodegradable, stem cell-loaded osteogenic composite graft from human placenta. Initially, a scaffold from human chorion membrane was produced. Human placenta mesenchymal stem cells (MSCs) derived from either first-trimester chorionic villi or term chorion membrane were differentiated osteogenically on this scaffold. Outgrowth, adherence, and osteogenic differentiation of cells were assessed by immunohistochemistry (IHC), scanning electron microscopy, protein expression, and real-time polymerase chain reaction (RT-PCR). Our results showed that a cell-free extracellular matrix scaffold can be generated from human chorion. Seeded MSCs densely adhered to that scaffold and were osteogenically differentiated. Calcium and alkaline phosphatase were detected in the cell-scaffold constructs as a proof of mineralization and findings were confirmed by IHC and RT-PCR results. This study shows for the first time that generation of an osteogenic composite graft using placental tissue is feasible. It might allow therapeutic application of autologous or allogeneic grafts in congenital skeletal defects by means of a composite graft.
Resumo:
Electric power grids throughout the world suffer from serious inefficiencies associated with under-utilization due to demand patterns, engineering design and load following approaches in use today. These grids consume much of the world’s energy and represent a large carbon footprint. From material utilization perspectives significant hardware is manufactured and installed for this infrastructure often to be used at less than 20-40% of its operational capacity for most of its lifetime. These inefficiencies lead engineers to require additional grid support and conventional generation capacity additions when renewable technologies (such as solar and wind) and electric vehicles are to be added to the utility demand/supply mix. Using actual data from the PJM [PJM 2009] the work shows that consumer load management, real time price signals, sensors and intelligent demand/supply control offer a compelling path forward to increase the efficient utilization and carbon footprint reduction of the world’s grids. Underutilization factors from many distribution companies indicate that distribution feeders are often operated at only 70-80% of their peak capacity for a few hours per year, and on average are loaded to less than 30-40% of their capability. By creating strong societal connections between consumers and energy providers technology can radically change this situation. Intelligent deployment of smart sensors, smart electric vehicles, consumer-based load management technology very high saturations of intermittent renewable energy supplies can be effectively controlled and dispatched to increase the levels of utilization of existing utility distribution, substation, transmission, and generation equipment. The strengthening of these technology, society and consumer relationships requires rapid dissemination of knowledge (real time prices, costs & benefit sharing, demand response requirements) in order to incentivize behaviors that can increase the effective use of technological equipment that represents one of the largest capital assets modern society has created.
Resumo:
The histological status of the sentinel lymph node (SLN) is one of the most relevant prognostic factors for the overall survival of patients with cutaneous malignancies, independent of tumour depth of the primary tumour.
Resumo:
Real-time quantitative polymerase chain reaction (qPCR) depends on precise temperature control of the sample during cycling. In the current study, we investigated how temperature variation in plate-based qPCR instruments influences qPCR results. Temperature variation was measured by amplicon melting analysis as a convenient means to assess well-to-well differences. Multiple technical replicates of several SYBR Green I-based qPCR assays allowed correlation of relative well temperature to quantification cycle. We found that inadequate template denaturation results in an inverse correlation and requires increasing the denaturation temperature, adding a DNA destabilizing agent, or pretreating with a restriction enzyme. In contrast, inadequate primer annealing results in a direct correlation and requires lowering the annealing temperature. Significant correlations were found in 18 of 25 assays. The critical nature of temperature-dependent effects was shown in a blinded study of 29 patients for the diagnosis of Prader-Willy and Angelman syndromes, where eight diagnoses were incorrect unless temperature-dependent effects were controlled. A method to detect temperature-dependent effects by pairwise comparisons of replicates in routine experiments is presented and applied. Systematic temperature errors in qPCR instruments can be recognized and their effects eliminated when high precision is required in quantitative genetic diagnostics and critical complementary DNA analyses.
Resumo:
A high percentage of oesophageal adenocarcinomas show an aggressive clinical behaviour with a significant resistance to chemotherapy. Heat-shock proteins (HSPs) and glucose-regulated proteins (GRPs) are molecular chaperones that play an important role in tumour biology. Recently, novel therapeutic approaches targeting HSP90/GRP94 have been introduced for treating cancer. We performed a comprehensive investigation of HSP and GRP expression including HSP27, phosphorylated (p)-HSP27((Ser15)), p-HSP27((Ser78)), p-HSP27((Ser82)), HSP60, HSP70, HSP90, GRP78 and GRP94 in 92 primary resected oesophageal adenocarcinomas by using reverse phase protein arrays (RPPA), immunohistochemistry (IHC) and real-time quantitative RT-PCR (qPCR). Results were correlated with pathologic features and survival. HSP/GRP protein and mRNA expression was detected in all tumours at various levels. Unsupervised hierarchical clustering showed two distinct groups of tumours with specific protein expression patterns: The hallmark of the first group was a high expression of p-HSP27((Ser15, Ser78, Ser82)) and low expression of GRP78, GRP94 and HSP60. The second group showed the inverse pattern with low p-HSP27 and high GRP78, GRP94 and HSP60 expression. The clinical outcome for patients from the first group was significantly improved compared to patients from the second group, both in univariate analysis (p = 0.015) and multivariate analysis (p = 0.029). Interestingly, these two groups could not be distinguished by immunohistochemistry or qPCR analysis. In summary, two distinct and prognostic relevant HSP/GRP protein expression patterns in adenocarcinomas of the oesophagus were detected by RPPA. Our approach may be helpful for identifying candidates for specific HSP/GRP-targeted therapies.
Resumo:
The aims of this prospective observational study were to assess the incidence of intraconal spread during peribulbar (extraconal) anesthesia by real-time ultrasound imaging of the retro-orbital compartment and to determine whether a complete sensory and motor block (with akinesia) of the eye is directly related to the intraconal spread.