978 resultados para Buck-boost


Relevância:

10.00% 10.00%

Publicador:

Resumo:

[ES] COMO (Cooperative Modeller) es un software de modelado 3D colaborativo. Siguiendo una arquitectura cliente-servidor, este software permite que múltiples usuarios se conecten a través de la red y tabajen, en tiempo real, sobre la misma escena 3D. Las principales funcionalidades de COMO incluyen la creación de primitivas geométricas (cubos, conos, cilindros y esferas), el importado de mallas desde fichero (.obj), la transfrmación de selecciones de objetos (traslaciones, rotaciones y escalados), la creación de múltiples luces direccionales, la edición de materiales, o la aplicación de texturas a ciertas mallas. Aunque actualmente COMO se encuentra únicamente disponible para Ubuntu, el proyecto se ha realizado con una visión plataforma. Por esta razón, se ha empleado tecnologías y librerías multiplataforma como OpenGL, Qt o Boost, de manera que se facilite el portado del software a otras plataformas en el futuro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Technology scaling increasingly emphasizes complexity and non-ideality of the electrical behavior of semiconductor devices and boosts interest on alternatives to the conventional planar MOSFET architecture. TCAD simulation tools are fundamental to the analysis and development of new technology generations. However, the increasing device complexity is reflected in an augmented dimensionality of the problems to be solved. The trade-off between accuracy and computational cost of the simulation is especially influenced by domain discretization: mesh generation is therefore one of the most critical steps and automatic approaches are sought. Moreover, the problem size is further increased by process variations, calling for a statistical representation of the single device through an ensemble of microscopically different instances. The aim of this thesis is to present multi-disciplinary approaches to handle this increasing problem dimensionality in a numerical simulation perspective. The topic of mesh generation is tackled by presenting a new Wavelet-based Adaptive Method (WAM) for the automatic refinement of 2D and 3D domain discretizations. Multiresolution techniques and efficient signal processing algorithms are exploited to increase grid resolution in the domain regions where relevant physical phenomena take place. Moreover, the grid is dynamically adapted to follow solution changes produced by bias variations and quality criteria are imposed on the produced meshes. The further dimensionality increase due to variability in extremely scaled devices is considered with reference to two increasingly critical phenomena, namely line-edge roughness (LER) and random dopant fluctuations (RD). The impact of such phenomena on FinFET devices, which represent a promising alternative to planar CMOS technology, is estimated through 2D and 3D TCAD simulations and statistical tools, taking into account matching performance of single devices as well as basic circuit blocks such as SRAMs. Several process options are compared, including resist- and spacer-defined fin patterning as well as different doping profile definitions. Combining statistical simulations with experimental data, potentialities and shortcomings of the FinFET architecture are analyzed and useful design guidelines are provided, which boost feasibility of this technology for mainstream applications in sub-45 nm generation integrated circuits.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa dissertazione esamina le sfide e i limiti che gli algoritmi di analisi di grafi incontrano in architetture distribuite costituite da personal computer. In particolare, analizza il comportamento dell'algoritmo del PageRank così come implementato in una popolare libreria C++ di analisi di grafi distribuiti, la Parallel Boost Graph Library (Parallel BGL). I risultati qui presentati mostrano che il modello di programmazione parallela Bulk Synchronous Parallel è inadatto all'implementazione efficiente del PageRank su cluster costituiti da personal computer. L'implementazione analizzata ha infatti evidenziato una scalabilità negativa, il tempo di esecuzione dell'algoritmo aumenta linearmente in funzione del numero di processori. Questi risultati sono stati ottenuti lanciando l'algoritmo del PageRank della Parallel BGL su un cluster di 43 PC dual-core con 2GB di RAM l'uno, usando diversi grafi scelti in modo da facilitare l'identificazione delle variabili che influenzano la scalabilità. Grafi rappresentanti modelli diversi hanno dato risultati differenti, mostrando che c'è una relazione tra il coefficiente di clustering e l'inclinazione della retta che rappresenta il tempo in funzione del numero di processori. Ad esempio, i grafi Erdős–Rényi, aventi un basso coefficiente di clustering, hanno rappresentato il caso peggiore nei test del PageRank, mentre i grafi Small-World, aventi un alto coefficiente di clustering, hanno rappresentato il caso migliore. Anche le dimensioni del grafo hanno mostrato un'influenza sul tempo di esecuzione particolarmente interessante. Infatti, si è mostrato che la relazione tra il numero di nodi e il numero di archi determina il tempo totale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A reduced cancer risk associated with fruit and vegetable phytochemicals initially dictated chemopreventive approaches focused on specific green variety consumption or even single nutrient supplementations. However, these strategies not only failed to provide any health benefits but gave rise to detrimental effects. In parallel, public-health chemoprevention programmes were developed in the USA and Europe to increase whole vegetable consumption. Among these, the National Cancer Institute (NCI) sponsored plan “5 to 9 a day for a better health” was one of the most popular. This campaign promoted wide food choice through the consumption of at least 5 to 9 servings a day of colourful fruits and vegetables. In this study the effects of the diet suggested by NCI on transcription, translation and catalytic activity of both xenobiotic metabolizing (XME) and antioxidant enzymes were studied in the animal model. In fact, the boost of both antioxidant defences and “good” phase-II together with down-regulation of “bad” phase-I XMEs is still considered one of the most widely-used strategies of cancer control. Six male Sprague Dawley rats for each treatment group were used. According to the Italian Society of Human Nutrition, a serving of fruit, vegetables and leafy greens corresponds to 150, 250 and 50 g, respectively, in a 70 kg man. Proportionally, rats received one or five servings of lyophilized onion, tomato, peach, black grape or lettuce – for white, red, yellow, violet or green diet, respectively - or five servings of each green (“5 a day” diet) by oral gavage daily for 10 consecutive days. Liver subcellular fractions were tested for various cytochrome P450 (CYP) linked-monooxygenases, phase-II supported XMEs such as glutathione S-transferase (GST) and UDP-glucuronosyl transferase (UDPGT) as well as for some antioxidant enzymes. Hepatic transcriptional and translational effects were evaluated by reverse transcription-polymerase chain reaction (RT-PCR) and Western blot analysis, respectively. dROMs test was used to measure plasmatic oxidative stress. Routine haematochemical parameters were also monitored. While the five servings administration didn’t significantly vary XME catalytic activity, the lower dose caused a complex pattern of CYP inactivation with lettuce exerting particularly strong effects (a loss of up to 43% and 45% for CYP content and CYP2B1/2-linked XME, respectively; P<0.01). “5 a day” supplementation produced the most pronounced modulations (a loss of up to 60% for CYP2E1-linked XME and a reduction of CYP content of 54%; P<0.01). Testosterone hydroxylase activity confirmed these results. RT-PCR and Western blot analysis revealed that the “5 a day” diet XMEs inactivations were a result of both a transcriptional and a translational effect while lettuce didn’t exert such effects. All administrations brought out none or fewer modulation of phase-II supported XMEs. Apart from “5 a day” supplementation and the single serving of lettuce, which strongly induced DT- diaphorase (an increase of up to 141 and 171%, respectively; P<0.01), antioxidant enzymes were not significantly changed. RT-PCR analysis confirmed DT-diaphorase induction brought about by the administration of both “5 a day” diet and a single serving of lettuce. Furthermore, it unmasked a similar result for heme-oxygenase. dROMs test provided insight into a condition of high systemic oxidative stress as a consequence of animal diet supplementation with “5 a day” diet and a single serving of lettuce (an increase of up to 600% and 900%, respectively; P<0.01). Haematochemical parameters were mildly affected by such dietary manipulations. According to the classical chemopreventive theory, these results could be of particular relevance. In fact, even if antioxidant enzymes were only mildly affected, the phase-I inactivating ability of these vegetables would be a worthy strategy to cancer control. However, the recorded systemic considerable amount of reactive oxygen species and the complexity of these enzymes and their functions suggest caution in the widespread use of vegan/vegetarian diets as human chemopreventive strategies. In fact, recent literature rather suggests that only diets rich in fruits and vegetables and poor in certain types of fat, together with moderate caloric intake, could be associated with reduced cancer risk.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ontology design and population -core aspects of semantic technologies- re- cently have become fields of great interest due to the increasing need of domain-specific knowledge bases that can boost the use of Semantic Web. For building such knowledge resources, the state of the art tools for ontology design require a lot of human work. Producing meaningful schemas and populating them with domain-specific data is in fact a very difficult and time-consuming task. Even more if the task consists in modelling knowledge at a web scale. The primary aim of this work is to investigate a novel and flexible method- ology for automatically learning ontology from textual data, lightening the human workload required for conceptualizing domain-specific knowledge and populating an extracted schema with real data, speeding up the whole ontology production process. Here computational linguistics plays a fundamental role, from automati- cally identifying facts from natural language and extracting frame of relations among recognized entities, to producing linked data with which extending existing knowledge bases or creating new ones. In the state of the art, automatic ontology learning systems are mainly based on plain-pipelined linguistics classifiers performing tasks such as Named Entity recognition, Entity resolution, Taxonomy and Relation extraction [11]. These approaches present some weaknesses, specially in capturing struc- tures through which the meaning of complex concepts is expressed [24]. Humans, in fact, tend to organize knowledge in well-defined patterns, which include participant entities and meaningful relations linking entities with each other. In literature, these structures have been called Semantic Frames by Fill- 6 Introduction more [20], or more recently as Knowledge Patterns [23]. Some NLP studies has recently shown the possibility of performing more accurate deep parsing with the ability of logically understanding the structure of discourse [7]. In this work, some of these technologies have been investigated and em- ployed to produce accurate ontology schemas. The long-term goal is to collect large amounts of semantically structured information from the web of crowds, through an automated process, in order to identify and investigate the cognitive patterns used by human to organize their knowledge.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The subject of this thesis is multicolour bioluminescence analysis and how it can provide new tools for drug discovery and development.The mechanism of color tuning in bioluminescent reactions is not fully understood yet but it is object of intense research and several hypothesis have been generated. In the past decade key residues of the active site of the enzyme or in the surface surrounding the active site have been identified as responsible of different color emission. Anyway since bioluminescence reaction is strictly dependent from the interaction between the enzyme and its substrate D-luciferin, modification of the substrate can lead to a different emission spectrum too. In the recent years firefly luciferase and other luciferases underwent mutagenesis in order to obtain mutants with different emission characteristics. Thanks to these new discoveries in the bioluminescence field multicolour luciferases can be nowadays employed in bioanalysis for assay developments and imaging purposes. The use of multicolor bioluminescent enzymes expanded the potential of a range of application in vitro and in vivo. Multiple analysis and more information can be obtained from the same analytical session saving cost and time. This thesis focuses on several application of multicolour bioluminescence for high-throughput screening and in vivo imaging. Multicolor luciferases can be employed as new tools for drug discovery and developments and some examples are provided in the different chapters. New red codon optimized luciferase have been demonstrated to be improved tools for bioluminescence imaging in small animal and the possibility to combine red and green luciferases for BLI has been achieved even if some aspects of the methodology remain challenging and need further improvement. In vivo Bioluminescence imaging has known a rapid progress since its first application no more than 15 years ago. It is becoming an indispensable tool in pharmacological research. At the same time the development of more sensitive and implemented microscopes and low-light imager for a better visualization and quantification of multicolor signals would boost the research and the discoveries in life sciences in general and in drug discovery and development in particular.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Progetto di un circuito convertitore di potenza ottimizzato per essere alimentato da un antenna a RF in grado di estrarre potenza dalle bande a 900Mhz, 1750 MHz e 2450 MHz

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Hypoxie ist ein Zustand des Sauerstoffmangels, hervorgerufen durch fehlende Verfügbarkeit von Sauerstoff in der Umgebung eines Organismus oder durch pathologisch bedingte unzureichende Nutzbarkeit des Sauerstoffs von Geweben. Die Sensitivität gegenüber Hypoxie variiert enorm im Tierreich zwischen verschiedenen Phyla und Spezies. Die meisten Säugetiere sind nur unzureichend an niedrige Sauerstoffkonzentrationen angepasst, wohingegen einige unterirdisch lebende Säuger sehr resistent gegen Hypoxiestress sind. Um die molekulare Basis der Hypoxietoleranz zu bestimmen, wurden in der vorliegenden Arbeit Globine untersucht, die potenziell in der Lage sind, als respiratorische Proteine zur Hypoxietoleranz von Tieren beizutragen. Dazu wurde die Expression der Globine in der hypoxieresistenten, in Israel lebenden Blindmaus Spalax ehrenbergi mit der Genexpression in der hypoxiesensitiven Ratte (Rattus norvegicus) verglichen. In der vorliegenden Arbeit wurden die erst vor wenigen Jahren entdeckten Globine Neuroglobin und Cytoglobin untersucht, deren exakte physiologische Rolle noch unklar ist, und mit Daten des viel detaillierter untersuchten Myoglobins verglichen. Beim Vergleich der Expression von Cytoglobin und Neuroglobin in Spalax versus Ratte fällt auf, dass Neuroglobin und Cytoglobin bereits unter normoxischen Bedingungen auf mRNA- und Proteinebene in der Blindmaus um einen Faktor von mindesten 2 bis 3 verstärkt exprimiert werden. Bei Myoglobin (als dem Kontrollgen mit bekannter Funktion) konnte auf mRNA-Ebene eine noch weitaus stärkere Expression in Spalax vs. Ratte gefunden werden. Das übergreifende Phänomen der verstärkten Genexpression von Globinen in Spalax kann im Sinne einer Präadaptation an das unterirdische, häufig hypoxische Leben der Blindmaus interpretiert werden. Einen weiteren Hinweis auf eine besondere, spezialisierte Funktion von Neuroglobin in Spalax geben immunhistochemische Daten, die zeigen, dass Neuroglobin im Gehirn von Spalax im Gegensatz zur Ratte nicht nur in Neuronen, sondern auch in Gliazellen exprimiert wird. Dies impliziert Änderungen des oxidativen Stoffwechsels im Nervensystem der hypoxietoleranten Spezies. Die zellulären Expressionsmuster von Cytoglobin erscheinen hingegen in beiden Säugerspezies weitgehend identisch. Es wurde der Frage nachgegangen, ob und wie experimentell induzierte Hypoxie die Genexpression der Globine verändert. Dabei zeigten sich für Neuroglobin und Cytoglobin unterschiedliche Expressionsmuster. Neuroglobin wird unter diversen Sauerstoffmangelbedingungen sowohl in der Ratte als auch in Spalax auf mRNA- und Proteinebene herunterreguliert. Ein ähnliches Regulationsverhalten wurde auch für Myoglobin beobachtet. Die verminderte Expression von Neuroglobin (und evtl. auch Myoglobin) unter Hypoxie ist mit einer gezielten Verringerung der Sauerstoff-Speicherkapazität in Abwesenheit von O2 zu erklären. Ein weiterer denkbarer Grund könnte auch die allgemeine Tendenz sein, unter Hypoxie aus Energiespargründen den Metabolismus herunter zu regulieren. Cytoglobin, das bei normalen Sauerstoffbedingungen nur im Gehirn von Spalax (nicht jedoch in Herz und Leber) ebenfalls um Faktor 2 bis 3 stärker exprimiert wird als in der Ratte, ist mit einiger Sicherheit ebenfalls von adaptivem Nutzen für die Anpassung von Spalax an niedrige Sauerstoffbedingungen, wenngleich seine Funktion unklar bleibt. Unter Hypoxie wird die Cytoglobin-mRNA sowohl in Spalax als auch in der Ratte hochreguliert. Es konnte in der vorliegenden Arbeit dargelegt werden, dass die Expression von Cygb höchstwahrscheinlich durch den Transkriptionsfaktor Hif-1 gesteuert wird, der die molekulare Hypoxieantwort vieler Tierarten zentral steuert. In der vorliegenden Arbeit wurde ebenfalls die Expression von Ngb und Cygb im Gehirn des Hausschweins (Sus scrofa) untersucht. Diese Spezies diente in der Arbeit als weiterer hypoxiesensitiver Organismus sowie als biomedizinisch relevantes Modell für eine Operation an Säuglingen mit angeborenen Herzkrankheiten. Die Versuche haben gezeigt, dass die Gabe bestimmter Medikamente wie dem Immunsuppressivum FK506 zu einer erhöhten Ngb-Konzentration auf mRNA-Ebene führen kann, was potenziell im Zusammenhang mit beobachteten protektiven Effekten der Medikamentengabe während und nach der Herzoperation steht.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Obiettivo: Il nostro obiettivo è stato quello di confrontare la tomoterapia (HT) e la protonterapia ad intensità modulata (IMPT) nel trattamento del tumore prostatico, seguendo un protocollo di boost simultaneo (SIB) e moderatamente ipofrazionato. Materiali e metodi: Abbiamo selezionato 8 pazienti, trattati con HT e abbiamo rielaborato i piani con 2 campi IMPT. La dose prescritta è stata di 74 Gy sul PTV1 (prostata e vescicole seminali prossimali), 65.8 Gy sul PTV2 (vescicole seminali distali) e 54 Gy sul PTV3 (linfonodi pelvici). Risultati: Sia con IMPT che con HT abbiamo ottenuto una copertura e una omogeneità di dose del target sovrapponibile. Oltre i 65 Gy, HT e IMPT erano equivalenti per il retto, mentre con l’IMPT c’era maggior risparmio della vescica e del bulbo penieno da 0 a 70 Gy. Da 0 fino a 60 Gy, i valori dosimetrici dell’IMPT erano molto più bassi per tutti gli organi a rischio (OARs), eccetto che per le teste femorali, dove la HT aveva un vantaggio dosimetrico rispetto all’IMPT nel range di dose 25-35 Gy. La dose media agli OARs era ridotta del 30-50% con l’IMPT. Conclusioni: Con le due tecniche di trattamento (HT e IMPT) si ottiene una simile distribuzione di dose nel target. Un chiaro vantaggio dosimetrico dell’IMPT sul HT è ottenuto dalle medie e basse dosi. Le attuali conoscenze sulle relazioni dose-effetto e sul risparmio delle madie e basse dosi con l’IMPT non sono ancora state quantificate dal punto di vista clinico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das Jahr 1989 markiert nicht nur den Beginn entscheidender geopolitischer Veränderungen, sondern gleichzeitig den Ursprung eines bedeutsamen Wandels in der internationalen Entwicklungszusammenarbeit. Mit der viel beachteten Studie ‚Sub-Saharan Africa – From Crisis to Sustainable Growth’ initiierte die Weltbank eine Debatte über die Relevanz institutioneller Faktoren für wirtschaftliche Entwicklung, die in den folgenden Jahren unter dem Titel ‚Good Governance’ erhebliche Bedeutung erlangte. Nahezu alle zentralen Akteure begannen, entsprechende Aspekte in ihrer praktischen Arbeit zu berücksichtigen, und entwickelten eigene Konzepte zu dieser Thematik. Wenn auch mit der Konzentration auf Institutionen als Entwicklungsdeterminanten eine grundlegende Gemeinsamkeit der Ansätze festzustellen ist, unterscheiden sie sich jedoch erheblich im Hinblick auf die Einbeziehung politischer Faktoren, so dass von einem einheitlichen Verständnis von ‚Good Governance’ nicht gesprochen werden kann. Während die meisten bilateralen Akteure sowie DAC und UNDP Demokratie und Menschenrechte explizit als zentrale Bestandteile betrachten, identifiziert die Weltbank einen Kern von Good Governance, der unabhängig von der Herrschaftsform, also sowohl in Demokratien wie auch in Autokratien, verwirklicht werden kann. Die Implikationen dieser Feststellung sind weit reichend. Zunächst erlaubt erst diese Sichtweise der Bank überhaupt, entsprechende Aspekte aufzugreifen, da ihr eine Berücksichtigung politischer Faktoren durch ihre Statuten verboten ist. Bedeutsamer ist allerdings, dass die Behauptung der Trennbarkeit von Good Governance und der Form politischer Herrschaft die Möglichkeit eröffnet, Entwicklung zu erreichen ohne eine demokratische Ordnung zu etablieren, da folglich autokratische Systeme in gleicher Weise wie Demokratien in der Lage sind, die institutionellen Voraussetzungen zu verwirklichen, welche als zentrale Determinanten für wirtschaftlichen Fortschritt identifiziert wurden. Damit entfällt nicht nur ein bedeutsamer Rechtfertigungsgrund für demokratische Herrschaft als solche, sondern rekurrierend auf bestimmte, dieser zu attestierende, entwicklungshemmende Charakteristika können Autokratien nun möglicherweise als überlegene Herrschaftsform verstanden werden, da sie durch jene nicht gekennzeichnet sind. Die Schlussfolgerungen der Weltbank unterstützen somit auch die vor allem im Zusammenhang mit der Erfolgsgeschichte der ostasiatischen Tigerstaaten vertretene Idee der Entwicklungsdiktatur, die heute mit dem Aufstieg der Volksrepublik China eine Renaissance erlebt. Der wirtschaftliche Erfolg dieser Staaten ist danach auf die überlegene Handlungsfähigkeit autokratischer Systeme zurückzuführen, während Demokratien aufgrund der Verantwortlichkeitsbeziehungen zwischen Regierenden und Regierten nicht in der Lage sind, die notwendigen Entscheidungen zu treffen und durchzusetzen. Die dargestellte Sichtweise der Weltbank ist allerdings von verschiedenen Autoren in Zweifel gezogen worden, die auch für ein im Wesentlichen auf technische Elemente beschränktes Good Governance-Konzept einen Zusammenhang mit der Form politischer Herrschaft erkennen. So wird beispielsweise vertreten, das Konzept der Bank bewege sich ausdrücklich nicht in einem systemneutralen Vakuum, sondern propagiere zumindest implizit die Etablierung demokratischer Regierungsformen. Im Übrigen steht die aus den Annahmen der Weltbank neuerlich abgeleitete Idee der Entwicklungsdiktatur in einem erheblichen Widerspruch zu der von multilateralen wie bilateralen Akteuren verstärkt verfolgten Förderung demokratischer Herrschaft als Mittel für wirtschaftliche Entwicklung sowie der fortschreitenden Verbreitung der Demokratie. Besteht nun doch ein Einfluss der Herrschaftsform auf die Verwirklichung von Good Governance als zentraler Entwicklungsdeterminante und kann zudem davon ausgegangen werden, dass Demokratien diesbezüglich Vorteile besitzen, dann ist eine Entwicklungsdiktatur keine denkbare Möglichkeit, sondern im Gegenteil demokratische Herrschaft der gebotene Weg zu wirtschaftlichem Wachstum bzw. einer Verbesserung der Lebensverhältnisse. Aufgrund der mit den Schlussfolgerungen der Weltbank verbundenen bedeutsamen Implikationen und der bisher weitestgehend fehlenden ausführlichen Thematisierung dieses Gegenstands in der Literatur ist eine detaillierte theoretische Betrachtung der Zusammenhänge zwischen den zentralen Elementen von Good Governance und demokratischer Herrschaft notwendig. Darüber hinaus sollen die angesprochenen Beziehungen auch einer empirischen Analyse unterzogen werden. Gegenstand dieser Arbeit ist deshalb die Fragestellung, ob Good Governance eine von demokratischer Herrschaft theoretisch und empirisch unabhängige Entwicklungsstrategie darstellt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Studio, progettazione e realizzazione di un regolatore di carica per batterie al piombo gel, con algoritmo mppt, per applicazioni fotovoltaiche in isola

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Festphasenoligosaccharidsynthesen: Um den mit der Synthese der Saccharidbausteine verbundenen Zeitaufwand zu reduzieren, sollten festphasenunterstützte, leicht automatisierbare Strategien entwickelt werden. Für die Optimierungen ist es notwendig, über Analysetechniken zu verfügen, die eine quantitative Verfolgung des Reaktionsablaufes erlauben. Zur Bestimmung der Konzentration freier Hydroxylgruppen wurde hierbei eine einfache und effiziente Reaktionsabfolge gefunden, die eine UV-spektroskopische Analyse erlaubt. rnZur Verknüpfung zwischen Kohlenhydrat und polymerem Träger (Polystyrol, Tentagel) kamen der PTMSE-, ein p-Alkoxybenzyl- und zwei Alkylthioanker zum Einsatz. Die Bedingungen zur Anknüpfung der mit Carboxylgruppen ausgestatteten Anker über Amidbindungen an das Harz, zur Spaltung der Lävulinoylschutzgruppe, sowie zur reduktiven Öffnung der Benzylidenacetalschutzgruppe wurden optimiert, sodass sich diese Reaktionen nun in sehr hohen Ausbeuten am polymeren Träger durchführen lassen. rnSpeziell Glycosylierungsreaktionen zeigten jedoch erhebliche Kompatibilitätsprobleme mit der polymeren Matrix. Die Ausbeuten aller an der festen Phase durchgeführten Glycosylierungen lagen bei maximal 5 Prozent. rnGlycopeptidsynthesen: Einige Tumorzellen unterscheiden sich von gesunden Zellen durch ein verändertes Profil an Oberflächenglycoproteinen. So ist das membranständige Glycoprotein MUC1 in malignen Epithelzellen stark überexprimiert und zeigt infolge veränderter Aktivitäten mehrerer Glycosyltransferasen ein modifiziertes Glycosylierungsmuster. Diese tumorspezifischen Strukturveränderungen stellen einen interessanten Angriffspunkt zur Entwicklung von Antitumorvakzinen dar. Um zu potentiellen Impfstoffen zu gelangen, ist es jedoch nötig, die Immunogenität der selbst nur schwach immunogenen Glycopeptide durch Konjugation zu erhöhen. rnIm Rahmen dieser Arbeit sollten vollsynthetische Konjugate, auf Basis einer 16 Aminosäuren langen, tumorassoziierten Glycopeptidpartialstruktur aus dem MUC1, zur möglichen Verwendung als Antitumorvakzine synthetisiert werden. Die Darstellung erfolgte in einer automatisierten Festphasensynthese nach der Fmoc-Strategie. rnZur Steigerung der Immunogenität wurde das glycosylierte Hexadecapeptid über einen Spacer mit einem T-Zell-Epitop aus dem Tetanustoxoidprotein sowie mit einem Mitogen verknüpft. Zur Synthese des Mitogenkonjugates sind noch Optimierungen im Syntheseablauf und insbesondere bei der Reinigung notwendig. Die immunologische Evaluierung des MUC1-Tetanustoxin-Heterotopkonjugates als mögliches Antitumorvakzin ist geplant. rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La regolazione dei sistemi di propulsione a razzo a propellente solido (Solid Rocket Motors) ha da sempre rappresentato una delle principali problematiche legate a questa tipologia di motori. L’assenza di un qualsiasi genere di controllo diretto del processo di combustione del grano solido, fa si che la previsione della balistica interna rappresenti da sempre il principale strumento utilizzato sia per definire in fase di progetto la configurazione ottimale del motore, sia per analizzare le eventuali anomalie riscontrate in ambito sperimentale. Variazioni locali nella struttura del propellente, difettosità interne o eterogeneità nelle condizioni di camera posso dare origine ad alterazioni del rateo locale di combustione del propellente e conseguentemente a profili di pressione e di spinta sperimentali differenti da quelli previsti per via teorica. Molti dei codici attualmente in uso offrono un approccio piuttosto semplificato al problema, facendo per lo più ricorso a fattori correttivi (fattori HUMP) semi-empirici, senza tuttavia andare a ricostruire in maniera più realistica le eterogeneità di prestazione del propellente. Questo lavoro di tesi vuole dunque proporre un nuovo approccio alla previsione numerica delle prestazioni dei sistemi a propellente solido, attraverso la realizzazione di un nuovo codice di simulazione, denominato ROBOOST (ROcket BOOst Simulation Tool). Richiamando concetti e techiche proprie della Computer Grafica, questo nuovo codice è in grado di ricostruire in processo di regressione superficiale del grano in maniera puntuale, attraverso l’utilizzo di una mesh triangolare mobile. Variazioni locali del rateo di combustione posso quindi essere facilmente riprodotte ed il calcolo della balistica interna avviene mediante l’accoppiamento di un modello 0D non-stazionario e di uno 1D quasi-stazionario. L’attività è stata svolta in collaborazione con l’azienda Avio Space Division e il nuovo codice è stato implementato con successo sul motore Zefiro 9.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Enhancing the sensitivity of nuclear magnetic resonance measurements via hyperpolarization techniques like parahydrogen induced polarization (PHIP) is of high interest for spectroscopic investigations. Parahydrogen induced polarization is a chemical method, which makes use of the correlation between nuclear spins in parahydrogen to create hyperpolarized molecules. The key feature of this technique is the pairwise and simultaneous transfer of the two hydrogen atoms of parahydrogen to a double or triple bond resulting in a population of the Zeeman energy levels different from the Boltzmann equation. The obtained hyperpolarization results in antiphase peaks in the NMR spectrum with high intensities. Due to these strong NMR signals, this method finds arnlot of applications in chemistry e.g. the characterization of short-lived reaction intermediates. Also in medicine it opens up the possibility to boost the sensitivity of medical diagnostics via magnetic labeling of active contrast agents. Thus, further examination and optimization of the PHIP technique is of significant importance in order to achieve the highest possible sensitivity gain.rnrnIn this work, different aspects concerning PHIP were studied with respect to its chemical and spectroscopic background. The first part of this work mainly focused on optimizing the PHIP technique by investigating different catalyst systems and developing new setups for the parahydrogenation. Further examinations facilitated the transfer of the generated polarization from the protons to heteronuclei like 13C. The second part of this thesis examined the possibility to transfer these results to different biologically active compounds to enable their later application in medical diagnostics. Onerngroup of interesting substances is represented by metabolites or neurotransmitters in mammalian cells. Other interesting substances are clinically relevant drugs like a barbituric acid derivative or antidepressant drugs like citalopram which were investigated with regard to their applicability for the PHIP technique and the possibility to achievernpolarization transfer to 13C nuclei. The last investigated substrate is a polymerizable monomer whose polymer was used as a blood plasma expander for trauma victims after the first half of the 20th century. In this case, the utility of the monomer for the PHIP technique as a basis for later investigations of a polymerization reaction using hyperpolarized monomers was examined.rnrnHence, this thesis covers the optimization of the PHIP technology, hereby combining different fields of research like chemical and spectroscopical aspects, and transfers the results to applications of real biologally acitve compounds.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nell'elaborato svolto viene presentato un ballast elettronico destinato ad applicazioni di illuminazione stradale. L'alimentatore deve sostituire il tradizionale reattore elettromagnetico attualmente montato sui lampioni, deve poter alimentare lampade HID fino a 150 W, deve soddisfare le più stringenti normative di futura approvazione, deve garantire ulteriori servizi aggiuntivi legati sia al migliore sfruttamento della lampada che a eventuali esigenze legate all'innovativo concetto di palo intelligente (alimentazioni ausiliarie e strategie di risparmio energetico).