923 resultados para testing, test, php
Resumo:
In areas of seasonal frost, frost susceptibility composed by frost heaving during the winter and thaw softening during the spring is one of the most dangerous phenomenon for transportation, road and railway infrastructure. Therefore, the need for frost protection layer becomes imperative. The purpose of frost protection layer is to prevent frost from penetrating down through the pavement and into the sub-soils. Frost susceptible soils under the road can be cause damages on the roads or other structures due to frost heave or reduced capacity characteristics thaw period. "Frost heave" is the term given to the upwards displacement of the ground surface caused by the formation of ice within soils or aggregates (Rempel et al., 2004). Nowadays in Scandinavia the most common material used in frost protection layer in the pavement structure of roads and in the ballast of the railway tracks are coarse-grain crushed rocks aggregates. Based on the capillary rise, the mechanics of frost heave phenomenon is based on the interaction between aggregates and water, as suggested by Konrad and Lemieux in 2005 that said that the fraction of material below the 0.063 mm sieve for coarse-grained soils must be controlled so as to reduce the sensitivity to frost heave. The study conducted in this thesis project is divided in two parts: - the analysis of the coarse grained aggregates used in frost protection layer in Norway; - the analysis of the frost heave phenomenon in the laboratory under known boundary conditions, through the use of the most widely used method, the frost heave test, in” closed system” (without access of water).
Resumo:
Die Inhibition des programmierten Zelltods ist ein essentieller Faktor der viralen Replikationsfähigkeit. Das murine Cytomegalovirus kodiert deshalb für verschiedene Zelltod-inhibierende Gene, um dem programmierten Zelltod zu entgehen bis die Virusproduktion abgeschlossen ist. Da die Expression des viralen anti-apoptotischen Gens M36 infizierte Makrophagen vor der Apoptose schützt (Menard et al., 2003), wurde in der vorliegenden Arbeit unter Verwendung der Deletionsmutante mCMV-ΔM36 (ΔM36) der Einfluss von Apoptose auf das Priming Epitop-spezifischer CD8 T-Zellen untersucht.rnInteressanterweise waren die Frequenzen mCMV-spezifischer CD8 T-Zellen nach Infektion mit ΔM36 für alle getesteten Epitope sowohl im Haplotyp H-2d als auch im Haplotyp H-2b deutlich erhöht. Zusätzlich konnte mit Hilfe der mCMV-ORF-Library eine Verbreiterung des CD8 T-Zellepitop-Repertoire nach Infektion mit ΔM36 nachgewiesen werden, was neben der quantitativen auch eine qualitative Steigerung des CD8 T-Zell-Primings aufzeigt.rnIn der funktionellen Revertante ΔM36-FADDDN wird die anti-apoptotische Funktion durch eine dominant-negative Form des zellulären Adapterproteins FADD (FADDDN) substituiert (Cicin-Sain et al., 2008), die das Apoptose-Signaling verhindert. In der vorliegenden Arbeit konnte gezeigt werden, dass die Expression von FADDDN nicht nur den Apoptose-Phänotyp wieder revertiert, sondern auch die Verbesserung des CD8 T-Zell-Primings aufhebt. Diese Beobachtung belegt eindeutig, dass das verbesserte CD8 T-Zell-Priming auf einer verstärkten Apoptose-Induktion beruht.Bemerkenswerterweise konnte das verbesserte Priming auch nach Deletion des anti-nekroptotischen Gens M45 nachgewiesen werden. So konnte nach Infektion mit mCMV-M45-BamX (M45-BamX) (Brune et al., 2001) gezeigt werden, dass auch die Induktion der Nekroptose zu einem verbesserten CD8 T-Zell-Priming sowie zu einer Verbreiterung des CD8 T-Zellepitop-Repertoires führt.Nach Infektion von Cross-Priming-defizienten 3d-Mäusen (Tabeta et al., 2006) konnte eine Steigerung mCMV-spezifischer CD8 T-Zell-Frequenzen in Abwesenheit von M36 oder M45 nicht beobachtet werden. Dieser Befund lässt auf ein erhöhtes Cross-Priming von CD8 T-Zellen durch ΔM36 oder M45-BamX infolge einer verstärkten Induktion des programmierten Zelltods schließen.rnIn der vorliegenden Arbeit konnte erstmals gezeigt werden, dass die Inhibition des programmierten Zelltods durch die mCMV-Gene M36 und M45 das CD8 T-Zell-Priming limitiert. Somit fördern virale Zelltod-inhibierende Gene die virale Replikationsfähigkeit, indem sie die Virusproduktion per se in der individuellen Zelle steigern und zusätzlich die Immunkontrolle reduzieren, was wiederum eine verbesserte Dissemination in vivo ermöglicht.
Resumo:
Die vorliegende Dissertation dient dazu, das Verständnis des Exzitonentransports in organischen Halbleitern, wie sie in Leuchtdioden oder Solarzellen eingesetzt werden, zu vertiefen. Mithilfe von Computersimulationen wurde der Transport von Exzitonen in amorphen und kristallinen organischen Materialien beschrieben, angefangen auf mikroskopischer Ebene, auf der quantenmechanische Prozesse ablaufen, bis hin zur makroskopischen Ebene, auf welcher physikalisch bestimmbare Größen wie der Diffusionskoeffizient extrahierbar werden. Die Modellbildung basiert auf dem inkohärenten elektronischen Energietransfer. In diesem Rahmen wird der Transport des Exzitons als Hüpfprozess aufgefasst, welcher mit kinetischen Monte-Carlo Methoden simuliert wurde. Die notwendigen quantenmechanischen Übergangsraten zwischen den Molekülen wurden anhand der molekularen Struktur fester Phasen berechnet. Die Übergangsraten lassen sich in ein elektronisches Kopplungselement und die Franck-Condon-gewichtete Zustandsdichte aufteilen. Der Fokus dieser Arbeit lag einerseits darauf die Methoden zu evaluieren, die zur Berechnung der Übergangsraten in Frage kommen und andererseits den Hüpftransport zu simulieren und eine atomistische Interpretation der makroskopischen Transporteigenschaften der Exzitonen zu liefern. rnrnVon den drei untersuchten organischen Systemen, diente Aluminium-tris-(8-hydroxychinolin) der umfassenden Prüfung des Verfahrens. Es wurde gezeigt, dass stark vereinfachte Modelle wie die Marcus-Theorie die Übergangsraten und damit das Transportverhalten der Exzitonen oftmals qualitativ korrekt wiedergeben. Die meist deutlich größeren Diffusionskonstanten von Singulett- im Vergleich zu Triplett-Exzitonen haben ihren Ursprung in der längeren Reichweite der Kopplungselemente der Singulett-Exzitonen, wodurch ein stärker verzweigtes Netzwerk gebildet wird. Der Verlauf des zeitabhängigen Diffusionskoeffizienten zeigt subdiffusives Verhalten für kurze Beobachtungszeiten. Für Singulett-Exzitonen wechselt dieses Verhalten meist innerhalb der Lebensdauer des Exzitons in ein normales Diffusionsregime, während Triplett-Exzitonen das normale Regime deutlich langsamer erreichen. Das stärker anomale Verhalten der Triplett-Exzitonen wird auf eine ungleichmäßige Verteilung der Übergangsraten zurückgeführt. Beim Vergleich mit experimentell bestimmten Diffusionskonstanten muss das anomale Verhalten der Exzitonen berücksichtigt werden. Insgesamt stimmten simulierte und experimentelle Diffusionskonstanten für das Testsystem gut überein. Das Modellierungsverfahren sollte sich somit zur Charakterisierung des Exzitonentransports in neuen organischen Halbleitermaterialien eignen.
Resumo:
Zur Registrierung von Pharmazeutika ist eine umfassende Analyse ihres genotoxischen Potentials von Nöten. Aufgrund der Vielzahl genotoxischer Mechanismen und deren resultierenden Schäden wird ein gestaffeltes Testdesign durch die ICH-Richtlinie S2(R1) „Guidance on genotoxicity testing and data interpretation for pharmaceuticals intended for human use S2(R1)“ definiert, um alle genotoxischen Substanzen zu identifizieren. Die Standardtestbatterie ist in der frühen Phase der Arzneimittelentwicklung aufgrund des geringen Durchsatzes und des Mangels an verfügbarer Substanzmenge vermindert anwendbar. Darüber hinaus verfügen in vitro Genotoxizitätstests in Säugerzellen über eine relativ geringe Spezifität. Für eine vollständige Sicherheitsbeurteilung wird eine in vivo Testung auf Kanzerogenität benötigt. Allerdings sind diese Testsysteme kosten- und zeitintensiv. Aufgrund dessen zielen neue Forschungsansätze auf die Verbesserung der Prädiktivität und die Erfassung des genotoxischen Potentials bereits in der frühen Phase der Arzneimittelentwicklung ab. Die high content imaging (HCI)-Technologie offeriert einen Ansatz zur Verbesserung des Durchsatzes verglichen mit der Standardtestbatterie. Zusätzlich hat ein Zell-basiertes Modell den Vorteil Daten relativ schnell bei gleichzeitig geringem Bedarf an Substanzmenge zu generieren. Demzufolge ermöglichen HCI-basierte Testsysteme eine Prüfung in der frühen Phase der pharmazeutischen Arzneimittelentwicklung. Das Ziel dieser Studie ist die Entwicklung eines neuen, spezifischen und sensitiven HCI-basierten Testsytems für Genotoxine und Progenotoxine in vitro unter Verwendung von HepG2-Zellen gewesen. Aufgrund ihrer begrenzten metabolischen Kapazität wurde ein kombiniertes System bestehend aus HepG2-Zellen und einem metabolischen Aktivierungssystem zur Testung progenotoxischer Substanzen etabliert. Basierend auf einer vorherigen Genomexpressionsprofilierung (Boehme et al., 2011) und einer Literaturrecherche wurden die folgenden neun unterschiedlichen Proteine der DNA-Schadensantwort als putative Marker der Substanz-induzierten Genotoxizität ausgewählt: p-p53 (Ser15), p21, p-H2AX (Ser139), p-Chk1 (Ser345) p-ATM (Ser1981), p-ATR (Ser428), p-CDC2 (Thr14/Tyr15), GADD45A und p-Chk2 (Thr68). Die Expression bzw. Aktivierung dieser Proteine wurde 48 h nach Behandlung mit den (pro-) genotoxischen Substanzen (Cyclophosphamid, 7,12-Dimethylbenz[a]anthracen, Aflatoxin B1, 2-Acetylaminofluoren, Methylmethansulfonat, Actinomycin D, Etoposid) und den nicht-genotoxischen Substanzen (D-Mannitol, Phenforminhydrochlorid, Progesteron) unter Verwendung der HCI-Technologie ermittelt. Die beste Klassifizierung wurde bei Verwendung der folgenden fünf der ursprünglichen neun putativen Markerproteine erreicht: p-p53 (Ser15), p21, p-H2AX (Ser139), p-Chk1 (Ser345) und p-ATM (Ser1981). In einem zweiten Teil dieser Arbeit wurden die fünf ausgewählten Proteine mit Substanzen, welche von dem European Centre for the Validation of Alternative Methods (ECVAM) zur Beurteilung der Leistung neuer oder modifizierter in vitro Genotoxizitätstests empfohlen sind, getestet. Dieses neue Testsystem erzielte eine Sensitivität von 80 % und eine Spezifität von 86 %, was in einer Prädiktivität von 84 % resultierte. Der synergetische Effekt dieser fünf Proteine ermöglicht die Identifizierung von genotoxischen Substanzen, welche DNA-Schädigungen durch eine Vielzahl von unterschiedlichen Mechanismen induzieren, mit einem hohen Erfolg. Zusammenfassend konnte ein hochprädiktives Prüfungssystem mit metabolischer Aktivierung für ein breites Spektrum potenziell genotoxischer Substanzen generiert werden, welches sich aufgrund des hohen Durchsatzes, des geringen Zeitaufwandes und der geringen Menge benötigter Substanz zur Substanzpriorisierung und -selektion in der Phase der Leitstrukturoptimierung eignet und darüber hinaus mechanistische Hinweise auf die genotoxische Wirkung der Testsubstanz liefert.
Resumo:
Die elektrische Ladung des Neutrons ist eng mit der Frage nach der Existenz der Ladungsquantisierung verknüpft: Sollte das Neutron eine Ladung tragen, kann die Ladung nicht in Einheiten der Elementarladung e quantisiert sein.rnrnIm Rahmen der Elektrodynamik und des minimalen Standardmodells ist die Quantisierung der Ladung nicht enthalten. Eine mögliche Neutronenladung würde ihnen also nicht widersprechen. Allerdings geht sie aus den Weiterentwicklungen dieser Modelle hervor. Die sogenannten Grand Unified Theories sagen die Möglichkeit des Protonenzerfalls vorher. Dieser ist nur möglich, wenn die Ladung quantisiert ist.rnrnDurch die Messung einer elektrischen Ladung des Neutrons können die verschiedenen Theorien überprüft werden.rnrnIm Rahmen dieser Arbeit wurde eine Apparatur entwickelt, mit der die elektrische Ladung des Neutrons gemessen werden kann. Als Grundlage diente das Prinzip einer Messung von 1988. Mit einem flüssigen Neutronenspiegel aus Fomblin ist es zum ersten mal überhaupt gelungen, einen flüssigen Spiegel für Neutronen einzusetzen. Durch diese und andere Verbesserungen konnte die Sensitivität der Apparatur um einen Faktor 5 im Vergleich zum Experimentrnvon 1988 verbessert werden. Eine mögliche Ladung des Neutrons kann mit δq_n = 2,15·10^(−20)·e/√day gemessen werden. rnrnDie Messung der elektrischen Ladung soll im Winter 2014 durchgeführt werden. Bis dahin soll die Präzision aufrnδq_n = 1,4·10^(−21)·e/√day erhöht werden.
Resumo:
Als paläoklimatische Archive können unter anderem Stalagmiten und Klappen von Ostrakoden herangezogen werden. Bisher gab es noch keine veröffentlichten Ergebnisse räumlich hochaufgelöster Spurenelementverteilungen in einzelnen Ostrakodenklappen. Das gleiche gilt für die Bestimmung radiogener Blei-Isotope in Stalagmiten. Um klimatische Prozesse vergangener Zeiten zu untersuchen, wurde eine neue LA-ICP-MS (Laserablations – Massenspektrometrie mit induktiv gekoppeltem Plasma) Technik für hochaufgelöste in-situ Messungen von Spurenelementen und Bleiisotopen entwickelt. rnrnZunächst wurden geeignete Materialien für die Kalibrierung der Technik untersucht; als Proben dienten die Silikatreferenzgläser BAM-S005-A und BAM-S005B der Bundesanstalt für Materialforschung und –prüfung (BAM). Die Homogenität dieser Referenzgläser wurde mit LA-ICP-MS und den anderen mikroanalytischen Methoden EPMA (Elektronenmikrosonde) und SIMS (Ionensonde) überprüft. Die Ergebnisse zeigten, dass alle Haupt- und die meisten Spurenelemente in beiden Gläsern selbst im Mikrometerbereich homogen verteilt sind. Ausnahmen sind einige Spurenelemente, wie Cs, Cl, Cr, Mo und Ni, die heterogen in den Gläsern verteilt sind. Die Hauptelementzusammensetzung von BAM-S005-A und BAM-S005-B wurde mit Hilfe der EPMA bestimmt, wobei die Ergebnisse die Referenzwerte des BAM-Zertifikats bestätigten. Mit Ausnahme von Sr, Ba, Ce und Pb, stimmten die LA-ICP-MS-Spurenelementwerte mit den zertifizierten Werten innerhalb der angegebenen Fehlergrenzen überein. Gründe für die Diskrepanz der vier oben erwähnten Elemente sind noch unklar, aber sind möglicherweise durch fehlerhafte Referenzwerte zu erklären. Zusätzlich wurden 22 Spurenelemente gemessen, deren Gehalte von BAM nicht zertifiziert wurden. Aufgrund dieser Untersuchungen konnte festgestellt werden, dass beide BAM-Gläser für mikroanalytische Anwendungen geeignet sind.rnrnUm neuartige paläoklimatische Proxies im Calcit von Ostrakoden aus tibetanischen Seesedimenten zu untersuchen, wurde die Spurenelementvariabilität in einzelnen Ostrakodenklappen durch eine neue LA-ICP-MS-Technik bestimmt. Klappen von Ostrakoden der drei Arten (Leucocytherella sinensis Huang, 1982, ?Leucocythere dorsotuberosa Huang, 1982 und ?L. dorsotuberosa f. postilirata sensu Pang, 1985) wurden aus zwei Sedimentkernen des Nam Co Sees auf dem Hochplateau von Tibet gewonnen. Zwei LA-ICP-MS-Varianten, Spot- bzw. Linienanalyse, wurden verwendet, um die Elementkonzentrationen der Spurenelemente Mg, Sr, Ba, U und die der Seltenen Erdelemente (SEE) in den Klappen einzelner Ostrakoden zu bestimmen. Die Ergebnisse zeigten, dass die Linienanalyse präzisere Daten als die Spotanalyse liefert und sie wurde daher vorgezogen. Signifikante Unterschiede in der Spurenelementzusammensetzung zwischen den verschiedenen Arten der Ostrakoden wurden nicht gefunden. Variationen der Elementverhältnisse Mg/Ca und Sr/Ca in den Klappen stimmen mit veröffentlichten Seenspiegelschwankungen während des Holozäns überein, was zeigt, dass Mg- und Sr-Messungen in den Ostrakoden zur Untersuchung paläohydrochemischer Prozesse in diesem Gebiet herangezogen werden kann. Die gute Korrelation, die in dieser Arbeit zwischen Ba/Ca und Sr/Ca gefunden wurde, ist ein Hinweis darauf, dass der Einbau von Ba und Sr in die Klappen durch den gleichen Mechanismus erfolgte. Eine mögliche Beziehung zwischen dem U/Ca-Verhältnis in den Ostrakoden und den Redoxbedingungen auf dem Boden des Sees in der Vergangenheit wird diskutiert. Relativ geringe und konstante La/Ca-Verhältnisse wurden festgestellt, deren Ursache möglicherweise entweder auf der SEE-Charakteristik des Seewassers, auf biologischen Prozessen in den Ostrakoden oder auf Kontamination von Fe-Mn und/oder organischen Substanzen beruhen. Weitere Untersuchungen an Proben aus diesem Gebiet, speziell Klappen von lebenden Ostrakoden, sind notwendig, um den Gehalt von Ba, U und den SEE in Ostrakoden als paläoklimatische Proxies von Umweltbedingungen zu verwenden.
Resumo:
Solid oral dosage form disintegration in the human stomach is a highly complex process dependent on physicochemical properties of the stomach contents as well as on physical variables such as hydrodynamics and mechanical stress. Understanding the role of hydrodynamics and forces in disintegration of oral solid dosage forms can help to improve in vitro disintegration testing and the predictive power of the in vitro test. The aim of this work was to obtain a deep understanding of the influence of changing hydrodynamic conditions on solid oral dosage form performance. Therefore, the hydrodynamic conditions and forces present in the compendial PhEur/USP disintegration test device were characterized using a computational fluid dynamics (CFD) approach. Furthermore, a modified device was developed and the hydrodynamic conditions present were simulated using CFD. This modified device was applied in two case studies comprising immediate release (IR) tablets and gastroretentive drug delivery systems (GRDDS). Due to the description of movement provided in the PhEur, the movement velocity of the basket-rack assembly follows a sinusoidal profile. Therefore, hydrodynamic conditions are changing continually throughout the movement cycle. CFD simulations revealed that the dosage form is exposed to a wide range of fluid velocities and shear forces during the test. The hydrodynamic conditions in the compendial device are highly variable and cannot be controlled. A new, modified disintegration test device based on computerized numerical control (CNC) technique was developed. The modified device can be moved in all three dimensions and radial movement is also possible. Simple and complex moving profiles can be developed and the influence of the hydrodynamic conditions on oral solid dosage form performance can be evaluated. Furthermore, a modified basket was designed that allows two-sided fluid flow. CFD simulations of the hydrodynamics and forces in the modified device revealed significant differences in the fluid flow field and forces when compared to the compendial device. Due to the CNC technique moving velocity and direction are arbitrary and hydrodynamics become controllable. The modified disintegration test device was utilized to examine the influence of moving velocity on disintegration times of IR tablets. Insights into the influence of moving speed, medium viscosity and basket design on disintegration times were obtained. An exponential relationship between moving velocity of the modified basket and disintegration times was established in simulated gastric fluid. The same relationship was found between the disintegration times and the CFD predicted average shear stress on the tablet surface. Furthermore, a GRDDS was developed based on the approach of an in situ polyelectrolyte complex (PEC). Different complexes composed of different grades of chitosan and carrageenan and different ratios of those were investigated for their swelling behavior, mechanical stability, and in vitro drug release. With an optimized formulation the influence of changing hydrodynamic conditions on the swelling behavior and the drug release profile was demonstrated using the modified disintegration test device. Both, swelling behavior and drug release, were largely dependent on the hydrodynamic conditions. Concluding, it has been shown within this thesis that the application of the modified disintegration test device allows for detailed insights into the influence of hydrodynamic conditions on solid oral dosage form disintegration and dissolution. By the application of appropriate test conditions, the predictive power of in vitro disintegration testing can be improved using the modified disintegration test device. Furthermore, CFD has proven a powerful tool to examine the hydrodynamics and forces in the compendial as well as in the modified disintegration test device. rn
Resumo:
Analyzing and modeling relationships between the structure of chemical compounds, their physico-chemical properties, and biological or toxic effects in chemical datasets is a challenging task for scientific researchers in the field of cheminformatics. Therefore, (Q)SAR model validation is essential to ensure future model predictivity on unseen compounds. Proper validation is also one of the requirements of regulatory authorities in order to approve its use in real-world scenarios as an alternative testing method. However, at the same time, the question of how to validate a (Q)SAR model is still under discussion. In this work, we empirically compare a k-fold cross-validation with external test set validation. The introduced workflow allows to apply the built and validated models to large amounts of unseen data, and to compare the performance of the different validation approaches. Our experimental results indicate that cross-validation produces (Q)SAR models with higher predictivity than external test set validation and reduces the variance of the results. Statistical validation is important to evaluate the performance of (Q)SAR models, but does not support the user in better understanding the properties of the model or the underlying correlations. We present the 3D molecular viewer CheS-Mapper (Chemical Space Mapper) that arranges compounds in 3D space, such that their spatial proximity reflects their similarity. The user can indirectly determine similarity, by selecting which features to employ in the process. The tool can use and calculate different kinds of features, like structural fragments as well as quantitative chemical descriptors. Comprehensive functionalities including clustering, alignment of compounds according to their 3D structure, and feature highlighting aid the chemist to better understand patterns and regularities and relate the observations to established scientific knowledge. Even though visualization tools for analyzing (Q)SAR information in small molecule datasets exist, integrated visualization methods that allows for the investigation of model validation results are still lacking. We propose visual validation, as an approach for the graphical inspection of (Q)SAR model validation results. New functionalities in CheS-Mapper 2.0 facilitate the analysis of (Q)SAR information and allow the visual validation of (Q)SAR models. The tool enables the comparison of model predictions to the actual activity in feature space. Our approach reveals if the endpoint is modeled too specific or too generic and highlights common properties of misclassified compounds. Moreover, the researcher can use CheS-Mapper to inspect how the (Q)SAR model predicts activity cliffs. The CheS-Mapper software is freely available at http://ches-mapper.org.
Resumo:
Biorelevante Medien sind entwickelt worden, um die Bedingungen im Magen-Darm-Trakt vor und nach der Mahlzeit zu imitieren. Mit FaSSIF und FeSSIF wurden Medien eingeführt, die nicht nur die pH- und Puffer-Kapazität des Dünndarms widerspiegeln, sondern auch Lipid und physiologische Tensid-Arten enthalten. Diese Medien (FaSSIF-V2 und FaSSlFmod6.5) wurden für Bioverfügbarkeitstudien in der Medikamentenentwicklung im Laufe der Jahre kontinuierlich weiterentwickelt. Dennoch sind die auf dem Markt verfügbaren Medien immer noch nicht in der Lage, die realen physiologischen Bedingungen zu simulieren. In der jetzigen Zusammensetzung sind nicht alle Kompetenten enthalten, welche natürlicher Weise im Duodenum vorkommen. Darüber hinaus wird nur eine 1:5 Verdünnung von FeSSIF zu FaSSIF angenommen, die individuelle Wasserzufuhr bei Medikamentengabe wird hierdurch jedoch nur eingeschränkt simuliert, obwohl diese von Patient zu Patient schwanken kann. rnZiel dieser Dissertation war die Verbesserung der Vorhersage der Auflösung und Absorption lipophiler Arzneistoffe durch Simulation der Bedingungen im zweiten Teil des Zwölffingerdarms mit neuen biorelevanten Medien, sowie unter Einwirkung zusätzlicher Detergention als Wirkstoffträger. rnUm den Effekt der Verdünnungsrate und Zeit im Dünndarm zu untersuchen, wurde die Entwicklung der Nanopartikel in der Magen-Darm-Flüssigkeit FaSSIFmod6.5 zu verschiedenen Zeitpunkten und Wassergehalten untersucht. Dafür wurden kinetische Studien an verschieden konzentrierten Modellmedien nach Verdünnungssprung untersucht. Das Modell entspricht der Vermischung der Gallenflüssigkeit mit dem Darminhalt bei variablem Volumen. Die Ergebnisse zeigen, dass Art und Größe der Nanopartikel stark von Verdünnung und Einirkungszeit abhängen. rnrnDie menschliche Darmflüssigkeit enthält Cholesterin, welches in allen früheren Modellmedien fehlt. Daher wurden biokompatible und physiologische Modellflüssigkeiten, FaSSIF-C, entwickelt. Der Cholesteringehalt von FaSSIF - 7C entspricht der Gallenflüssigkeit einer gesunden Frau, FaSSIF - 10C der einer gesunden männlichen Person und FaSSIF - 13C der in einigen Krankheitszuständen. Die intestinale Teilchen-Struktur-Untersuchung mit dynamische Lichtstreuung (DLS) und Neutronen-Kleinwinkelstreuung (SANS) ergab, dass die Korngröße von Vesikeln mit zunehmender Cholesterin-Konzentration abnahm. Zu hohe Cholesterin-Konzentration bewirkte zusätzlich sehr große Partikel, welche vermutlich aus Cholesterin-reichen “Disks“ bestehen. Die Löslichkeiten einiger BCS Klasse II Wirkstoffe (Fenofibrat, Griseofulvin, Carbamazepin, Danazol) in diesen neuen Medien zeigten, dass die Löslichkeit in unterschiedlicher Weise mit der Cholesteringehalt zusammen hing und dieser Effekt selektiv für die Droge war. rnDarüber hinaus wurde die Wirkung von einigen Tensiden auf die kolloidale Struktur und Löslichkeit von Fenofibrat in FaSSIFmod6.5 und FaSSIF -7C untersucht. Struktur und Löslichkeit waren Tensid- und Konzentrations-abhängig. Im Falle von FaSSIFmod6.5 zeigten die Ergebnisse eine dreifache Verzweigung der Lösungswege. Im Bereich mittlerer Tensidkonzentration wurde eine Löslichkeitslücke der Droge zwischen der Zerstörung der Galle-Liposomen und der Bildung von Tensid-reichen Mizellen beobachtet. In FaSSIF - 7C, zerstörten Tenside in höherer Konzentration die Liposomenstruktur trotz der allgemeinen Stabilisierung der Membranen durch Cholesterin. rnDie in dieser Arbeit vorgestellten Ergebnisse ergeben, dass die Anwesenheit von Cholesterin als eine fehlende Komponente der menschlichen Darmflüssigkeit in biorelevanten Medien wichtig ist und dazu beitragen kann, das in vivo Verhalten schwerlöslicher Arzneistoffe im Körper besser vorhersagen zu können. Der Verdünnungsgrad hat einen Einfluss auf die Nanopartikel-Struktur und Tenside beeinflussen die Löslichkeit von Medikamenten in biorelevanten Medien: Dieser Effekt ist sowohl von der Konzentration das Tensids abhängig, als auch dessen Typ.rnrn
Resumo:
Lo scoppio della crisi finanziaria globale del 2007 ha rappresentato un evento epocale che ha interessato una varietà di ambiti: l’economia, la finanza, il diritto, la sociologia e anche la comunicazione. Molti linguisti e ricercatori del settore terminologico si sono concentrati sulle conseguenze di questo capovolgimento nella comunicazione che ha accolto in misura crescente anglicismi finanziari provenienti dagli Stati Uniti. I documenti istituzionali, ma soprattutto la stampa generalista e finanziaria sono dovuti ricorrere per esigenze denotative agli anglicismi al fine di illustrare le cause di questo evento e proporre delle soluzioni adeguate per attenuarne gli effetti. Dopo la crisi, infatti, le autorità di vigilanza finanziaria europee hanno iniziato a mettere in campo una serie di riforme della regolamentazione finanziaria volte a prevenire la comparsa di nuove crisi sistemiche: lo stress testing costituisce uno degli strumenti che la vigilanza europea ha adottato allo scopo di valutare lo stato di salute dei bilanci degli istituti di credito e per vagliarne la solidità e la resistenza a crisi simili a quella esplosa nel 2007. Il nostro elaborato si propone di osservare in ottica diacronica il trattamento degli anglicismi finanziari del dominio dello stress testing nella comunicazione istituzionale della Banque de France e della Banca d’Italia e nella stampa economico-finanziaria francese e italiana. Per la realizzazione di tale indagine abbiamo adottato un approccio diacronico teso all’osservazione del trattamento dell’anglicismo stress test in un arco temporale che dai primi anni Duemila arriva fino ad oggi. Ai fini dell’indagine abbiamo costruito due corpora comparabili di testi istituzionali tratti dal sito Web della Banque de France e da quello della Banca d’Italia, delimitando la ricerca al dominio dello stress testing. Abbiamo successivamente compilato due corpora comparabili con testi tratti da La Tribune e Milano Finanza per osservare il trattamento degli anglicismi finanziari in un genere testuale differente, benché specializzato. Abbiamo assunto il 2007, anno di inizio della crisi, come spartiacque, suddividendo i corpora in vari subcorpora e selezionando i testi da includervi in base alla data di pubblicazione. L’obiettivo che ci siamo prefissati è quello di osservare se nel dominio dello stress testing abbia avuto luogo un’evoluzione concettuale e se questa sia riscontrabile anche dal trattamento degli anglicismi finanziari, con un focus particolare sull’anglicismo stress test.
Resumo:
Il lavoro di questa tesi riguarda principalmente l'upgrade, la simulazione e il test di schede VME chiamate ReadOut Driver (ROD), che sono parte della catena di elaborazione ed acquisizione dati di IBL (Insertable B-Layer). IBL è il nuovo componente del Pixel Detector dell'esperimento ATLAS al Cern che è stato inserito nel detector durante lo shut down di LHC; fino al 2012 infatti il Pixel Detector era costituito da tre layer, chiamati (partendo dal più interno): Barrel Layer 0, Layer 1 e Layer 2. Tuttavia, l'aumento di luminosità di LHC, l'invecchiamento dei pixel e la richiesta di avere misure sempre più precise, portarono alla necessità di migliorare il rivelatore. Così, a partire dall'inizio del 2013, IBL (che fino a quel momento era stato un progetto sviluppato e finanziato separatamente dal Pixel Detector) è diventato parte del Pixel Detector di ATLAS ed è stato installato tra la beam-pipe e il layer B0. Questa tesi fornirà innanzitutto una panoramica generale dell'esperimento ATLAS al CERN, includendo aspetti sia fisici sia tecnici, poi tratterà in dettaglio le varie parti del rivelatore, con particolare attenzione su Insertable B-Layer. Su quest'ultimo punto la tesi si focalizzerà sui motivi che ne hanno portato alla costruzione, sugli aspetti di design, sulle tecnologie utilizzate (volte a rendere nel miglior modo possibile compatibili IBL e il resto del Pixel Detector) e sulle scelte di sviluppo e fabbricazione. La tesi tratterà poi la catena di read-out dei dati, descrivendo le tecniche di interfacciamento con i chip di front-end, ed in particolare si concentrerà sul lavoro svolto per l'upgrade e lo sviluppo delle schede ReadOut Drivers (ROD) introducendo le migliorie da me apportate, volte a eliminare eventuali difetti, migliorare le prestazioni ed a predisporre il sistema ad una analisi prestazionale del rivelatore. Allo stato attuale le schede sono state prodotte e montate e sono già parte del sistema di acquisizione dati del Pixel Detector di ATLAS, ma il firmware è in continuo aggiornamento. Il mio lavoro si è principalmente focalizzato sul debugging e il miglioramento delle schede ROD; in particolare ho aggiunto due features: - programmazione parallela delle FPGA} delle ROD via VME. IBL richiede l'utilizzo di 15 schede ROD e programmandole tutte insieme (invece che una alla volta) porta ad un sensibile guadagno nei tempi di programmazione. Questo è utile soprattutto in fase di test; - reset del Phase-Locked Loop (PLL)} tramite VME. Il PLL è un chip presente nelle ROD che distribuisce il clock a tutte le componenti della scheda. Avere la possibilità di resettare questo chip da remoto permette di risolvere problemi di sincronizzazione. Le ReadOut Driver saranno inoltre utilizzate da più layer del Pixel Detector. Infatti oltre ad IBL anche i dati provenienti dai layer 1 e 2 dei sensori a pixel dell’esperimento ATLAS verranno acquisiti sfruttando la catena hardware progettata, realizzata e testata a Bologna.
Resumo:
Nell'era genomica moderna, la mole di dati generata dal sequenziamento genetico è diventata estremamente elevata. L’analisi di dati genomici richiede l’utilizzo di metodi di significatività statistica per quantificare la robustezza delle correlazioni individuate nei dati. La significatività statistica ci permette di capire se le relazioni nei dati che stiamo analizzando abbiano effettivamente un peso statistico, cioè se l’evento che stiamo analizzando è successo “per caso” o è effettivamente corretto pensare che avvenga con una probabilità utile. Indipendentemente dal test statistico utilizzato, in presenza di test multipli di verifica (“Multiple Testing Hypothesis”) è necessario utilizzare metodi per la correzione della significatività statistica (“Multiple Testing Correction”). Lo scopo di questa tesi è quello di rendere disponibili le implementazioni dei più noti metodi di correzione della significatività statistica. È stata creata una raccolta di questi metodi, sottoforma di libreria, proprio perché nel panorama bioinformatico moderno non è stato trovato nulla del genere.
Resumo:
In most real-life environments, mechanical or electronic components are subjected to vibrations. Some of these components may have to pass qualification tests to verify that they can withstand the fatigue damage they will encounter during their operational life. In order to conduct a reliable test, the environmental excitations can be taken as a reference to synthesize the test profile: this procedure is referred to as “test tailoring”. Due to cost and feasibility reasons, accelerated qualification tests are usually performed. In this case, the duration of the original excitation which acts on the component for its entire life-cycle, typically hundreds or thousands of hours, is reduced. In particular, the “Mission Synthesis” procedure lets to quantify the induced damage of the environmental vibration through two functions: the Fatigue Damage Spectrum (FDS) quantifies the fatigue damage, while the Maximum Response Spectrum (MRS) quantifies the maximum stress. Then, a new random Power Spectral Density (PSD) can be synthesized, with same amount of induced damage, but a specified duration in order to conduct accelerated tests. In this work, the Mission Synthesis procedure is applied in the case of so-called Sine-on-Random vibrations, i.e. excitations composed of random vibrations superimposed on deterministic contributions, in the form of sine tones typically due to some rotating parts of the system (e.g. helicopters, engine-mounted components, …). In fact, a proper test tailoring should not only preserve the accumulated fatigue damage, but also the “nature” of the excitation (in this case the sinusoidal components superimposed on the random process) in order to obtain reliable results. The classic time-domain approach is taken as a reference for the comparison of different methods for the FDS calculation in presence of Sine-on-Random vibrations. Then, a methodology to compute a Sine-on-Random specification based on a mission FDS is presented.
Resumo:
Questa Tesi di Laurea si prefigge gli obiettivi di riuscire a caratterizzare i Sensori Hall e di testare un Sensore Hall di Asahi-Kasei, il CQ-3300, di cui l’Università di Bologna è in possesso. Per questa ragione si può dividere il processo di realizzazione della tesi in 2 fasi ben distinte: • Una prima fase dedicata interamente allo studio dell’argomento e alla ricerca online di Sensori Hall presenti sul mercato. Si è dunque approfondito il fenomeno fisico su cui essi basano il proprio funzionamento, le loro caratteristiche principali e le loro applicazioni. Se ne sono poi scelti due, oltre al CQ-3300, tra quelli presenti sul mercato per poterli caratterizzare e confrontare con il suddetto. • Una seconda fase dedicata ai test sul Sensore nel laboratorio di elettronica. Durante questa fase è stato montato su PCB (Printed Circuit Board) il sensore Hall CQ-3300 e sono stati realizzati dei circuiti di prova con lo scopo di verificare il corretto funzionamento del Sensore e l’effettiva banda di funzionamento. I tests in corrente alternata sono stati effettuati grazie all’ausilio di un generatore di corrente in grado di convertire un segnale in tensione in un segnale in corrente. Questo generatore di corrente però non può erogare un segnale in corrente di ampiezza maggiore a 1 Ampere, ragione per cui si è preferito tenersi alla larga da tale valore. L’Università di Bologna ritiene necessario testare questo sensore in termini di banda, in quanto ha progettato un Sensore Hall dalle caratteristiche simili in termini di banda di lavoro al componente in questione, il che rende importante capire se quest’ultimo tiene fede alla banda di lavoro che viene indicata sul suo datasheet, ovvero 1 MHz.
Resumo:
The revision hip arthroplasty is a surgical procedure, consisting in the reconstruction of the hip joint through the replacement of the damaged hip prosthesis. Several factors may give raise to the failure of the artificial device: aseptic loosening, infection and dislocation represent the principal causes of failure worldwide. The main effect is the raise of bone defects in the region closest to the prosthesis that weaken the bone structure for the biological fixation of the new artificial hip. For this reason bone reconstruction is necessary before the surgical revision operation. This work is born by the necessity to test the effects of bone reconstruction due to particular bone defects in the acetabulum, after the hip prosthesis revision. In order to perform biomechanical in vitro tests on hip prosthesis implanted in human pelvis or hemipelvis a practical definition of a reference frame for these kind of bone specimens is required. The aim of the current study is to create a repeatable protocol to align hemipelvic samples in the testing machine, that relies on a reference system based on anatomical landmarks on the human pelvis. In chapter 1 a general overview of the human pelvic bone is presented: anatomy, bone structure, loads and the principal devices for hip joint replacement. The purpose of chapters 2 is to identify the most common causes of the revision hip arthroplasty, analysing data from the most reliable orthopaedic registries in the world. Chapter 3 presents an overview of the most used classifications for acetabular bone defects and fractures and the most common techniques for acetabular and bone reconstruction. After a critical review of the scientific literature about reference frames for human pelvis, in chapter 4, the definition of a new reference frame is proposed. Based on this reference frame, the alignment protocol for the human hemipelvis is presented as well as the statistical analysis that confirm the good repeatability of the method.