610 resultados para Gidstam, Björn: Pohjolan lintukirja
Resumo:
Utvecklingen och framväxten av det sk informationssamhället har medfört att det svenska högskolesystemet har byggts ut. Ny grupper av studenter söker sig till högskolan. Från drygt 40.000 studenter i mitten av 60-talet finns idag över 400.000 studenter vid våra högskolor och universitet. Ett vidgat tillträde till högre utbildning ställer flera nya och utmanande frågor. Har så många människor motiv och förmåga att ta sig an högskolestudier? Är utbygnaden motiverad och löner den sig? Hur skall gymnasieskola och vuxenutbildning förbereda de kommande studenterna på ett bra sätt? Behöver så många utbilda sig, eller med andra ord, passar alla dessa nya studenter för högskolans krav? Är högskolan verkligen intresserad av att anpassa sig och ge dessa nya grupper tillträde till den högre utbildningen? Dessa och andra frågor, som utgår från den nya situation som högskolan befinner sig i, diskuterade och bearbetade en grupp lärare från Högskolan Dalarna och fem av Dalarnas folkhögskolor i en forskningscirkel. Syftet med detta paper är att sammanfatta erfarenheterna från forskningscirkeln.
Resumo:
Aqueous dispersions of monoolein (MO) with a commercial hydrophobically modified ethyl hydroxyethyl cellulose ether (HMEHEC) have been investigated with respect to the morphologies of the liquid crystalline nanoparticles. Only very low proportions of HMEHEC are accepted in the cubic and lamellar phases of the monoolein-water system. Due to the broad variation of composition and size of the commercial polymer, no other single-phase regions were found in the quasi-ternary system. Interactions of MO with different fractions of the HMEHEC sample induced the formation of lamellar and reversed hexagonal phases, identified from SAXD, polarization microscopy, and cryogenic TEM examinations. In excess water (more than 90 wt %) coarse dispersions are formed more or less spontaneously, containing particles of cubic phase from a size visible by the naked eye to small particles observed by cryoTEM. At high polymer/MO ratios, vesicles were frequently observed, often oligo-lamellar with inter-lamellar connections. After homogenization of the coarse dispersions in a microfluidizer, the large particles disappeared, apparently replaced by smaller cubic particles, often with vesicular attachments on the surfaces, and by vesicles or vesicular particles with a disordered interior. At the largest polymer contents no proper cubic particles were found directly after homogenization but mainly single-walled defected vesicles with a peculiar edgy appearance. During storage for 2 weeks, the dispersed particles changed toward more well-shaped cubic particles, even in dispersions with the highest polymer contents. In some of the samples with low polymer/MO ratio, dispersed particles of the reversed hexagonal type were found. A few of the homogenized samples were freeze-dried and rehydrated. Particles of essentially the same types, but with a less well-developed cubic character, were found after this treatment. © 2007 American Chemical Society.
Resumo:
Este trabalho apresenta resultados práticos de uma atenção sistemática dada ao processamento e à interpretação sísmica de algumas linhas terrestres do conjunto de dados do gráben do Tacutu (Brasil), sobre os quais foram aplicadas etapas fundamentais do sistema WIT de imageamento do empilhamento CRS (Superfície de Reflexão Comum) vinculado a dados. Como resultado, esperamos estabelecer um fluxograma para a reavaliação sísmica de bacias sedimentares. Fundamentado nos atributos de frente de onda resultantes do empilhamento CRS, um macro-modelo suave de velocidades foi obtido através de inversão tomográfica. Usando este macro-modelo, foi realizado uma migração à profundidade pré- e pós-empilhamento. Além disso, outras técnicas baseadas no empilhamento CRS foram realizadas em paralelo como correção estática residual e migração de abertura-limitada baseada na zona de Fresnel projetada. Uma interpretação geológica sobre as seções empilhadas e migradas foi esboçada. A partir dos detalhes visuais dos painéis é possível interpretar desconformidades, afinamentos, um anticlinal principal falhado com conjuntos de horstes e grábens. Também, uma parte da linha selecionada precisa de processamento mais detalhado para evidenciar melhor qualquer estrutura presente na subsuperfície.
Resumo:
Studiens syfte är att undersöka fem personers upplevelser av integration i Östersunds kommun. Alla fem personer är födda och uppvuxna i ett annat land än Sverige och har kommit till Sverige för ungefär två år sedan. Studien lägger stor vikt på den enskildes subjektiva känslor i möten och interaktioner som äger rum i olika sociala sammanhang som t.ex. vardagssituationer eller myndighetskontakter. Studien analyserar och diskuterar huruvida personer med s.k. invandrarbakgrund känner sig integrerade och som en likvärdig del av samhället. Den tar kritiskt ställning till olika teoretiska ansatser om integration och kommer fram till att synen på personer med s.k. invandrarbakgrund måste förändras från problemsyn och krav på assimillering till resurssyn och mångfald som ska gälla på alla livsområden. Uppsatsen är utförd utifrån en kvalitativ metod med halvstrukturerade intervjuer inom följande områden: känslan av bemötandet av lokalbefolkningen, vänskapskontakter med lokalbefolkningen, upplevelser av boendesegregation, bemötandet på skola och arbetsplats, upplevelser av fördomar och diskriminering samt bemötandet av myndigheter. Studien visar att upplevelsen av integration är subjektiv och individuell. Gemensamma upplevelser är brist på social kontakt med lokalbefolkningen samt en positiv bedömning av såväl svenska statens åtgärder mot diskriminering som också Östersunds kommun introduktionsstöd för invandrare.
Resumo:
L’utilizzo degli FRP (Fiber Reinforced Polymer) nel campo dell’ingegneria civile riguarda essenzialmente il settore del restauro delle strutture degradate o danneggiate e quello dell’adeguamento statico delle strutture edificate in zona sismica; in questi settori è evidente la difficoltà operativa alla quale si va in contro se si volessero utilizzare tecniche di intervento che sfruttano materiali tradizionali. I motivi per cui è opportuno intervenire con sistemi compositi fibrosi sono: • l’estrema leggerezza del rinforzo, da cui ne deriva un incremento pressoché nullo delle masse sismiche ed allo stesso tempo un considerevole aumento della duttilità strutturale; • messa in opera senza l’ausilio di particolari attrezzature da un numero limitato di operatori, da cui un minore costo della mano d’opera; • posizionamento in tempi brevi e spesso senza interrompere l’esercizio della struttura. Il parametro principale che definisce le caratteristiche di un rinforzo fibroso non è la resistenza a trazione, che risulta essere ben al di sopra dei tassi di lavoro cui sono soggette le fibre, bensì il modulo elastico, di fatti, più tale valore è elevato maggiore sarà il contributo irrigidente che il rinforzo potrà fornire all’elemento strutturale sul quale è applicato. Generalmente per il rinforzo di strutture in c.a. si preferiscono fibre sia con resistenza a trazione medio-alta (>2000 MPa) che con modulo elastico medio-alto (E=170-250 GPa), mentre per il recupero degli edifici in muratura o con struttura in legno si scelgono fibre con modulo di elasticità più basso (E≤80 GPa) tipo quelle aramidiche che meglio si accordano con la rigidezza propria del supporto rinforzato. In questo contesto, ormai ampliamente ben disposto nei confronti dei compositi, si affacciano ora nuove generazioni di rinforzi. A gli ormai “classici” FRP, realizzati con fibre di carbonio o fibre di vetro accoppiate a matrici organiche (resine epossidiche), si affiancano gli FRCM (Fiber Reinforced Cementitious Matrix), i TRM (Textile Reinforced Mortars) e gli SRG (Steel Reinforced Grout) che sfruttano sia le eccezionali proprietà di fibre di nuova concezione come quelle in PBO (Poliparafenilenbenzobisoxazolo), sia un materiale come l’acciaio, che, per quanto comune nel campo dell’edilizia, viene caratterizzato da lavorazioni innovative che ne migliorano le prestazioni meccaniche. Tutte queste nuove tipologie di compositi, nonostante siano state annoverate con nomenclature così differenti, sono però accomunate dell’elemento che ne permette il funzionamento e l’adesione al supporto: la matrice cementizia
Resumo:
Überkritisches Kohlendioxid (CO2) ist für die Polymerisation von besonderem Interesse. Die Dispersionspolymerisation von N-Vinylpyrrolidon (VP) wurde mit Polystyrol-Polydimethylsiloxan Diblockcopolymeren (PS-b-PDMS) in diesem Medium durchgeführt. Hierfür wurde ein neues Hochdrucklabor eingerichtet, eine Sichtzelle und eine neuartige Lichtstreuzelle konstruiert. Für die Durchführung von Lichtstreuexperimenten wurde der Brechungs-index von CO2 bis zu hohen Dichten an einer Reflexionsapparatur bestimmt. Mittels dynamischen Lichtstreumessungen an Polydimethylsiloxan (PDMS) in überkritischem CO2 wurden unter den untersuchten Bedingungen ein Radius bestimmt, wie er für ungestörte Knäueldimensionen erwartet wurde. Das PS-b-PDMS wurde mittels anionischer Polymerisation mit verschiedenen Blocklängen und sehr engen Molekulargewichtsverteilungen synthetisiert. Das Phasenverhalten von PS-b-PDMS wurde in überkritischem CO2 visuell und in einer VP/CO2-Mischung mittels Turbidimetrie untersucht. Das Monomer wirkt als Co-Solvens für den PDMS-Block des Stabilisators. Bei einer Konzentration von ca. 1 Gew.-% PS-b-PDMS (pro Monomer) in CO2 bei 38 MPa und 80°C wurden sphärische ca. 1µm große PVP-Partikeln synthetisiert. PS-b-PDMS ist unter diesen Bedingungen ein geeigneter Stabilisator für die Polymerisation von VP in überkritischem CO2. Bei Konzentrationen von mehr als ca. 5 Gew.-% PS-b-PDMS wurden agglomerierte Partikeln beobachtet. Die Kinetik der Partikelentstehung wurde turbidimetrisch untersucht. Bereits in der frühen Phase der Polymerisation wurde eine anwachsende Partikelgröße gefunden.
Resumo:
Diabetes mellitus umfasst eine heterogene Gruppe von Stoffwechselfunktionsstörungen, die durch hohe Blut-Glukose-Werte gekennzeichnet sind. Zwei Haupttypen von Diabetes mellitus wurden definiert: Typ 1- und Typ 2-Diabetes. Repaglinid ist ein neuer, schnell wirksamer, bei Typ 2-Diabetikern eingesetzter prandialer Glukose-Regulator mit einer kurzen Plasmahalbwertszeit (<1 Stunde) und der erste Vertreter der Carbamoylmethylbenzoesäure Familie, der in klinischen Studien getestet wurde. Die 18F- und 11C-markierten Repaglinid-Derivate (S)-2-(2-[18F]Fluorethoxy)-4-((3-methyl-1-(2-piperidin-1-yl-phenyl)-butylcarbamoyl)-methyl)-benzoesäure ([18F]Fluorethoxy-desethoxy-Repaglinid) und (S)-2-([11C]Methoxy)-4-([3-methyl-1-(2-piperidin-1-yl-phenyl)-butyl-carba-moyl]-benzoesäure ([11C]Methoxy-desethoxy-Repaglinid) wurden als potentielle Tracer für die nicht-invasive Quantifizierung des Sulfonylharnstoffrezeptor-Typ1-Status (SUR-1) der Insulin-sezernierenden -Zellen mittels Positronen-Emissions-Tomographie (PET) synthetisiert. [18F]Fluorethoxy-desethoxy-Repaglinide konnte in einer radiochemischen Ausbeute (RCA) von 20% nach 135 Minuten mit einer radiochemischen Reinheit >98% unter Verwendung des sekundären Markierungsvorläufers 2-[18F]Fluorethyltosylat erhalten werden. Die spezifische Aktivität lag im Bereich von 50-60 GBq/µmol. Für die radioaktive Synthese des [11C]Methoxy-desethoxy-Repaglinids wurde der sekundäre Markierungsvorläufer [11C]Methyliodid verwendet. Der 11C-Radiotracer wurde in einer RCA von 35% (bezogen auf [11C]CO2) mit einer spezifischen Aktivität von 40-70 GBq/µmol erhalten. Um die Eigenschaften des fluorierten sowie des methoxylierten Repaglinids zu charakterisieren, wurde die Affinität beider Verbindungen zum humanen SUR-1 evaluiert. [19F]Fluorethoxy-desethoxy-Repaglinid und Methoxy-desethoxy-Repaglinid induzierten Verdrängungskurven mit Hill-Koeffizienten nahe 1 und ergaben Dissotiationskonstanten (KD) von 142 nM beziehungsweise 83 nM - vergleichsweise geringe Verluste relativ zu Original-Repaglinid. Die biologische Aktivität wurde mittels Insulin-Sekretionstests an isolierten Ratten-Inselzellen gezeigt und war ebenfalls mit der des Repaglinids vergleichbar. Schließlich wurde die Biodistribution des [18F]Fluorethoxy-desethoxy-Repaglinids in gesunden Sprague-Dawley-Ratten durch Messung der Konzentration der Verbindung in verschiedenen Organen nach intravenöser Injektion untersucht. Das pankreatische Gewebe zeigte im Zeitintervall zwischen 10 und 30 Minuten nach Injektion eine stabile Akkumulation von etwa 0.12% der injizierten Dosis. 50% dieser Tracer-Akkulmulation konnten durch zusätzliche Injektion von nicht-radioaktiv-markiertem Repaglinid verdrängt werden, was auf eine mögliche Eignung des [18F]Fluorethoxy-desethoxy-Repaglinids für in vivo-Untersuchungen mittels PET schließen lässt. Eine erste humane PET-Studie zeigte zwar ebenfalls eine stabile, allerdings nur geringere Akkumulation von [18F]Fluorethoxy-desethoxy-Repaglinid im Pankreas und eine überproportional hohe Aktivitätsanreicherung in der Leber. Die Radioaktivitäts-akkumulation im Blut fiel nach wenigen Minuten unter die des Pankreas.
Resumo:
In dieser Arbeit wurde die elektromagnetische Pionproduktion unter der Annahme der Isospinsymmetrie der starken Wechselwirkung im Rahmen der manifest Lorentz-invarianten chiralen Störungstheorie in einer Einschleifenrechnung bis zur Ordnung vier untersucht. Dazu wurden auf der Grundlage des Mathematica-Pakets FeynCalc Algorithmen zur Berechnung der Pionproduktionsamplitude entwickelt. Bis einschließlich der Ordnung vier tragen insgesamt 105 Feynmandiagramme bei, die sich in 20 Baumdiagramme und 85 Schleifendiagramme unterteilen lassen. Von den 20 Baumdiagrammen wiederum sind 16 als Polterme und vier als Kontaktgraphen zu klassifizieren; bei den Schleifendiagrammen tragen 50 Diagramme ab der dritten Ordnung und 35 Diagramme ab der vierten Ordnung bei. In der Einphotonaustauschnäherung lässt sich die Pionproduktionsamplitude als ein Produkt des Polarisationsvektors des (virtuellen) Photons und des Übergangsstrommatrixelements parametrisieren, wobei letzteres alle Abhängigkeiten der starken Wechselwirkung beinhaltet und wo somit die chirale Störungstheorie ihren Eingang findet. Der Polarisationsvektor hingegen hängt von dem leptonischen Vertex und dem Photonpropagator ab und ist aus der QED bekannt. Weiterhin lässt sich das Übergangsstrommatrixelement in sechs eichinvariante Amplituden zerlegen, die sich im Rahmen der Isospinsymmetrie jeweils wiederum in drei Isospinamplituden zerlegen lassen. Linearkombinationen dieser Isospinamplituden erlauben letztlich die Beschreibung der physikalischen Amplituden. Die in dieser Rechnung auftretenden Einschleifenintegrale wurden numerisch mittels des Programms LoopTools berechnet. Im Fall tensorieller Integrale erfolgte zunächst eine Zerlegung gemäß der Methode von Passarino und Veltman. Da die somit erhaltenen Ergebnisse jedoch i.a. noch nicht das chirale Zählschema erfüllen, wurde die entsprechende Renormierung mittels der reformulierten Infrarotregularisierung vorgenommen. Zu diesem Zweck wurde ein Verfahren entwickelt, welches die Abzugsterme automatisiert bestimmt. Die schließlich erhaltenen Isospinamplituden wurden in das Programm MAID eingebaut. In diesem Programm wurden als Test (Ergebnisse bis Ordnung drei) die s-Wellenmultipole E_{0+} und L_{0+} in der Schwellenregion berechnet. Die Ergebnisse wurden sowohl mit Messdaten als auch mit den Resultaten des "klassischen" MAID verglichen, wobei sich i. a. gute Übereinstimmungen im Rahmen der Fehler ergaben.
Resumo:
Die Messung der Stärke von Empfindungen hat in der Psychologie eine lange Tradition, die bis in die Zeit der Entstehung der Psychologie als eine eigenständige Wissenschaft gegen Ende des 19. Jahrhunderts zurückreicht. Gustav Theodor Fechner verband die Beobachtung Webers der Konstanz des Koeffizienten des eben merklichen Unterschieds zu der Vergleichsintensität (sog. "Weber-Quotient") mit der Annahme einer sensorischen Schwelle, und entwickelte daraus erstmals eine Skala für die Stärke von Empfindungen. Die Fechner-Skala verwendet die Anzahl sukzessiver Schwellenschritte als natürliche, psychologische Einheit. Die Stärke einer Empfindung für eine gegebene Reizintensität wird ausgedrückt als die Anzahl von Schwellenschritten, die man gehen muss, um von keiner Empfindung bis zur in Frage stehenden Empfindung zu gelangen. Die Funktion, die den Zusammenhang von Reizintensität und der Anzahl nötiger Schwellenschritte beschreibt, ist stets logarithmisch und über sukzessive Schwellenmessungen für Reize aus den verschiedensten Sinnesmodalitäten bestimmbar. Derart sich ergebende Skalierungen heißen "indirekt", weil die in Frage stehende Reizintensität selbst nicht von der Urteilsperson bewertet wird. Intensitäten sind vom Urteiler nur mit anderen Intensitäten in Bezug auf ein "stärker" oder "schwächer", also ordinal, zu vergleichen. Indirekte Skalierungsmethoden eignen sich insbesondere, wenn der Reizeindruck flüchtig und von der absoluten Stärke her schwer durch den Urteiler zu quantifizieren ist. Ein typisches Beispiel hierfür ist die Auffälligkeit (Salienz) von visuellen Objekten, die in zufällig wechselnde Hintergründe eingebettet sind und dem Betrachter nur als ein rasches raumzeitliches Aufblitzen präsentiert werden. Die Stärke des Unterschieds in Merkmalen wie Helligkeit, Farbe, Orientierung, Schattierung, Form, Krümmung, oder Bewegung bestimmt das Ausmaß der Salienz von Objekten. Obschon eine Fülle von Arbeiten existiert zu der Frage, welche Merkmale und deren Kombinationen ohne Wissen des Ortes ihrer Präsentation automatisch starke Salienz ("Pop-Out") erzeugen, existieren bislang keine systematischen Versuche, die Salienz von Merkmalen für einen weiten Bereich von Merkmalsunterschieden zu erfassen und vergleichbar zu machen. Indirekte Skalierungen liegen vor für die Merkmale Kontrast (Legge und Foley, 1980) und Orientierung (Motoyoshi und Nishida, 2001). Ein Vergleich der Salienz über mehrere Merkmale und der Nachweis, dass die Salienz eine eigene, von der Merkmalsdimension unabhängige sensorische Qualität ist, steht aber bislang aus. In der vorliegenden Arbeit wird gezeigt, dass der Unterschied von Objekten zur einbettenden Umgebung hinsichtlich visueller Merkmale zu Salienz führt und diese Salienz unabhängig von dem sie erzeugenden Merkmal der Stärke nach skalierbar ist. Es wird ferner gezeigt, dass die Einheiten der für zwei Merkmale erhobenen indirekten Skalierungsfunktionen in einem absoluten Sinne gleich sind, solange sichergestellt ist, dass (i) keine alternativen Hinweisreize existieren und nur der reine Merkmalsunterschied von Objekt und Umgebung bewertet wird und (ii) das sensorische Rauschen in den aktivierten Merkmalskanälen für beide Merkmale gleich ist. Für diesen Aufweis wurden exemplarisch die Merkmale Orientierung und Ortsfrequenz ausgewählt und die Salienz ihrer Merkmalskontraste über Naka-Rushton-Funktionen, gewonnen aus den zugrundeliegenden Salienz-Inkrementschwellenmessungen, indirekt skaliert. Für das Merkmal Ortsfrequenz liegt hiermit erstmals eine indirekte Skalierung vor. Hierfür musste eine spezielle Messtechnik entwickelt werden, die die Bewertung reiner Ortsfrequenzunterschiede, frei von konfundierenden absoluten Ausprägungen der Ortsfrequenzen, sicherstellt. Die Methode ist in Kapitel 7 dargestellt. Experimente, die die konfundierende Wirkung absoluter Merkmalsausprägungen auf die Salienzmessung demonstrieren, sind in Kapitel 6 dargestellt. In Kapitel 8 findet sich ein empirischer Abgleich der Ergebnisse von Inkrement- und Dekrementschwellenmessungen, eine Messtechnik, die zur Erfassung von Unterschiedsschwellen im Extrembereich der Orientierungsunterschiede von 90° nötig ist. Kapitel 9 enthält den empirischen Aufweis der Transitivität der Gleichheitsrelation für Salienzmessungen von Orientierung und Ortsfrequenz durch Abgleich mit einem dritten Merkmal und erbringt damit den Beleg der merkmalsunabhängigen Erfassung von Auffälligkeit über die indirekte Skalierungsmethodik. Ferner wird dort die Wirksamkeit der Grundsalienz von Mustern, gegeben über externes Rauschen in den Merkmalen (sog. "Merkmalsjitter") für die Verschiebung des Nullpunktes der Skalierungsfunktion aufgezeigt. Im letzten Experiment (Kapitel 10) wird dann die Skalierung von Orientierung und Ortsfrequenz bei gleicher Grundsalienz der Muster verglichen und gezeigt, dass beide Skalen in einem absoluten Sinne gleiche Einheiten aufweisen (also gleiche Skalenzahlen gleiche sensorische Auffälligkeiten anzeigen, obwohl sie von verschiedenen Merkmalen stammen), wenn der Effekt des sensorischen Rauschens, der im Merkmal Orientierung nicht über die verschiedenen Schwellenschritte konstant ist, kompensiert wird. Die Inkonstanz des Effektes des sensorischen Rauschens im Merkmal Orientierung wird über die Veränderung der Steigung der psychometrischen Präferenzfunktion für die Vergleichsurteile der Orientierungssalienz für eine fest vorgegebene Ortsfrequenzsalienz greifbar, und der Effekt der Steigungsveränderung kompensiert exakt die Nichtlinearität in der für beide Merkmale erhobenen Salienz-Matchingfunktion. Im letzten Kapitel wird ein Ausblick auf eine mögliche Modellierung der Salienzfunktionen über klassische Multikanal-Feedforwardmodelle gegeben. In den ersten fünf Kapiteln sind einführend die Gebiete der indirekten Skalierung, der Merkmalssalienz und der Texturtrennung im menschlichen visuellen System dargestellt.
Resumo:
Im Rahmen dieser Arbeit wurde ein neuer Eiskeimzähler FINCH (Fast Ice Nucleus CHamber) entwickelt und erste Messungen von verschiedenen Testaerosolen im Labor und atmosphärischem Aerosol durchgeführt. Die Aerosolpartikel bzw. Ice Nuclei IN werden bei Temperaturen unter dem Gefrierpunkt und Übersättigungen in Bezug auf Eis zum Anwachsen zu Eiskristallen gebracht, um sie mittels optischer Detektion zu erfassen. In FINCH ist dies durch das Prinzip der Mischung realisiert, wodurch eine kontinuierliche Messung der IN-Anzahlkonzentration gewährleistet ist. Hierbei kann mit sehr hohen Sammelflussraten von bis zu 10 l/min gemessen werden. Ebenso ist ein schnelles Abfahren von verschiedenen Sättigungsverhältnissen in Bezug auf Eis in einem weiten Bereich von 0.9 - 1.7 bei konstanten Temperaturen bis zu −23 °C möglich. Die Detektion der Eiskristalle und damit der Bestimmung der IN-Anzahlkonzentration erfolgt über einen neu entwickelten optischen Sensor basierend auf der unterschiedlichen Depolarisation des zurückgestreuten Lichtes von Eiskristallen und unterkühlten Tropfen. In Labermessungen wurden Aktivierungstemperatur und -sättigungsverhältnis von Silberjodid AgI und Kaolinit vermessen. Die Resultate zeigten gute Übereinstimmungen mit Ergebnissen aus der Literatur sowie Parallelmessungen mit FRIDGE (FRankfurt Ice Deposition freezinG Experiment). FRIDGE ist eine statische Diffusionskammer zur Aktivierung und Auszählung von Eiskeimen, die auf einem Filter gesammelt wurden. Bei atmosphärischen Messungen auf dem Jungfraujoch(Schweiz) lagen die IN-Anzahlkonzentrationen mit bis zu 4 l−1 im Rahmen der aus der Literatur bekannten Werte. Messungen der Eiskristallresiduen von Mischwolken zeigten hingegen, dass nur jedes tausendste als Eiskeim im Depositionsmode aktiv ist. Hier scheinen andere Gefrierprozesse und sekundäre Eiskristallbildung von sehr großer Bedeutung für die Anzahlkonzentration der Eiskristallresiduen zu sein. Eine weitere Messung von atmosphärischem Aerosol in Frankfurt zeigte IN-Anzahlkonzentrationen bis zu 30 l−1 bei Aktivierungstemperaturen um −14 °C. Die parallele Probenahme auf Siliziumplättchen für die Messungen der IN-Anzahlkonzentration in FRIDGE ergaben Werte im gleichen Anzahlkonzentrationsbereich.
Resumo:
Zelladhäsionsphänomene spielen eine wichtige Rolle in vielen biologischen Vorgängen, wie z. B. in der Embryogenese, der Wundheilung, der Immunantwort und Entzündungsprozessen. So wird die inflammatorische Kaskade durch P- und E-Selektin vermittelte Adhäsion der im Blutstrom zirkulierenden Leukozyten an Endothelzellen eingeleitet. Übermäßige Zelladhäsion kann hingegen eine Vielzahl von Krankheiten bewirken. Nachgewiesen ist eine solche Beteiligung der Selektine u. a. bei rheumatoider Arthritis, Erkrankungen der Herzkranzgefäße und dem Reperfusionssyndrom. Ein Ansatz zur Therapie besteht in der Verabreichung löslicher Selektinliganden, die kompetitiv an die Selektine binden und deren Aktivität dadurch mindern. Die wichtigste Leitstruktur für pharmakologisch aktive Selektinliganden stellt hierbei das Tetrasaccharid-Epitop Sialyl-Lewisx (sLex) dar.rnrnIn dieser Arbeit wurde nach einer nicht enzymatischen Strategie ein auf der sLex Struktur basierender Baustein für die Festphasen-Peptidsynthese synthetisiert. Aus diesem sollen nach Schutzgruppen-Manipulationen durch Einsatz in automatisierten Festphasen-Peptidsynthesen, verschiedene Glycopeptide als Zelladhäsionsinhibitoren für Selektine gewonnen werden. Der rasche Abbau der sLex-Struktur im Organismus schränkt die pharmakologische Nutzung von sLex-Derivaten jedoch stark ein. Das synthetisierte Kohlenhydrat Epitop weist daher gegenüber der natürlichen sLex-Struktur mehrere Modifikationen auf, die zu einer erhöhten metabolischen Stabilität führen sollen, ohne die für eine effektive Bindung zum Rezeptor nötigen Wechselwirkungen zu beeinträchtigen. rnrnAus diesem Grund wurde der synthetisch anspruchsvolle Sialinsäure-Baustein durch die L-Cyclohexylmilchsäure substituiert. Die Anbindung des Kohlenhydrat-Epitops an das Peptid wird im Gegensatz zur natürlichen N-glycosidischen Verknüpfung hier über eine zusätzliche Glucosamin-Einheit O-glycosidisch an die Aminosäure L-Threonin bewirkt. Außerdem wird der labile Fucose-Rest durch die D-Arabinose ersetzt, die nicht im menschlichen Organismus vorkommt, jedoch die drei essentiellen pharmakophoren Hydroxylfunktionen in der gleichen dreidimensionalen Orientierung präsentiert wie die L-Fucose.
Resumo:
Die Kernmagnetresonanz (NMR) ist eine vielseitige Technik, die auf spin-tragende Kerne angewiesen ist. Seit ihrer Entdeckung ist die Kernmagnetresonanz zu einem unverzichtbaren Werkzeug in unzähligen Anwendungen der Physik, Chemie, Biologie und Medizin geworden. Das größte Problem der NMR ist ihre geringe Sensitivtät auf Grund der sehr kleinen Energieaufspaltung bei Raumtemperatur. Für Protonenspins, die das größte magnetogyrische Verhältnis besitzen, ist der Polarisationsgrad selbst in den größten verfügbaren Magnetfeldern (24 T) nur ~7*10^(-5).rnDurch die geringe inhärente Polarisation ist folglich eine theoretische Sensitivitätssteigerung von mehr als 10^4 möglich. rnIn dieser Arbeit wurden verschiedene technische Aspekte und unterschiedliche Polarisationsagenzien für Dynamic Nuclear Polarization (DNP) untersucht.rnDie technische Entwicklung des mobilen Aufbaus umfasst die Verwendung eines neuen Halbach Magneten, die Konstruktion neuer Probenköpfe und den automatisierten Ablauf der Experimente mittels eines LabVIEW basierten Programms. Desweiteren wurden zwei neue Polarisationsagenzien mit besonderen Merkmalen für den Overhauser und den Tieftemperatur DNP getestet. Zusätzlich konnte die Durchführbarkeit von NMR Experimenten an Heterokernen (19F und 13C) im mobilen Aufbau bei 0,35 T gezeigt werden. Diese Ergebnisse zeigen die Möglichkeiten der Polarisationstechnik DNP auf, wenn Heterokerne mit einem kleinen magnetogyrischen Verhältnis polarisiert werden müssen.rnDie Sensitivitätssteigerung sollte viele neue Anwendungen, speziell in der Medizin, ermöglichen.
Resumo:
Die elektromagnetischen Nukleon-Formfaktoren sind fundamentale Größen, welche eng mit der elektromagnetischen Struktur der Nukleonen zusammenhängen. Der Verlauf der elektrischen und magnetischen Sachs-Formfaktoren G_E und G_M gegen Q^2, das negative Quadrat des Viererimpulsübertrags im elektromagnetischen Streuprozess, steht über die Fouriertransformation in direkter Beziehung zu der räumlichen Ladungs- und Strom-Verteilung in den Nukleonen. Präzise Messungen der Formfaktoren über einen weiten Q^2-Bereich werden daher für ein quantitatives Verständnis der Nukleonstruktur benötigt.rnrnDa es keine freien Neutrontargets gibt, gestaltet sich die Messung der Neutron-Formfaktoren schwierig im Vergleich zu der Messung am Proton. Konsequenz daraus ist, dass die Genauigkeit der vorhandenen Daten von Neutron-Formfaktoren deutlich geringer ist als die von Formfaktoren des Protons; auch der vermessene Q^2-Bereich ist kleiner. Insbesondere der elektrische Sachs-Formfaktor des Neutrons G_E^n ist schwierig zu messen, da er aufgrund der verschwindenden Nettoladung des Neutrons im Verhältnis zu den übrigen Nukleon-Formfaktoren sehr klein ist. G_E^n charakterisiert die Ladungsverteilung des elektrisch neutralen Neutrons und ist damit besonders sensitiv auf die innere Struktur des Neutrons.rnrnIn der hier vorgestellten Arbeit wurde G_E^n aus Strahlhelizitätsasymmetrien in der quasielastischen Streuung vec{3He}(vec{e}, e'n)pp bei einem Impulsübertrag von Q^2 = 1.58 (GeV/c)^2 bestimmt. Die Messung fand in Mainz an der Elektronbeschleunigeranlage Mainzer Mikrotron innerhalb der A1-Kollaboration im Sommer 2008 statt. rnrnLongitudinal polarisierte Elektronen mit einer Energie von 1.508 GeV wurden an einem polarisierten ^3He-Gastarget, das als effektives, polarisiertes Neutrontarget diente, gestreut. Die gestreuten Elektronen wurden in Koinzidenz mit den herausgeschlagenen Neutronen detektiert; die Elektronen wurden in einem magnetischen Spektrometer nachgewiesen, durch den Nachweis der Neutronen in einer Matrix aus Plastikszintillatoren wurde der Beitrag der quasielastischen Streuung am Proton unterdrückt.rnrnAsymmetrien des Wirkungsquerschnitts bezüglich der Elektronhelizität sind bei Orientierung der Targetpolarisation in der Streuebene und senkrecht zum Impulsübertrag sensitiv auf G_E^n / G_M^n; mittels deren Messung kann G_E^n bestimmt werden, da der magnetische Formfaktor G_M^n mit vergleichsweise hoher Präzision bekannt ist. Zusätzliche Messungen der Asymmetrie bei einer Polarisationsorientierung parallel zum Impulsübertrag wurden genutzt, um systematische Fehler zu reduzieren.rnrnFür die Messung inklusive statistischem (stat) und systematischem (sys) Fehler ergab sich G_E^n = 0.0244 +/- 0.0057_stat +/- 0.0016_sys.
Resumo:
It is not known whether drugs that block the renin-angiotensin system reduce the risk of diabetes and cardiovascular events in patients with impaired glucose tolerance.