8 resultados para Erfahrung

em ArchiMeD - Elektronische Publikationen der Universität Mainz - Alemanha


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die zentrale Untersuchungsfrage lautet: Welche Voraussetzungen müssen Kinder mitbringen, um Lernsoftware optimal nutzen zu können? Diese Frage wurde anhand der Voraussetzung „Leseverständnis“, als Basiskompetenz, sowie darüber hinausgehenden Voraussetzungen, „Interesse“ und „PC-Erfahrung“, untersucht. Die Studie „Lesen am Computer“ (LaC) betrachtete erstmals die effiziente Nutzung von Informationsquellen. Das Verhältnis von Print- und Hypertext-Lesekompetenz sowie Einflussfaktoren wurden hierbei erkundet. Es handelte sich um eine Zusatzstudie zur Internationalen Grundschul-Leseuntersuchung (IGLU) bzw. zur Erhebung „Kompetenzen und Einstellungen von Schülerinnen und Schülern (KESS). Die vorliegende Arbeit stellt eine quantitative Studie dar, wobei qualitative Methoden die Aussagen unterstützen. Es wurde das Leseverständnis von Mädchen und Jungen einer Hamburger Grundschule gemessen. Unter Berücksichtigung der Faktoren „Interesse am Thema und/oder Lernsoftware“ sowie „PC-Erfahrung“ wurde das Leseverständnis zum Multimediaverständnis in Beziehung gesetzt. Darüber hinaus wurden die Rezeptionsprozesse beobachtet und einzelne Fallbeispiele zur Interpretation herangezogen. Die Untersuchung hat gezeigt, dass die wichtigste Basisqualifikation beim Lernen mit neuen Medien ein gutes Leseverständnis ist und die Mädchen zum einen über ein besseres Leseverständnis und zum anderen über ein besseres Multimediaverständnis als die Jungen verfügen. Des Weiteren konnte dargelegt werden, dass sich die PC-Praxis eines Kindes nicht zwangsläufig mit seinen Fertigkeiten im Programm deckt und eine gute PC-Praxis hauptsächlich bei Kindern mit einem mäßigen Leseverständnis förderlich ist. Es lässt sich außerdem festhalten, dass die meisten Kinder Interesse am Thema aufweisen und dies überwiegend mit einem guten Leseverständnis und einem überdurchschnittlichen Multimediaverständnis gekoppelt ist. Die Hauptaufgaben des Unterrichts beziehen sich folglich auf das Arrangement von Lernprozessen. Die Einteilung in Rezeptionstypen ist eine wesentliche Aufgabe, um dementsprechend Teams zu bilden und Defizite auszugleichen. Ferner müssen Kinder mit einem guten bzw. mäßigen Leseverständnis unterschiedlich gefördert werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die bei Lern- und Gedächtnisvorgängen ablaufenden neurobiologischen Prozesse sind in ihrer Funktion bis heute nur unzureichend verstanden, wobei besonders die Rolle der lernabhängigen Genexpression unklar ist. Wiederholungen im Lernprozess fördern die Bildung von stabilen Gedächtnisinhalten. Die Lerneffiktivität kann hierbei durch lernfreie Zeitintervalle, insbesondere durch eingeschobene Schalfperioden, zusätzlich gesteigert werden. Entsprechend kann man den mehrtägigen Morris Water Maze (MWM)-Test mit einer verborgenen Plattform als einen mehrstufigen räumlichen Lernprozess bezeichnen. Dieser Test ist Hippokampus-abhängig und produziert Langzeitgedächtnisspuren in Nagern. Für diese Studie wurden FVB/NxC57Bl/6-Mäuse der F1-Generation über vier Tage in der MWM trainiert, das Erlernte in einem Probe Trial an Tag 5 überprüft und die Tiere gemäß ihrer Lernleistung in die beiden Gruppen „gute“ und „schlechte Lerner“ eingeteilt. Eine Analyse der hippokampalen Expression von Kandidatengenen per Microarray und Real-Time PCR erfolgte eine, sechs beziehungsweise 24 Stunden nach dem jeweils letzten Trainingslauf eines Tages. Durch den Vergleich von Schwimmkontrollen mit Test-naiven Mäusen wurde eine gleichgeschaltete, mit dem impliziten Lernen der MWM-Erfahrung der Tiere assoziierte unspezifische Genexpression festgestellt. Beim Vergleich der Schwimmkontrollen (ohne Plattform) mit den trainierten Tieren (verborgene Plattform mit konstanter Lokalisation) wurde in guten Lernern zu bestimmten Zeitpunkten eine Hochregulation von Genen, die mit Lernen und Gedächtnis (PP1, Kibra), neuronaler Aktivität (mt-CO1), Epigenetik (Dnmt3a, Dnmt3b) und neurodegenerativen Erkrankungen (Mapt, Sorl1) assoziiert sind, gefunden. Im Hippokampus der schlechten Lerner wurde eine im Vergleich zu den guten Lernern gesteigerte Synthese der mRNA von Genen festgestellt, die mit Lernen und Gedächtnis (Reelin, PP1, Kibra), Epigenetik (Dnmt1, Dnmt3a, Dnmt3b) und neurodegenerativen Erkrankungen (Mapt, Sorl1, APP) in Zusammenhang stehen. Diese Studie liefert somit den bisher ersten Hinweis, dass während eines mehrtägigen MWM-Lernprozesses eine abnormal erhöhte de novo-mRNA-Synthese mit verminderter Lernleistung in Zusammenhang steht.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Th17 cells have emerged as a proinflamatory cell type with strong links to autoimmunity and immunopathology. The aims of this thesis are two-fold; Firstly, generation of a novel mouse model that allows in vivo and/or ex vivo observation and manipulation of Th17 cells. Secondly, to generate a mouse model capable of conditionally overexpressing the hallmark Th17 cytokine, IL-17A. Given the expertise and experience in our lab with respect to conditional gene targeting, Cre-LoxP-mediated approaches were chosen and utilized to achieve this goal in both mouse models. The resulting strains and the knowledge generated from their useage are discussed in this work. Furthermore, the recently generated IL-6Rα conditional allele allows for ablation of IL-6 signaling in a cell type-specific manner. We wanted to analyze the role of IL-6 signaling with respect to EAE pathogenesis and development of pathogenic Th17 cells, and the results generated are published in this work.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ziel der vorliegenden Arbeit war die Untersuchung der Bedeutung des lebensgeschichtlichen Ereignisses (erzwungener) Emigration aus Deutschland zur Zeit des Nationalsozialismus für die Identitätsentwicklung von Kindern und Jugendlichen. Anhand der objektiv hermeneutischen Analyse und Interpretation lebensgeschichtlicher Interviews, objektiver Daten sowie z.T. weiterer (auto-)biographischer Materialien dreier Personen, die als Kinder in die USA emigrierten, wurde vor allem der Frage nachgegangen, welche Zusammenhänge herstellbar sind zwischen entwicklungsmäßig gewissermaßen ‚vorprogrammierten‘ Krisen der Bindung und Ablösung im Sozialisationsprozess und dem Ereignis Emigration als fallübergreifend vorliegender Besonderheit im Sinne eines potentiell traumatischen Krisenereignisses. Das zentrale Interesse bestand in der Rekonstruktion unterschiedlicher biographisch wirksamer Habitus der Krisenbewältigung. In heuristischer Absicht wurde dabei einerseits angeknüpft an das soziologisch strukturtheoretische Modell Ulrich Oevermanns von Sozialisation als Prozess der Krisenbewältigung, andererseits an Robert Kegans entwicklungspsychologisches Konzept der Entwicklung des Selbst in einbindenden Kulturen. Im Zuge der Fallrekonstruktionen ließen sich erstens von Fall zu Fall unterschiedliche Perspektiven auf die Erfahrung der Emigration herausarbeiten sowie zweitens jeweils spezifische Haltungen im Umgang mit (wie bewusst auch immer als solche wahrgenommenen) Entscheidungskrisen der Lebensgestaltung, also eine je eigene Form des Umgangs mit der für die menschliche Lebenspraxis konstitutiven widersprüchlichen Einheit von Entscheidungszwang und Begründungsverpflichtung. Die Ergebnisse verweisen zum einen auf den großen Einfluss familialer Sozialisation auf die Entwicklung, zeigen zum anderen aber auch die Bedeutsamkeit kultureller Einbindungsmöglichkeiten über die Lebensspanne auf. Sie bieten damit eine empirische Fundierung der Synthese des Oevermannschen und des Keganschen Modells.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Während Therapeutisches Drug Monitoring (TDM) im klinischen Alltag der stationären Behandlung in der Psychiatrie bereits fest etabliert ist, kommt es in der ambulanten Betreuung von psychisch Kranken bislang noch selten zum Einsatz. Ziel dieser Arbeit war es zu klären, wie TDM im ambulanten Bereich eingesetzt wird, wann seine Anwendung sinnvoll ist und ob es Hinweise gibt, dass TDM zu einer besseren Psychopharmakotherapie beitragen kann. rnEine Grundvoraussetzung für den Einsatz von TDM ist die Messbarkeit des Arzneistoffes. Am Beispiel des Antipsychotikums Flupentixol wurde eine Quantifizierungsmethode entwickelt, validiert und in die Laborroutine integriert. Die neue Methode erfüllte alle nach Richtlinien vorgegebenen Anforderungen für quantitative Laboruntersuchungen. Die Anwendbarkeit in der Laborroutine wurde anhand von Untersuchungen an Patienten gezeigt. rnEine weitere Voraussetzung für eine TDM-geleitete Dosisanpassung ist die Kenntnis des therapeutischen Referenzbereiches. In dieser Arbeit wurde exemplarisch ein Referenzbereich für das Antipsychotikum Quetiapin ermittelt. Die Untersuchung verglich darüber hinaus die neu eingeführten Arzneiformulierung Quetiapin retard mit schnell freisetzendem Quetiapin. Es zeigte sich, dass die therapiebegleitenden Blutspiegelkontrollen beider Formulierungen mit der Einstellung des Blutspiegels auf den therapeutischen Bereich von 100 - 500 ng/ml die Wahrscheinlichkeit des Therapieansprechens erhöhen. Bei den verschiedenen Formulierungen musste unbedingt auf den Zeitpunkt der Blutentnahmen nach Einnahme geachtet werden.rnEs wurde eine multizentrische Querschnittsuntersuchung zur Analyse von TDM unter naturalistischen Bedingungen an ambulanten Patienten durchgeführt, und zwar in Ambulanzen, in denen TDM als fester Bestandteil der Therapieüberwachung genutzt wurde und in Ambulanzen, in denen TDM sporadisch engesetzt, bzw. neu eingeführt wurde. Nach dieser Erhebung schien die Anwendung von TDM zu einer besseren Versorgung der Patienten beizutragen. Es wurde festgestellt, dass in den Ambulanzen mit bewusster Anwendung von TDM mehr Patienten mit Blutspiegeln im therapeutischen Bereich vorkamen als in den Ambulanzen mit nur sporadisch durchgeführten Blutspiegelmessungen. Bei Letzteren betrug die mittlere Anzahl an Medikamenten pro Patient 2,8 gegenüber 2,2 in den anderen Ambulanzen, was mit höheren Nebenwirkungsraten einherging. Die Schlussfolgerung, dass das Einstellen der Blutspiegel auf den therapeutischen Bereich auch tatsächlich zu besseren Therapieeffekten führte, konnte mit der Studie nicht valide überprüft werden, da die Psychopathologie nicht adäquat abgebildet werden konnte. Eine weitere Erkenntnis war, dass das reine Messen des Blutspiegels nicht zu einer Verbesserung der Therapie führte. Eine Verbesserung der Anwendung von TDM durch die Behandler wurde nach einer Schulung festgestellt, die das Ziel hatte, die Interpretation der Blutspiegelbefunde im Kontext mit patienten- und substanzspezifischen Informationen zu verbessern. Basierend auf dieser Erfahrung wurden Arzneistoffdatenblätter für die häufigsten angewandten Antipsychotika und Antidepressiva entwickelt, um damit die ambulanten Ärzte für eine eigenständige Befundinterpretation zu unterstützen. rnEin weiterer Schwerpunkt der Untersuchungen an ambulanten Patienten war die Aufdeckung von Non-Compliance durch TDM. Ein neu entwickeltes Verfahren, durch Berechnung der Streuung der mittleren Blutspiegel, erwies sich als geeignetes Instrument zur Compliance-Kontrolle in der Clozapin-Langzeittherapie. Es war etablierten anderen Verfahren überlegen. Demnach hatten Patienten ein erhöhtes Rückfallrisiko, wenn der Variationskoeffizient von nur drei nacheinander gemessenen Blutspiegeln größer als 20 % war. Da für die Beurteilung des Variationskoeffizienten das Messen von nur drei aufeinander folgenden Blutspiegeln notwendig war, kann diese Methode leicht in den ambulanten Alltag integriert werden. Der behandelnde Arzt hat so die Möglichkeit, einen rückfallgefährdeten Patienten noch vor seiner psychopathologischen Verschlechterung zu erkennen und ihn beispielsweise durch engmaschigeres Supervidieren vor einem Rückfall zu bewahren.rnAlles in allem konnte durch die eigenen Untersuchungen an psychiatrischen Patienten, die unter naturalistischen Bedingungen behandelt wurden, gezeigt werden, wie die Voraussetzungen für die Anwendung von TDM geschaffen werden, nämlich durch die Etablierung und Validierung einer Messmethode und durch die Evaluierung eines therapeutischen Referenzbereiches und wie TDM bei adäquatem Einsatz, nach Verbesserung der Compliance und des Kenntnisstandes der behandelnden Ärzte im praktischen und theoretischen Umgang mit TDM, die Versorgung ambulanter psychiatrischer Patienten unterstützen kann.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Dissertation "Konsekutivdolmetschen und Notation" (Andres 2002) ist eine experimentelle Studie. Mit Hilfe einer von den Germersheimer Technikern konzipierten Spezialkamera wurde die Notizennahme von insgesamt 28 ProbandInnen, denen über Video die Fernsehansprache des französischen Staatspräsidenten zum Jahreswechsel 1996/1997 eingespielt wurde, gefilmt. Das Besondere an diesen Filmaufnahmen der Notizen war die mitlaufende Zeitschaltuhr. Damit konnte der zeitliche Abstand (Décalage) zur Originalrede gemessen werden. In der Verschriftung wurden die Originalrede, die Notizen und die Wiedergabe in ihrem temporalen Verlauf aufgezeichnet. Auch nonverbale Elemente wurden durch in Klammern hinter die jeweilige Äußerung gesetzte Anmerkungen integriert. Die Leistungen der ProbandInnen wurden von drei Dozentinnen bewertet. Die Auswertung der empirischen Daten erfolgte unter den Aspekten Effizienz und Knappheit, Quantität und Auswahl, Informationsstrukturierung, Décalage, Wissen und Erfahrung, Text als kommunikatives Ganzes. Auswertung der Dolmetschleistungen: Konsekutivdolmetschen ist eine komplexe Gesamtoperation, die sich aus zahlreichen miteinander vernetzten Teilen zusammensetzt. Faktoren wie Übung, Erfahrung, Wissen, das Verfügen über Sachkenntnis und Problemlösestrategien, spielen in diesem Prozess eine erhebliche Rolle. Daher ist es sinnvoll, im didaktischen Ansatz Einzeloperationen aus der Gesamtoperation herauszulösen und für Einzelbereiche die Fähigkeit zum Problemlösen zu trainieren. Die Grundvoraussetzung ist Verstehen, so dass vor allem Verstehenstechniken zu vermitteln sind. Insgesamt geht es darum, den Lernprozess so zu gestalten, dass Studierenden Strategien vermittelt werden, die es ihnen ermöglichen, defizitäre Daten der Textoberfläche durch differenzierte Erwartungsstrukturen zu ergänzen und zu lernen, Sinn zu konstruieren. In Bezug auf die Notation lassen die in der Untersuchung enthaltenen Daten den Schluss zu, dass es bei der Notation nicht um Fragen wie zielsprachliches oder ausgangssprachliches Notieren oder die Anzahl von Symbolen geht, sondern darum zu vermitteln, dass: (1) ein deutlich geschriebenes Notationssystem mit automatisierten Abkürzungsregeln und einem eindeutigen Stamm an Symbolen Zeitersparnis bewirkt, die für andere Operationen genutzt werden kann; (2) Verben und Tempusangaben für die Rekonstruktion des Gesagten ein wesentlicher Faktor sind; (3) Informationsgewichtung und -strukturierung in den Notizen die Verstehensoperationen intensivieren und die Textproduktion erleichtern; (4) Segmentierung und räumliche Anordnung in den Notizen das Zuordnen erleichtern und die Sprachproduktion positiv beeinflussen; (5) die Notation von Verknüpfungsmitteln ein wesentliches Element für die Herstellung von Kohäsion ist; (6) das Décalage in Abhängigkeit vom Faktor Verstehen Schwankungen unterworfen ist und sein darf; (7) jede Person das für sie individuelle Décalage herausfinden muss; (8) ein anhaltendes Décalage von mehr als 7 Sekunden zu Defiziten im Verstehens- oder im Notationsprozess führt; (9) diskontinuierliches Notieren zur Informationsstrukturierung oder -vervollständigung hilfreich sein kann; (10) rhetorische Merkmale in der Textproduktion leichter berücksichtigt werden, wenn diese in den Notizen markiert sind.rnSchließlich haben die Beobachtungen gezeigt, wie hilfreich für die Studierenden eine intensive Auseinandersetzung mit der Notation ist, wie wichtig ein trainiertes, verlässliches, effizientes Notationssystem als eine Teiloperation ist, die den Verstehensprozess stützt und damit entscheidenden Einfluss auf die Qualität der zielsprachlichen Umsetzung nimmt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In den westlichen Industrieländern ist das Mammakarzinom der häufigste bösartige Tumor der Frau. Sein weltweiter Anteil an allen Krebserkrankungen der Frau beläuft sich auf etwa 21 %. Inzwischen ist jede neunte Frau bedroht, während ihres Lebens an Brustkrebs zu erkranken. Die alterstandardisierte Mortalitätrate liegt derzeit bei knapp 27 %.rnrnDas Mammakarzinom hat eine relative geringe Wachstumsrate. Die Existenz eines diagnostischen Verfahrens, mit dem alle Mammakarzinome unter 10 mm Durchmesser erkannt und entfernt werden, würden den Tod durch Brustkrebs praktisch beseitigen. Denn die 20-Jahres-Überlebungsrate bei Erkrankung durch initiale Karzinome der Größe 5 bis 10 mm liegt mit über 95 % sehr hoch.rnrnMit der Kontrastmittel gestützten Bildgebung durch die MRT steht eine relativ junge Untersuchungsmethode zur Verfügung, die sensitiv genug zur Erkennung von Karzinomen ab einer Größe von 3 mm Durchmesser ist. Die diagnostische Methodik ist jedoch komplex, fehleranfällig, erfordert eine lange Einarbeitungszeit und somit viel Erfahrung des Radiologen.rnrnEine Computer unterstützte Diagnosesoftware kann die Qualität einer solch komplexen Diagnose erhöhen oder zumindest den Prozess beschleunigen. Das Ziel dieser Arbeit ist die Entwicklung einer vollautomatischen Diagnose Software, die als Zweitmeinungssystem eingesetzt werden kann. Meines Wissens existiert eine solche komplette Software bis heute nicht.rnrnDie Software führt eine Kette von verschiedenen Bildverarbeitungsschritten aus, die dem Vorgehen des Radiologen nachgeahmt wurden. Als Ergebnis wird eine selbstständige Diagnose für jede gefundene Läsion erstellt: Zuerst eleminiert eine 3d Bildregistrierung Bewegungsartefakte als Vorverarbeitungsschritt, um die Bildqualität der nachfolgenden Verarbeitungsschritte zu verbessern. Jedes kontrastanreichernde Objekt wird durch eine regelbasierte Segmentierung mit adaptiven Schwellwerten detektiert. Durch die Berechnung kinetischer und morphologischer Merkmale werden die Eigenschaften der Kontrastmittelaufnahme, Form-, Rand- und Textureeigenschaften für jedes Objekt beschrieben. Abschließend werden basierend auf den erhobenen Featurevektor durch zwei trainierte neuronale Netze jedes Objekt in zusätzliche Funde oder in gut- oder bösartige Läsionen klassifiziert.rnrnDie Leistungsfähigkeit der Software wurde auf Bilddaten von 101 weiblichen Patientinnen getested, die 141 histologisch gesicherte Läsionen enthielten. Die Vorhersage der Gesundheit dieser Läsionen ergab eine Sensitivität von 88 % bei einer Spezifität von 72 %. Diese Werte sind den in der Literatur bekannten Vorhersagen von Expertenradiologen ähnlich. Die Vorhersagen enthielten durchschnittlich 2,5 zusätzliche bösartige Funde pro Patientin, die sich als falsch klassifizierte Artefakte herausstellten.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Da nicht-synonyme tumorspezifische Punktmutationen nur in malignen Geweben vorkommen und das veränderte Proteinprodukt vom Immunsystem als „fremd“ erkannt werden kann, stellen diese einen bisher ungenutzten Pool von Zielstrukturen für die Immuntherapie dar. Menschliche Tumore können individuell bis zu tausenden nicht-synonymer Punktmutationen in ihrem Genom tragen, welche nicht der zentralen Immuntoleranz unterliegen. Ziel der vorliegenden Arbeit war die Hypothese zu untersuchen, dass das Immunsystem in der Lage sein sollte, mutierte Epitope auf Tumorzellen zu erkennen und zu klären, ob auf dieser Basis eine wirksame mRNA (RNA) basierte anti-tumorale Vakzinierung etabliert werden kann. Hierzu wurde von Ugur Sahin und Kollegen, das gesamte Genom des murinen B16-F10 Melanoms sequenziert und bioinformatisch analysiert. Im Rahmen der NGS Sequenzierung wurden mehr als 500 nicht-synonyme Punktmutationen identifiziert, von welchen 50 Mutationen selektiert und durch Sanger Sequenzierung validiert wurden. rnNach der Etablierung des immunologischen Testsysteme war eine Hauptfragestellung dieser Arbeit, die selektierten nicht-synonyme Punktmutationen in einem in vivo Ansatz systematisch auf Antigenität zu testen. Für diese Studien wurden mutierte Sequenzen in einer Länge von 27 Aminosäuren genutzt, in denen die mutierte Aminosäure zentral positioniert war. Durch die Länge der Peptide können prinzipiell alle möglichen MHC Klasse-I und -II Epitope abgedeckt werden, welche die Mutation enthalten. Eine Grundidee des Projektes Ansatzes ist es, einen auf in vitro transkribierter RNA basierten oligotopen Impfstoff zu entwickeln. Daher wurden die Impfungen naiver Mäuse sowohl mit langen Peptiden, als auch in einem unabhängigen Ansatz mit peptidkodierender RNA durchgeführt. Die Immunphänotypisierung der Impfstoff induzierten T-Zellen zeigte, dass insgesamt 16 der 50 (32%) mutierten Sequenzen eine T-Zellreaktivität induzierten. rnDie Verwendung der vorhergesagten Epitope in therapeutischen Vakzinierungsstudien bestätigten die Hypothese das mutierte Neo-Epitope potente Zielstrukturen einer anti-tumoralen Impftherapie darstellen können. So wurde in therapeutischen Tumorstudien gezeigt, dass auf Basis von RNA 9 von 12 bestätigten Epitopen einen anti-tumoralen Effekt zeigte.rnÜberaschenderweise wurde bei einem MHC Klasse-II restringierten mutiertem Epitop (Mut-30) sowohl in einem subkutanen, als auch in einem unabhängigen therapeutischen Lungenmetastasen Modell ein starker anti-tumoraler Effekt auf B16-F10 beobachtet, der dieses Epitop als neues immundominantes Epitop für das B16-F10 Melanom etabliert. Um den immunologischen Mechanismus hinter diesem Effekt näher zu untersuchen wurde in verschieden Experimenten die Rolle von CD4+, CD8+ sowie NK-Zellen zu verschieden Zeitpunkten der Tumorentwicklung untersucht. Die Analyse des Tumorgewebes ergab, eine signifikante erhöhte Frequenz von NK-Zellen in den mit Mut-30 RNA vakzinierten Tieren. Das NK Zellen in der frühen Phase der Therapie eine entscheidende Rolle spielen wurde anhand von Depletionsstudien bestätigt. Daran anschließend wurde gezeigt, dass im fortgeschrittenen Tumorstadium die NK Zellen keinen weiteren relevanten Beitrag zum anti-tumoralen Effekt der RNA Vakzinierung leisten, sondern die Vakzine induzierte adaptive Immunantwort. Durch die Isolierung von Lymphozyten aus dem Tumorgewebe und deren Einsatz als Effektorzellen im IFN-γ ELISPOT wurde nachgewiesen, dass Mut-30 spezifische T-Zellen das Tumorgewebe infiltrieren und dort u.a. IFN-γ sekretieren. Dass diese spezifische IFN-γ Ausschüttung für den beobachteten antitumoralen Effekt eine zentrale Rolle einnimmt wurde unter der Verwendung von IFN-γ -/- K.O. Mäusen bestätigt.rnDas Konzept der individuellen RNA basierten mutationsspezifischen Vakzine sieht vor, nicht nur mit einem mutations-spezifischen Epitop, sondern mit mehreren RNA-kodierten Mutationen Patienten zu impfen um der Entstehung von „escape“-Mutanten entgegenzuwirken. Da es nur Erfahrung mit der Herstellung und Verabreichung von Monotop-RNA gab, also RNA die für ein Epitop kodiert, war eine wichtige Fragestellungen, inwieweit Oligotope, welche die mutierten Sequenzen sequentiell durch Linker verbunden als Fusionsprotein kodieren, Immunantworten induzieren können. Hierzu wurden Pentatope mit variierender Position des einzelnen Epitopes hinsichtlich ihrer in vivo induzierten T-Zellreaktivitäten charakterisiert. Die Experimente zeigten, dass es möglich ist, unabhängig von der Position im Pentatop eine Immunantwort gegen ein Epitop zu induzieren. Des weiteren wurde beobachtet, dass die induzierten T-Zellfrequenzen nach Pentatop Vakzinierung im Vergleich zur Nutzung von Monotopen signifikant gesteigert werden kann.rnZusammenfassend wurde im Rahmen der vorliegenden Arbeit präklinisch erstmalig nachgewiesen, dass nicht-synonyme Mutationen eine numerisch relevante Quelle von Zielstrukturen für die anti-tumorale Immuntherapie darstellen. Überraschenderweise zeigte sich eine dominante Induktion MHC-II restringierter Immunantworten, welche partiell in der Lage waren massive Tumorabstoßungsreaktionen zu induzieren. Im Sinne einer Translation der gewonnenen Erkenntnisse wurde ein RNA basiertes Oligotop-Format etabliert, welches Eingang in die klinische Testung des Konzeptes fand.rn