589 resultados para strategie wyborcze


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der Suche nach neuen Wirkstoffen für den chemischen Pflanzenschutz kommt insbesondere vor dem Hintergrund der steigenden Weltbevölkerung und weniger zur Verfügung stehenden kulturfähigen Ackerflächen eine stetig wachsende Bedeutung zu. Ziel dieser Arbeit war die Synthese von cyclischen Peptiden und Depsipeptiden, die aufgrund ihrer biologischen Aktivität als potentielle Insektizide für den chemischen Pflanzenschutz in Frage kommen. Darüber hinaus sollten von Kohlenhydraten abgeleitete Katalysatoren zur enantioselektiven Cyanhydrinsynthese entwickelt werden, um einen leichten Zugang zu den Bausteinen der Depsipeptide zu ermöglichen. Als vielversprechender Naturstoff mit insektiziden Eigenschaften gilt das cyclische Pentapeptid Cycloaspeptid E, dessen Totalsynthese in 10 Stufen mit einer Gesamtausbeute von 25% erreicht wurde, sodass die Verbindung für biologische Tests bereitgestellt werden konnte. Zusätzlich gelang die Kristallisation der Verbindung, was eine Röntgenstrukturanalyse ermöglichte. Ein Derivat von Cycloaspeptid E sollte 2-Aminonicotinsäure anstelle von Anthranilsäure enthalten. Die Synthese dieser Verbindung wurde auf drei Wegen versucht. Dabei zeigte sich, dass es bei einer zur Totalsynthese des Naturstoffs analogen Strategie zur quantitativen Bildung eines Diketopiperazins kommt. Auf den anderen Routen ließ sich entweder ein Kupplungsschritt nicht realisieren, oder die Verbindung erwies sich unter den gewählten Bedingungen als instabil. Die Darstellung eines 2-Aminonicotinsäure-Derivats von Cycloaspeptid E bleibt daher weiterhin ein ungelöstes Problem, das weiterer Forschung bedarf. Verticilid A1 ist ein cyclisches Depsipeptid, das aufgrund seiner Bindungsfähigkeit an den Ryanodinrezeptor von Insekten, als Leitstruktur für die Suche nach neuen Insektiziden von Interesse ist. Um zu untersuchen, wie wichtig die Esterbindungen im Molekül für die biologische Aktivität sind, sollte das entsprechende Amid-Derivat und das Cyclodepsipeptid mit nur zwei statt vier Esterbindungen hergestellt werden. Hierbei zeigte sich, dass eine zur Darstellung von Verticilid A1 analoge Syntheseroute zu einer ausgeprägten Epimerisierung führt. Eine lineare Synthese der Derivate endet in der Bildung des Diketopiperazins. Weiterhin wurden zwei neue, zueinander pseudoenantiomere Vanadium(IV)-Katalysatoren auf Basis von D-Glucose einerseits und L-Xylose andererseits dargestellt. Diese lassen sich in fünf bzw. 14 Stufen synthetisieren und liefern in der enantioselektiven Katalyse von Mandelsäurenitril Enantiomerenüberschüsse von 89% bzw. 91% bei hohen Ausbeuten. Zusammenfassend lässt sich feststellen, dass im Rahmen dieser Arbeit die Totalsynthese von Cycloaspeptid E erfolgreich durchgeführt wurde, und die Syntheseversuche von weiteren cyclischen Peptiden wichtige Erkenntnisse für weitere Synthesen lieferten. Mit den beiden hergestellten Vanadium(IV)-Komplexen wurden zwei potente, auf Kohlenhydraten basierende Katalysatoren für die enantioselektive Synthese von Cyanhydrinen entwickelt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il trattamento numerico dell'equazione di convezione-diffusione con le relative condizioni al bordo, comporta la risoluzione di sistemi lineari algebrici di grandi dimensioni in cui la matrice dei coefficienti è non simmetrica. Risolutori iterativi basati sul sottospazio di Krylov sono ampiamente utilizzati per questi sistemi lineari la cui risoluzione risulta particolarmente impegnativa nel caso di convezione dominante. In questa tesi vengono analizzate alcune strategie di precondizionamento, atte ad accelerare la convergenza di questi metodi iterativi. Vengono confrontati sperimentalmente precondizionatori molto noti come ILU e iterazioni di tipo inner-outer flessibile. Nel caso in cui i coefficienti del termine di convezione siano a variabili separabili, proponiamo una nuova strategia di precondizionamento basata sull'approssimazione, mediante equazione matriciale, dell'operatore differenziale di convezione-diffusione. L'azione di questo nuovo precondizionatore sfrutta in modo opportuno recenti risolutori efficienti per equazioni matriciali lineari. Vengono riportati numerosi esperimenti numerici per studiare la dipendenza della performance dei diversi risolutori dalla scelta del termine di convezione, e dai parametri di discretizzazione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Negli ultimi anni lo spreco alimentare ha assunto un’importanza crescente nel dibattito internazionale, politico ed accademico, nel contesto delle tematiche sulla sostenibilità dei modelli di produzione e consumo, sull’uso efficiente delle risorse e la gestione dei rifiuti. Nei prossimi anni gli Stati Membri dell’Unione Europea saranno chiamati ad adottare specifiche strategie di prevenzione degli sprechi alimentari all’interno di una cornice di riferimento comune. Tale cornice è quella che si va delineando nel corso del progetto Europeo di ricerca “FUSIONS” (7FP) che, nel 2014, ha elaborato un framework di riferimento per la definizione di “food waste” allo scopo di armonizzare le diverse metodologie di quantificazione adottate dai paesi membri. In questo scenario, ai fini della predisposizione di un Piano Nazionale di Prevenzione degli Sprechi Alimentari per l’Italia, il presente lavoro applica per la prima volta il “definitional framework” FUSIONS per l’analisi dei dati e l’identificazione dei principali flussi nei diversi anelli della filiera e svolge un estesa consultazione degli stakeholder (e della letteratura) per identificare le possibili misure di prevenzione e le priorità di azione. I risultati ottenuti evedenziano (tra le altre cose) la necessità di predisporre e promuovere a livello nazionale l’adozione di misure uniformi di quantificazione e reporting; l’importanza del coinvolgimento degli stakeholder nel contesto di una campagna nazionale di prevenzione degli sprechi alimentari; l’esigenza di garantire una adeguata copertura economica per le attività di pianificazione e implementazione delle misure di prevenzione da parte degli enti locali e di un coordinamento a livello nazionale della programmazione regionale; la necessità di una armonizzazione/semplificazione del quadro di riferimento normativo (fiscale, igienico-sanitario, procedurale) che disciplina la donazione delle eccedenze alimentari; l’urgenza di approfondire il fenomeno degli sprechi alimentari attraverso la realizzazione di studi di settore negli stadi a valle della filiera.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il sottotitolaggio è importante oggetto di studio della traduzione audiovisiva. Un incarico di sottotitolaggio viene generalmente assunto da un traduttore che dovrà rimanere fedele alla funzione del testo originale cambiando il mezzo, da orale a scritto, rispettando una serie di parametri. Gli eventi TED sono noti per la diffusione di idee e di discorsi illuminanti, che è possibile anche grazie al sottotitolaggio dei video. In quest’elaborato ho proposto i miei sottotitoli per un discorso TEDx Amsterdam, un evento TED organizzato in modo indipendente. Il relatore è il fotografo Jimmy Nelson, creatore di Before They Pass Away, raccolta fotografica che documenta 35 delle ultime tribù al mondo. Il primo capitolo è dedicato a TED e al discorso tenuto da Nelson e presenta gli obiettivi comunicativi dei suoi viaggi. Il secondo è dedicato alla traduzione audiovisiva e all’esposizione dei criteri del sottotitolaggio. Il terzo capitolo tratta delle strategie utilizzate, degli ostacoli incontrati e della risoluzione di problemi durante il sottotitolaggio. L'elaborato si conclude con l’appendice contenente la trascrizione del discorso e i sottotitoli italiani.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La natura distribuita del Cloud Computing, che comporta un'elevata condivisione delle risorse e una moltitudine di accessi ai sistemi informatici, permette agli intrusi di sfruttare questa tecnologia a scopi malevoli. Per contrastare le intrusioni e gli attacchi ai dati sensibili degli utenti, vengono implementati sistemi di rilevamento delle intrusioni e metodi di difesa in ambiente virtualizzato, allo scopo di garantire una sicurezza globale fondata sia sul concetto di prevenzione, sia su quello di cura: un efficace sistema di sicurezza deve infatti rilevare eventuali intrusioni e pericoli imminenti, fornendo una prima fase difensiva a priori, e, al contempo, evitare fallimenti totali, pur avendo subito danni, e mantenere alta la qualità del servizio, garantendo una seconda fase difensiva, a posteriori. Questa tesi illustra i molteplici metodi di funzionamento degli attacchi distribuiti e dell'hacking malevolo, con particolare riferimento ai pericoli di ultima generazione, e definisce le principali strategie e tecniche atte a garantire sicurezza, protezione e integrità dei dati all'interno di un sistema Cloud.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Derzeit stellt die allergenspezifische Immuntherapie die einzige nicht allein antisymptomatische Behandlungsform zur langfristigen Therapie von Typ I-Allergien dar, welche grundlegende Änderungen im immunologischen Geschehen induziert. Sie ist jedoch verbesserungswürdig in Bezug auf Behandlungsdauer, Erfolgschancen und Nebenwirkungen. Daher wurde in dieser Arbeit eine Strategie zur Therapie von Typ I-Allergien entwickelt und evaluiert, welche auf der Inhibition allergenspezifischer T-Zellen durch Dendritische Zellen (DC), die selektiv nach DNA-Immunisierung sowohl das relevante Allergen als auch Indolamin 2,3-dioxygenase (IDO) konstitutiv produzieren, basiert. IDO ist ein Enzym aus dem Tryptophan-Stoffwechsel, dessen Produktion durch DC einen lokalen immunsuppressiven Mechanismus induziert und in verschiedenen Situationen mit der Induktion peripherer Toleranz assoziiert ist. Zunächst wurden Plasmide hergestellt, die entweder IDO alleine oder IDO zusammen mit dem Antigen unter der Kontrolle des ubiquitär aktiven CMV- bzw. des DC-spezifischen Fascin-Promotors kodieren. Die Überprüfung der IDO-Expression durch die monocistronischen Plasmide anhand von Transfektionsexperimenten in vitro ergab, dass die IDO-Expression unter der Kontrolle des CMV-Promotors sehr viel stärker ausfiel als unter der Kontrolle des Fascin-Promotors. Nach Transfektion mit den bicistronischen Vektoren, in denen die Transgene für das Antigen und IDO durch eine IRES-Sequenz verbunden waren, war die IDO-Expression jedoch insgesamt sehr schwach. Im Rahmen der Überprüfung der Funktionalität der IDO-Expressionplasmide in vivo unter Verwendung der Genpistole wurden daher lediglich Plasmide getestet, die alleine IDO unter der Kontrolle des CMV-Promotors bzw. des Fascin-Promotors kodieren. Auch in vivo wurde eine stärkere IDO-Expression nach biolistischer Transfektion mit solchen Vektoren beobachtet, in denen der CMV-Promotor zur Expressionskontrolle verwendet wurde. Die Analyse des Einflusses einer Koexpression von IDO auf die durch biolistische Immunisierung mit einem antigenkodierenden Vektor induzierte systemische Immunantwort offenbarte einen inhibitorischer Effekt für den Fall, dass die Antigenproduktion mittels des Fascin-Promotors auf DC fokussiert war und die Expression des koapplizierten IDO-Transgens unter der Kontrolle des CMV-Promotors stand. In diesem Fall wurde eine Reduktion der antigenspezifischen IgG1- und IgG2a-Produktion, eine verringerte Sekretion von IFN-y durch restimulierte Milz- und Lymphknotenzellen sowie eine Reduktion der Zahl antigenspezifischer CD8+ Effektor-T-Zellen nachgewiesen. Im Mausmodell der IgE-vermittelten Typ I-Allergie wurde weiterhin gezeigt, dass nach prophylaktischer biolistischer Vakzinierung unter Verwendung dieser Vektorkombination eine Inhibition der durch die Vakzinierung bedingten antigenspezifischen Th1-Immunantwort ausgelöst wurde. Die Suppression der Th2-Antwort, welche durch Transfektion mit dem Antigenkodierenden Vektor unter Kontrolle des Fascin-Promotors bewirkt wurde, wurde durch Kotransfektion mit den IDO-kodierenden Vektoren aufrecht erhalten.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente ricerca ha un duplice obiettivo. Primo, individuare i modi in cui lingue e identità culturali diverse sono state rappresentate al cinema. Secondo, identificare le diverse strade imboccate dai professionisti del doppiaggio italiano quando si trovano a confrontarsi con un film in cui si parlano più lingue. La ricerca propone un approccio multidisciplinare che combina i contributi teorici sviluppati nel campo degli studi di traduzione audiovisiva con le modalità di analisi più comunemente utilizzate dalla semiotica del cinema. L'analisi si basa su un campione di 224 film multilingue prodotti dall'inizio degli anni Trenta alla fine degli anni Duemila. Particolare attenzione viene indirizzata al quadro teorico all'interno del quale viene interpretato il ruolo che il multilinguismo assume al cinema. Vengono identificate tre funzioni principali: conflitto, confusione e resa realistica. Un altro elemento chiave nell'analisi è costituito dal genere cinematografico prevalente a cui è possibile ricondurre ciascuno dei film selezionati. Sono individuati tre generi principali: il film drammatico, la commedia e il thriller. Nel film drammatico il multilinguismo agisce come un veicolo che produce e accentua il conflitto, mentre nella commedia esso di solito diventa un dispositivo comico che crea confusione e umorismo. Nel cinema thriller, invece, il multilinguismo funziona essenzialmente come un veicolo di suspense. Per quanto riguarda le soluzioni traduttive adottate nel doppiaggio italiano del cinema multilingue, sono rilevate tre macro-strategie: la conservazione, la neutralizzazione e la riduzione dell'originale dimensione multilingue. Ciascuna di queste tre strategie è passata a vaglio critico. Se nel primo caso si tratta di un tentativo di riprodurre fedelmente le originali situazioni multilingue rappresentate nel film, negli altri due casi si tratta di soluzioni che risentono fortemente delle specificità del doppiaggio come modalità di traduzione degli audiovisivi (fattori ideologici ed economici, nonché il problema tecnico dell'armonizzazione delle voci per i personaggi bilingue).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente lavoro di tesi si inserisce nell’ambito della classificazione di dati ad alta dimensionalità, sviluppando un algoritmo basato sul metodo della Discriminant Analysis. Esso classifica i campioni attraverso le variabili prese a coppie formando un network a partire da quelle che hanno una performance sufficientemente elevata. Successivamente, l’algoritmo si avvale di proprietà topologiche dei network (in particolare la ricerca di subnetwork e misure di centralità di singoli nodi) per ottenere varie signature (sottoinsiemi delle variabili iniziali) con performance ottimali di classificazione e caratterizzate da una bassa dimensionalità (dell’ordine di 101, inferiore di almeno un fattore 103 rispetto alle variabili di partenza nei problemi trattati). Per fare ciò, l’algoritmo comprende una parte di definizione del network e un’altra di selezione e riduzione della signature, calcolando ad ogni passaggio la nuova capacità di classificazione operando test di cross-validazione (k-fold o leave- one-out). Considerato l’alto numero di variabili coinvolte nei problemi trattati – dell’ordine di 104 – l’algoritmo è stato necessariamente implementato su High-Performance Computer, con lo sviluppo in parallelo delle parti più onerose del codice C++, nella fattispecie il calcolo vero e proprio del di- scriminante e il sorting finale dei risultati. L’applicazione qui studiata è a dati high-throughput in ambito genetico, riguardanti l’espressione genica a livello cellulare, settore in cui i database frequentemente sono costituiti da un numero elevato di variabili (104 −105) a fronte di un basso numero di campioni (101 −102). In campo medico-clinico, la determinazione di signature a bassa dimensionalità per la discriminazione e classificazione di campioni (e.g. sano/malato, responder/not-responder, ecc.) è un problema di fondamentale importanza, ad esempio per la messa a punto di strategie terapeutiche personalizzate per specifici sottogruppi di pazienti attraverso la realizzazione di kit diagnostici per l’analisi di profili di espressione applicabili su larga scala. L’analisi effettuata in questa tesi su vari tipi di dati reali mostra che il metodo proposto, anche in confronto ad altri metodi esistenti basati o me- no sull’approccio a network, fornisce performance ottime, tenendo conto del fatto che il metodo produce signature con elevate performance di classifica- zione e contemporaneamente mantenendo molto ridotto il numero di variabili utilizzate per questo scopo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Trotz zahlreicher Hinweise auf die Existenz von Dunkler Materie, konnten entsprechende Teilchen bisher nicht nachgewiesen werden. Eine große Anzahl an Experimenten wird durchgeführt, um die Eigenschaften möglicher Kandidatenteilchen zu untersuchen. Eine Strategie ist die Suche nach einem Neutrinosignal aus den Annihilationen von schwach wechselwirkenden massiven Teilchen (WIMPs) in Regionen mit hoher Dichte von Dunkler Materie. Mögliche Zielobjekte dieser Suchen sind die Erde, die Sonne, das Zentrum und der Halo der Milchstraße sowie entfernte Objekte, die einen hohen Anteil Dunkler Materie aufweisen.In der vorliegenden Arbeit wird die erste Suche nach einem Neutrinosignal von Zwerggalaxien, größeren Galaxien und Galaxienhaufen beschrieben. Da kein Signal nachgewiesen wurde, konnten obere Grenzen auf den Annihilationsquerschnitt von WIMPs gesetzt werden. Die stärksten Grenzen wurden aus der Beobachtung des Virgo-Haufens unter der Annahme einer großen Signalverstärkung durch Unterstrukturen in der Dichteverteilung abgeleitet. Für WIMP-Massen oberhalb von einigen TeV ist das Ergebnis vergleichbar mit Grenzen, die aus der Suche mit Gammateleskopen abgeleitet wurden. Für den direkten Annihilationskanal in zwei Neutrinos konnte der Wirkungsquerschnitt stärker eingeschränkt werden, als in bisherigen Analysen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dopo aver introdotto alcune nozioni della teoria della probabilità, ho esposto il teorema di Chebyshev ed alcuni teoremi ad esso collegati. Ho infine analizzato un'applicazione legata alle strategie d'investimento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Con il presente studio si è inteso analizzare l’impatto dell’utilizzo di una memoria di traduzione (TM) e del post-editing (PE) di un output grezzo sul livello di difficoltà percepita e sul tempo necessario per ottenere un testo finale di alta qualità. L’esperimento ha coinvolto sei studenti, di madrelingua italiana, del corso di Laurea Magistrale in Traduzione Specializzata dell’Università di Bologna (Vicepresidenza di Forlì). I partecipanti sono stati divisi in tre coppie, a ognuna delle quali è stato assegnato un estratto di comunicato stampa in inglese. Per ogni coppia, ad un partecipante è stato chiesto di tradurre il testo in italiano usando la TM all’interno di SDL Trados Studio 2011. All’altro partecipante è stato chiesto di fare il PE completo in italiano dell’output grezzo ottenuto da Google Translate. Nei casi in cui la TM o l’output non contenevano traduzioni (corrette), i partecipanti avrebbero potuto consultare Internet. Ricorrendo ai Think-aloud Protocols (TAPs), è stato chiesto loro di riflettere a voce alta durante lo svolgimento dei compiti. È stato quindi possibile individuare i problemi traduttivi incontrati e i casi in cui la TM e l’output grezzo hanno fornito soluzioni corrette; inoltre, è stato possibile osservare le strategie traduttive impiegate, per poi chiedere ai partecipanti di indicarne la difficoltà attraverso interviste a posteriori. È stato anche misurato il tempo impiegato da ogni partecipante. I dati sulla difficoltà percepita e quelli sul tempo impiegato sono stati messi in relazione con il numero di soluzioni corrette rispettivamente fornito da TM e output grezzo. È stato osservato che usare la TM ha comportato un maggior risparmio di tempo e che, al contrario del PE, ha portato a una riduzione della difficoltà percepita. Il presente studio si propone di aiutare i futuri traduttori professionisti a scegliere strumenti tecnologici che gli permettano di risparmiare tempo e risorse.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Regulierung und Steuerung von Hochschulen unterliegt spätestens seit der Liberalisierung des Hochschulrahmengesetzes im Jahr 1998 einer erheblichen Reformdynamik. Hochschulautonomie, New Public Management, Profilbildung, Exzellenz und Wettbewerb sind zentrale Stichworte im Rahmen der durchgeführten politischen Reformen und Programme.rnDer politisch intendierte Ausbau einer organisationalen Selbststeuerung von Universitäten stellt die Hochschulen vor beachtliche Herausforderungen und kann als Paradigmenwechsel im Bereich der Hochschul-Governance betrachtet werden. In der Fachdiskussion wird der entsprechende Wandel auch als Stärkung der „managerial governance“ (bspw. de Boer et al. 2007) oder als Wandel von Universitäten hin zu „more complete organizations“ (Brunsson/ Sahlin-Andersson 2000) bzw. „organisational actors“ (Krücken/Meier 2006) beschrieben. rnGleichzeitig liegt bislang eher fragmentarisches Wissen darüber vor, wie der veränderte Re-gulierungskontext von den Steuerungsakteuren in deutschen Hochschulen aufgegriffen wird, d.h. ob auf Organisationsebene tatsächlich ein Ausbau der organisationalen Selbststeuerung stattfindet, welche Steuerungsinitiativen und -instrumente sich bewähren und warum dies der Fall ist. Die vorliegende Arbeit geht diesen Fragen im Rahmen einer vergleichenden Fallstudie an sechs Universitäten nach. rnIm Zentrum der empirischen Erhebung stehen 60 qualitative sozialwissenschaftliche Interviews mit Leitungsakteuren auf Hochschul- und Fachbereichsebene. Diese Daten werden ergänzt durch umfangreiche Dokumentenanalysen, insbesondere von Jahresberichten, Grundordnungen, Strategie- und Planungsdokumenten sowie durch Daten der amtlichen Hochschul-statistik. Das Untersuchungsdesign erlaubt überdies eine Gegenüberstellung von großen und kleinen Universitäten sowie von Hochschulen mit einer technisch-naturwissenschaftlichen Ausrichtung gegenüber solchen mit einem kultur- und sozialwissenschaftlichen Schwerpunkt. Die Untersuchung zeigt, dass an fünf der sechs untersuchten Hochschulen ein zum Teil deutlicher Ausbau der organisationalen Selbststeuerung festzustellen ist, wenngleich der spezifische organisationale Charakter von Universitäten, d.h. eine weitgehend lose Kopplung mit autonomen Professionals, im Wesentlichen erhalten bleibt. Die Zusammenschau der Veränderungen ergibt ein idealtypisches Modell des Wandels von Strategie, Struktur und Kultur der Hochschulen. Auf Basis der empirischen Ergebnisse werden weiterhin zentrale externe und interne Einflussfaktoren auf den spezifischen organisationalen Wandel analysiert. Schließlich werden Kosten und Nutzen sowie Risiken und Chancen der Governance-Reformen im Hoch-schulbereich gegenübergestellt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente elaborato è dedicato alla proposta di traduzione, dallo spagnolo in italiano, del romanzo di Antonio Ventura "Un amor en tres tiempos". Protagonisti della storia sono Emile e Alexandra e il sentimento amoroso che li lega lungo i ventotto anni in cui essa si sviluppa. Attraverso le loro emozioni e le loro paure, Ventura ci fa entrare, in modo mirabile, nel mondo dei due protagonisti, con un’approfondita indagine introspettiva nella loro vita, seguendo l’evoluzione di un sentimento che si modula, nei tre tempi cui fa accenno il titolo, dall’infanzia, quindi l’adolescenza, infine, l’età adulta. Oltre all’introduzione e alle conclusioni, il lavoro si compone di cinque capitoli: il primo è dedicato all’autore che ho avuto modo di conoscere di persona e di incontrare più volte, sia in Italia sia in Spagna, e con cui ho mantenuto uno stretto rapporto di collaborazione lungo tutto il percorso traduttivo; nel secondo sviluppo la mia analisi del testo focalizzandomi su trama, paratesto, temi, personaggi, narratore, tempo e spazio della storia e stile dell’autore; il terzo, che contiene la proposta di traduzione, è seguito dal commento alla traduzione, argomento sia del quarto capitolo, di carattere teorico, che del quinto, in cui si analizzano più da vicino i problemi traduttivi riscontrati e le strategie messe in atto per risolverli.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Patienten, die an Osteosarkom leiden werden derzeit mit intravenös applizierten krebstherapeutischen Mitteln nach Tumorresektion behandelt, was oftmals mit schweren Nebenwirkungen und einem verzögerten Knochenheilungsprozess einhergeht. Darüber hinaus treten vermehrt Rezidive aufgrund von verbleibenden neoplastischen Zellen an der Tumorresektionsstelle auf. Erfolgreiche Knochenregeneration und die Kontrolle von den im Gewebe verbleibenden Krebszellen stellt eine Herausforderung für das Tissue Engineering nach Knochenverlust durch Tumorentfernung dar. In dieser Hinsicht scheint der Einsatz von Hydroxyapatit als Knochenersatzmaterial in Kombination mit Cyclodextrin als Medikamententräger, vielversprechend. Chemotherapeutika können an Biomaterial gebunden und direkt am Tumorbett über einen längeren Zeitraum freigesetzt werden, um verbliebene neoplastische Zellen zu eliminieren. Lokal applizierte Chemotherapie hat diverse Vorteile, einschließlich der direkten zytotoxischen Auswirkung auf lokale Zellen, sowie die Reduzierung schwerer Nebenwirkungen. Diese Studie wurde durchgeführt, um die Funktionsfähigkeit eines solchen Arzneimittelabgabesystems zu bewerten und um Strategien im Bereich des Tissue Engineerings zu entwickeln, die den Knochenheilungsprozess und im speziellen die Vaskularisierung fördern sollen. Die Ergebnisse zeigen, dass nicht nur Krebszellen von der chemotherapeutischen Behandlung betroffen sind. Primäre Endothelzellen wie zum Beispiel HUVEC zeigten eine hohe Sensibilität Cisplatin und Doxorubicin gegenüber. Beide Medikamente lösten in HUVEC ein tumor-unterdrückendes Signal durch die Hochregulation von p53 und p21 aus. Zudem scheint Hypoxie einen krebstherapeutischen Einfluss zu haben, da die Behandlung sensitiver HUVEC mit Hypoxie die Zellen vor Zytotoxizität schützte. Der chemo-protektive Effekt schien deutlich weniger auf Krebszelllinien zu wirken. Diese Resultate könnten eine mögliche chemotherapeutische Strategie darstellen, um den Effekt eines zielgerichteten Medikamenteneinsatzes auf Krebszellen zu verbessern unter gleichzeitiger Schonung gesunder Zellen. Eine erfolgreiche Integration eines Systems, das Arzneimittel abgibt, kombiniert mit einem Biomaterial zur Stabilisierung und Regeneration, könnte gesunden Endothelzellen die Möglichkeit bieten zu proliferieren und Blutgefäße zu bilden, während verbleibende Krebszellen eliminiert werden. Da der Prozess der Knochengeweberemodellierung mit einer starken Beeinträchtigung der Lebensqualität des Patienten einhergeht, ist die Beschleunigung des postoperativen Heilungsprozesses eines der Ziele des Tissue Engineerings. Die Bildung von Blutgefäßen ist unabdingbar für eine erfolgreiche Integration eines Knochentransplantats in das Gewebe. Daher ist ein umfangreich ausgebildetes Blutgefäßsystem für einen verbesserten Heilungsprozess während der klinischen Anwendung wünschenswert. Frühere Experimente zeigen, dass sich die Anwendung von Ko-Kulturen aus humanen primären Osteoblasten (pOB) und humanen outgrowth endothelial cells (OEC) im Hinblick auf die Bildung stabiler gefäßähnlicher Strukturen in vitro, die auch effizient in das mikrovaskuläre System in vivo integriert werden konnten, als erfolgreich erweisen. Dieser Ansatz könnte genutzt werden, um prä-vaskularisierte Konstrukte herzustellen, die den Knochenheilungsprozess nach der Implantation fördern. Zusätzlich repräsentiert das Ko-Kultursystem ein exzellentes in vitro Model, um Faktoren, welche stark in den Prozess der Knochenheilung und Angiogenese eingebunden sind, zu identifizieren und zu analysieren. Es ist bekannt, dass Makrophagen eine maßgebliche Rolle in der inflammatorisch-induzierten Angiogenese spielen. In diesem Zusammenhang hebt diese Studie den positiven Einfluss THP-1 abgeleiteter Makrophagen in Ko-Kultur mit pOB und OEC hervor. Die Ergebnisse zeigten, dass die Anwendung von Makrophagen als inflammatorischer Stimulus im bereits etablierten Ko-Kultursystem zu einer pro-angiogenen Aktivierung der OEC führte, was in einer signifikant erhöhten Bildung blutgefäßähnlicher Strukturen in vitro resultierte. Außerdem zeigte die Analyse von Faktoren, die in der durch Entzündung hervorgerufenen Angiogenese eine wichtige Rolle spielen, eine deutliche Hochregulation von VEGF, inflammatorischer Zytokine und Adhäsionsmoleküle, die letztlich zu einer verstärkten Vaskularisierung beitragen. Diese Resultate werden dem Einfluss von Makrophagen zugeschrieben und könnten zukünftig im Tissue Engineering eingesetzt werden, um den Heilungsprozess zu beschleunigen und damit die klinische Situation von Patienten zu verbessern. Darüber hinaus könnte die Kombination der auf Ko-Kulturen basierenden Ansätze für das Knochen Tissue Engineering mit einem biomaterial-basierenden Arzneimittelabgabesystem zum klinischen Einsatz kommen, der die Eliminierung verbliebener Krebszellen mit der Förderung der Knochenregeneration verbindet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'obiettivo della mia tesi di laurea è quello di proporre la traduzione in italiano di "La fragilidad de las panteras", un romanzo scritto dall'autrice madrilena María Tena. Il lavoro si divide in quattro capitoli. Il primo contiene una presentazione dell'autrice e delle sue opere, con un paragrafo dedicato alla trascrizione dell'intervista rilasciatami da María Tena a Madrid. Il secondo capitolo presenta un'analisi dettagliata dell'opera e delle sue caratteristiche principali: la trama, i personaggi, lo spazio e il tempo in cui si svolgono le vicende, lo stile dell'autrice e i temi trattati. Il terzo capitolo è interamente dedicato alla proposta di traduzione del romanzo, mentre nel quarto e ultimo capitolo viene descritta la metodologia traduttiva utilizzata, analizzando i principali problemi incontrati durante la fase di traduzione e le strategie impiegate per risolverli.