996 resultados para diffusione anelastica, Compton, apparato sperimentale
Resumo:
In questa tesi, utilizzando le particolari proprietà del polimero conduttivo poli(3,4-etilenediossitiofene) drogato con polistirene sulfonato , o PEDOT:PSS, sono stati realizzati dei transistor elettrochimici organici (OECTs), in cui il gate e canale source-drain sono stati realizzati depositando su substrato di vetro film sottili di questo polimero. I dispositivi realizzati sono stati caratterizzati, per comprenderne meglio le funzionalità e le proprietà per possibili applicazioni future, in particolare come sensori di glucosio. Il PEDOT:PSS è uno dei materiali più studiati per applicazioni della bioelettronica in virtù della sua grande stabilità chimica e termica, della reversibilità del suo processo di drogaggio, della grande conducibilità e delle sue proprietà elettrochimiche, nonché della sua attività in un vasto range di pH. Vengono trattate nell’elaborato anche le tecniche di deposizione di questo polimero per la creazione di film sottili, necessari per le varie applicazioni nell’ambito della bioelettronica organica, la quale si propone di unire la biologia e l’elettronica in un mutuale scambio di informazioni e segnali. Questa interazione si sta verificando soprattutto nel campo sanitario, come si può evincere dagli esempi riportati nella trattazione. Si conclude la parte teorica con una descrizione degli OECTs: viene spiegata la loro struttura, la capacità di connettere conducibilità ionica ed elettronica e il loro funzionamento, inserendo anche un confronto con i FET (“Field Effect Transistor”), per agevolare la comprensione dei meccanismi presenti in questi strumenti. Per la parte sperimentale si presenta invece una descrizione dettagliata dei procedimenti, degli strumenti e degli accorgimenti usati nel fabbricare i transistor sui quali si è lavorato in laboratorio, riportando anche una piccola esposizione sulle principali misure effettuate: curve caratterische I–V, transcaratteristiche e misure di corrente nel tempo sono le principali acquisizioni fatte per studiare i dispositivi. E’ stata studiata la diversa risposta degli OECTs al variare della concentrazione di PBS in soluzione, mostrando un generale rallentamento dei processi e una diminuzione della capacità di modificare la corrente source-drain al calare della concentrazione. In seguito, è stato effettuato un confronto tra transistor appena fatti e gli stessi analizzati dopo un mese, osservando una riduzione della corrente e quindi della conducibilità, seppur senza una modifica qualitativa delle curve caratteristiche (che mantengono il loro andamento). Per quanto riguarda la possibilità di usare questi dispositivi come sensori di glucosio, si introduce uno studio preliminare sulla risposta di un transistor, il cui gate è stato funzionalizzato con ferrocene, alla presenza di glucosio e glucosio ossidasi, un enzima necessario al trasferimento di elettroni, nella soluzione elettrolitica, seppur con qualche difficoltà, per via della mancanza di informazioni sui parametri da utilizzare e il range in cui compiere le misure (tuttora oggetto di ricerca).
Resumo:
La tesi si occupa dell’integrazione di misure NMR e microscopiche per la descrizione quantitativa degli effetti di stress esterni su colture cellulari. Una maggiore comprensione dei dati ricavati tramite NMR potrebbe consentire di interpretare la vitalità e funzionalità cellulare attraverso la localizzazione spaziale degli idrogeni. L'ipotesi di partenza è che la compartimentazione degli idrogeni (associati a molecole di acqua) nel citoplasma possa fornire una stima del numero di cellule vitali (e quindi in grado di mantenere l'acqua al proprio interno mediante processi attivi). I risultati NMR, prodotti dal gruppo di ricerca del Dipartimento di Fisica e Astronomia dell’Università di Bologna della Prof.ssa Fantazzini, sono stati comparati con le informazioni acquisite dal candidato tramite metodologie di conteggio cellulare (sia vive che morte) presenti in un campione sottoposto a forte e prolungato stress (assenza di terreno di coltura e di bilanciamento del sistema tampone tramite CO2 per 400 ore). Cellule da una linea di glioblastoma multiforme (T98G) mantenute in condizioni di coltura standard sono state preparate secondo lo stesso protocollo per entrambe le tecniche di indagine, e monitorate per intervalli di tempo paragonabili. Le immagini delle cellule ottenute al microscopio ottico in modalità “contrasto di fase” sono state acquisite e utilizzate per l’analisi. Una volta definito un metodo di conteggio sperimentale, è stato possibile dedurre il comportamento delle concentrazioni di cellule sopravvissute in funzione del tempo di campionamento. Da una serie ripetuta di esperimenti è stato caratterizzato un andamento nel tempo di tipo esponenziale decrescente per il numero di cellule vive, permettendo la stima della costante di decadimento in buon accordo tra i vari esperimenti. Un analogo modello esponenziale è stato utilizzato per la descrizione dell'aumento del numero di cellule morte. In questo caso, la difficoltà nell'individuare cellule morte integre (per la frammentazione delle membrane cellulari dopo la morte) ha contribuito a determinare una sistematica sottostima nei conteggi. Il confronto dei risultati NMR e microscopici indica che la diminuzione del numero di cellule vive corrisponde ad una analoga diminuzione degli H1 compartimentalizzati fino ad un tempo specifico di circa 50-60 ore in tutti gli esperimenti. Oltre questo tempo, i dati di NMR mostrano invece un incremento di H1 compartimentalizzati, quando invece il numero di cellule vive continua a diminuire in modo monotono. Per interpretare i risultati ottenuti, è stato quindi ipotizzato che, a partire da cellule morte frammentate, strutture micellari e liposomiali formate dai lipidi di membrana in soluzione possano intrappolare gli H1 liberi, aumentando il segnale di risposta della componente compartimentalizzata come evidenziato in NMR.
Resumo:
In questo lavoro di Tesi viene studiata la realizzazione di un sistema per la generazione di seconda armonica di una luce laser infrarossa. Il lavoro è stato svolto presso l'Univerità di Firenze nell'ambito di un esperimento di fisica atomica, nel quale viene studiato il comportamento di una miscela di atomi freddi di Potassio-Rubidio. Per la realizzazione sperimentale è richiesto l'utilizzo di un fascio laser con luce verde a 532 nm. Per ottenere questo fascio si è ricorso alla generazione di seconda armonica di un laser con luce infrarossa a 1064 nm, sfruttando le proprietà dei cristalli non lineari. Il cristallo utilizzato è un cristallo periodically poled di Tantalato di Litio, che sfrutta la tecnica del Quasi-Phasematching per generare seconda armonica. L'obiettivo principale di questo lavoro è stato quello di caratterizzare il sistema di duplicazione per poter ottimizzare la produzione del fascio verde. Infatti la produzione di seconda armonica dipende da diversi fattori sperimentali, quali la temperatura alla quale si trova il cristallo e la posizione del fuoco del fascio incidente rispetto al cristallo. Per prima cosa si sono ottimizzati i parametri del fascio infrarosso, cercando quelli per i quali la produzione di seconda armonica è maggiormente efficiente. Questo è stato effettuato caratterizzando il fascio per trovarne la posizione del fuoco e la sua larghezza. Nella seconda parte si è studiata l'efficienza di produzione di seconda armonica. La temperatura del cristallo influenza notevolmente la produzione di seconda armonica, quindi si è cercata la temperatura ottimale a cui l'efficienza di duplicazione è massima. Inoltre si è anche calcolata l'ampiezza massima delle oscillazioni di temperatura a cui è possibile sottoporre il cristallo senza uscire dalla zona in cui la duplicazione è efficiente. Per trovare la temperatura ottimale si è studiato l'andamento dell'efficienza in funzione della temperatura del cristallo. Analizzando questo andamento si sono anche verificati i coefficienti non lineari del cristallo dichiarati dal produttore.
Resumo:
In questo elaborato andremo a descrivere, sia a livello strutturale che implementativo, il progetto sperimentale da noi ideato volto alla creazione di un laboratorio virtuale di testing. Lo scopo principale del laboratorio è appunto quello di delocalizzare la fase preliminare di testing di un'applicazione; nel nostro caso specifico siamo partiti dallo scenario riguardante la rete ferroviaria ed abbiamo preso in esame il software utilizzato per la gestione del traffico. Il vincolo principale che grava su questo progetto è che l'applicazione da collaudare non deve minimamente essere modificata, e ciò significa che occorre creare intorno ad essa un ambiente di testing conforme alle caratteristiche in cui il software si aspetta di operare. Ed è qui che entra in gioco la virtualizzazione.
Resumo:
Un LiDAR è uno strumento di misura che sta vedendo uno sviluppo enorme negli ultimi decenni e sta dando risultati di grande utilità pratica. Abbiamo svolto alcune misure di distanza utilizzando uno strumento realizzato con materiale di recupero e un semplice software scritto da noi. In una prima parte del lavoro, più teorica, si illustrerà il funzionamento dello strumen- to, basato sull’invio di fasci laser su bersagli opachi e sulla ricezione della loro riflessione. Si presterà particolare attenzione ai metodi sviluppati per poter sfruttare laser continui piuttosto che impulsati, che risulterebbero più costosi: le sequenze pseudocasuali di bit. Nella parte sperimentale invece si mostrerà l’analisi dei dati effettuata e si commen- teranno i risultati ottenuti osservando le misure, con lo scopo di verificare alcune ipotesi, fra cui si darà particolare attenzione al confronto delle diverse sequenze. Lo scopo di questo lavoro è caratterizzare lo strumento tramite l’analisi delle misure e verificare l’asserzione dell’articolo [1] in bibliografia secondo cui particolari sequenze di bit (A1 e A2) darebbero risultati migliori se utilizzate al posto della sequenza pseudocasuale di lunghezza massima, M-sequence.
Resumo:
Il presente studio si concentra sull’analisi degli aspetti traslazionali nella ricerca farmacologica applicata alla Gastroenterologia. La trattazione si articola in due parti: una prima elaborazione teorica, che permette di inquadrare nel contesto della ricerca traslazionale il razionale scientifico ed etico alla base delle attività sperimentali eseguite durante il triennio; una seconda parte, nella quale si riportano i metodi, i risultati e le osservazioni conclusive derivanti dallo studio sperimentale. Nella prima parte vengono analizzate alcune caratteristiche delle procedure, adottate nella ricerca in ambito farmacologico gastrointestinale, che permettono di ottenere un dato verosimile derivabile da modelli diversi rispetto all’organismo umano. Sono inclusi nella trattazione gli aspetti etici dell’utilizzo di alcuni modelli animali di patologie intestinali organiche e funzionali in relazione al loro grado di predittività rispetto alla realtà sperimentale clinica. Nella seconda parte della trattazione, viene presentato uno studio esplorativo tissutale multicentrico sul ruolo del sistema oppioide e cannabinoide nella sindrome dell’intestino irritabile (IBS). Obiettivo dello studio è la valutazione dell’espressione e la localizzazione del recettore oppioide µ (µOR), del suo ligando β endorfina (β-END) e del recettore cannabinoide 2 (CB2) nei pazienti con IBS ad alvo costipato (IBS-C) e diarroico (IBS-D), ed in soggetti sani (HC). I dati ottenuti indicano un’implicazione del sistema oppioide e cannabinoide nella risposta immune alterata riscontrata nei pazienti con IBS ed in particolare nel sottogruppo IBS-C. La presente trattazione suggerisce come la creazione di nuovi sistemi di indagine sempre più validi da un punto di vista traslazionale possa dipendere, almeno in parte, dalla capacità di integrare realtà disciplinari, tecnologie ed esperienze metodologiche diverse nel contesto della ricerca in campo biomedico e farmacologico ed in particolare tramite un mutuo scambio di informazioni tra realtà clinica e ricerca di base
Resumo:
The aim of the Research of this Ph D Project is to improve the medical management after surgery for advanced heart failure, both after left ventricular assist devices (LVAD) implantation, and after heart transplantation in the long-term. Regarding heart transplantation (HTx), the Research Project is focused on diagnostics, classification, prevention and treatment of cardiac allograft vasculopathy (CAV), and on treatment of post-HTx cancers; the results are presented in the first part of this Thesis. In particular, the main aspect investigated are the prognostic role of information derived from coronary angiography, coronary tomography and intravascular ultrasound, and the different sensitivity of these techniques in predicting outcomes and in diagnosing CAV. Moreover, the role of mTOR inhibitors on CAV prevention or treatment is investigated, both alone and in combination with different anti-CMV prevention strategies, as well as the impact of mTOR inhibitors on clinical outcomes in the long term. Regarding LVAD, the main focus is on the role of transthoracic echocardiography in the management of patients with a continuous-flow, centrifugal, intrapericardial pump (HVAD, Heartware); this section is reported in the second part of this Thesis. The main aspects investigated are the use of echocardiography in patients with HVAD device and its interaction with the information derived from pump curves' analysis in predicting aortic valve opening status, a surrogate of the condition of support provided by the LVAD.
Resumo:
Background-Amyloidotic cardiomyopathy (AC) can mimic true left ventricular hypertrophy (LVH), including hypertrophic cardiomyopathy (HCM) and hypertensive heart disease (HHD). We assessed the diagnostic value of combined electrocardiographic/echocardiographic indexes to identify AC among patients with increased echocardiographic LV wall thickness due to either different etiologies of amyloidosis or HCM or HHD. Method-First, we studied 469 consecutive patients: 262 with biopsy/genetically proven AC (with either AL or transthyretin (TTR)-related amyloidosis); 106 with HCM; 101 with HHD. We compared the diagnostic performance of: low QRS voltage, symmetric LVH, low QRS voltage plus interventricular septal thickness >1.98 cm, Sokolow index divided by the cross-sectional area of LV wall, Sokolow index divided by body surface area indexed LV mass (LVMI), Sokolow index divided by LV wall thickness, Sokolow index divided by (LV wall/height^2.7); peripheral QRS score divided by LVMI, Peripheral QRS score divided by LV wall thickness, Peripheral QRS score divided by LV wall thickness indexed to height^2.7, total QRS score divided by LVMI, total QRS score divided by LV wall thickness; total QRS score divided by (LV wall/height^2.7). We tested each criterion, separately in males and females, in the following settings: AC vs. HCM+HHD; AC vs. HCM; AL vs. HCM+HHD; AL vs. HCM; TTR vs. HCM+HHD; TTR vs. HCM. Results-Low QRS voltage showed high specificity but low sensitivity for the identification of AC. All the combined indexes had a higher diagnostic accuracy, being total QRS score divided by LV wall thickness or by LVMI associated with the best performances and the largest areas under the ROC curve. These results were validated in 298 consecutive patients with AC, HCM or HHD. Conclusions-In patients with increased LV wall thickness, a combined ECG/ echocardiogram analysis provides accurate indexes to non-invasively identify AC. Total QRS score divided by LVMI or LV wall thickness offers the best diagnostic performance.
Resumo:
Introduzione e scopo: la rapida diffusione delle malattie dismetaboliche sta modificando l’epidemiologia dell’epatocarcinoma (HCC). Scopo della tesi è, attraverso quattro studi, analizzare l’impatto di questi cambiamenti nella gestione clinica del paziente affetto da HCC. Materiali e metodi: quattro studi di coorte, condotti con analisi retrospettiva del database ITA.LI.CA. Studio 1:3658 pazienti arruolati tra il 01-01-2001 ed il 31-12-2012 suddivisi in base alla data di diagnosi:2001-2004 (954 pazienti), 2005-2008 (1122 pazienti), 2009-2012 (1582 pazienti). Studio 2:analisi comparativa tra 756 pazienti con HCC-NAFLD e 611 pazienti con HCC-HCV. Studio 3:proposta di quattro modelli alternativi al BCLC originale con validazione di una proposta di sottostadiazione dell’intermedio, considerando 2606 pazienti arruolati tra il 01-01-2000 e il 31-12-2012 e riallocati secondo gradi diversi di perfomance status (PS). Studio 4:analisi di 696 pazienti con HCC in stadio intermedio diagnosticato dopo il 1999 stratificati per trattamento. Risultati: studio 1:progressivo aumento dell’età alla diagnosi e delle eziologie dismetaboliche; più frequente esordio dell’HCC in stadio precoce e con funzione epatica più conservata; aumento della sopravvivenza dopo il 2008. Studio 2:i pazienti con HCC-NAFLD mostrano più frequentemente un tumore infiltrativo diagnosticato fuori dai programmi di sorveglianza, con prognosi peggiore rispetto ai pazienti HCC-HCV. Questa differenza di sopravvivenza si elimina rimuovendo i fattori di confondimento attraverso propensity analysis. Studio 3:il PS1 non è un predittore indipendente di sopravvivenza. Il modello 4 (considerando PS1=PS0 e con la sottostadiazione proposta), ha la migliore capacità discriminativa. Studio 4:i trattamenti curativi riducono la mortalità più della TACE, anche dopo propensity analysis. Conclusioni: l’aumento delle patologie dismetaboliche comporterà diagnosi di malattia ad uno stadio più avanzato, quando sintomatica, rendendo necessario stabilire un programma di sorveglianza. Inoltre per una migliore stratificazione e gestione dei pazienti, bisogna riconsiderare il ruolo del PS ed offrire un ventaglio di opzioni terapeutiche anche per il pazienti in stadio intermedio.
Resumo:
Background: Hypertrophic cardiomyopathy (HCM) is a common cardiac disease caused by a range of genetic and acquired disorders. The most common cause is genetic variation in sarcomeric proteins genes. Current ESC guidelines suggest that particular clinical features (‘red flags’) assist in differential diagnosis. Aims: To test the hypothesis that left ventricular (LV) systolic dysfunction in the presence of increased wall thickness is an age-specific ‘red flag’ for aetiological diagnosis and to determine long-term outcomes in adult patients with various types of HCM. Methods: A cohort of 1697 adult patients with HCM followed at two European referral centres were studied. Aetiological diagnosis was based on clinical examination, cardiac imaging and targeted genetic and biochemical testing. Main outcomes were: all-cause mortality or heart transplantation (HTx) and heart failure (HF) related-death. All-cause mortality included sudden cardiac death or equivalents, HF and stroke-related death and non-cardiovascular death. Results: Prevalence of different aetiologies was as follows: sarcomeric HCM 1288 (76%); AL amyloidosis 115 (7%), hereditary TTR amyloidosis 86 (5%), Anderson-Fabry disease 85 (5%), wild-type TTR amyloidosis 48 (3%), Noonan syndrome 15 (0.9%), mitochondrial disease 23 (1%), Friedreich’s ataxia 11 (0.6%), glycogen storage disease 16 (0.9%), LEOPARD syndrome 7 (0.4%), FHL1 2 (0.1%) and CPT II deficiency 1 (0.1%). Systolic dysfunction at first evaluation was significantly more frequent in phenocopies than sarcomeric HCM [105/409 (26%) versus 40/1288 (3%), (p<0.0001)]. All-cause mortality/HTx and HF-related death were higher in phenocopies compared to sarcomeric HCM (p<0.001, respectively). When considering specific aetiologies, all-cause mortality and HF-related death were higher in cardiac amyloidosis (p<0.001, respectively). Conclusion: Systolic dysfunction at first evaluation is more common in phenocopies compared to sarcomeric HCM representing an age-specific ‘red flag’ for differential diagnosis. Long-term prognosis was more severe in phenocopies compared to sarcomeric HCM and when comparing specific aetiologies, cardiac amyloidosis showed the worse outcomes.
Resumo:
Anche se la politica editoriale comunista rappresenta un campo di indagine fondamentale nella ricerca sul Pci, la sua attività editoriale è caduta in un oblio storico. Assumendo il libro come supporto materiale e veicolo della cultura politica comunista, e la casa editrice come canale di socializzazione, questa ricerca s’interroga sui suoi processi di costruzione e di diffusione. La ricerca si muove in due direzioni. Nel primo capitolo si è tentato di dare conto delle ragioni metodologiche dell’indagine e della messa a punto delle ipotesi di ricerca sul “partito editore”, raccogliendo alcune sfide poste alla storia politica da altri ambiti disciplinari, come la sociologia e la scienza politica, che rappresentano una vena feconda per la nostra indagine. La seconda direzione, empirica, ha riguardato la ricognizione delle fonti e degli strumenti di analisi per ricostruire le vicende del “partito editore” dal 1944 al 1956. La suddivisione della ricerca in due parti – 1944-1947 e 1947-1956 – segue a grandi linee la periodizzazione classica individuata dalla storiografia sulla politica culturale del Pci, ed è costruita su quattro fratture storiche – il 1944, con la “svolta di Salerno”; il 1947, con la “svolta cominformista”; il 1953, con la morte di Stalin e il disgelo; il 1956, con il XX Congresso e i fatti d’Ungheria – che sono risultate significative anche per la nostra ricerca sull’editoria comunista. Infine, il presente lavoro si basa su tre livelli di analisi: l’individuazione dei meccanismi di decisione politica e dell’organizzazione assunta dall’editoria comunista, esaminando gli scopi e i mutamenti organizzativi interni al partito per capire come i mutamenti strategici e tattici si sono riflessi sull’attività editoriale; la ricostruzione della produzione editoriale comunista; infine, l’identificazione dei processi di distribuzione e delle politiche per la lettura promosse dal Pci.
Resumo:
Il trattamento numerico dell'equazione di convezione-diffusione con le relative condizioni al bordo, comporta la risoluzione di sistemi lineari algebrici di grandi dimensioni in cui la matrice dei coefficienti è non simmetrica. Risolutori iterativi basati sul sottospazio di Krylov sono ampiamente utilizzati per questi sistemi lineari la cui risoluzione risulta particolarmente impegnativa nel caso di convezione dominante. In questa tesi vengono analizzate alcune strategie di precondizionamento, atte ad accelerare la convergenza di questi metodi iterativi. Vengono confrontati sperimentalmente precondizionatori molto noti come ILU e iterazioni di tipo inner-outer flessibile. Nel caso in cui i coefficienti del termine di convezione siano a variabili separabili, proponiamo una nuova strategia di precondizionamento basata sull'approssimazione, mediante equazione matriciale, dell'operatore differenziale di convezione-diffusione. L'azione di questo nuovo precondizionatore sfrutta in modo opportuno recenti risolutori efficienti per equazioni matriciali lineari. Vengono riportati numerosi esperimenti numerici per studiare la dipendenza della performance dei diversi risolutori dalla scelta del termine di convezione, e dai parametri di discretizzazione.
Resumo:
Gli stress abiotici determinando modificazioni a livello fisiologico, biochimico e molecolare delle piante, costituiscono una delle principali limitazioni per la produzione agricola mondiale. Nel 2007 la FAO ha stimato come solamente il 3,5% della superficie mondiale non sia sottoposta a stress abiotici. Il modello agro-industriale degli ultimi cinquant'anni, oltre ad avere contribuito allo sviluppo economico dell'Europa, è stato anche causa di inquinamento di acqua, aria e suolo, mediante uno sfruttamento indiscriminato delle risorse naturali. L'arsenico in particolare, naturalmente presente nell'ambiente e rilasciato dalle attività antropiche, desta particolare preoccupazione a causa dell'ampia distribuzione come contaminante ambientale e per gli effetti di fitotossicità provocati. In tale contesto, la diffusione di sistemi agricoli a basso impatto rappresenta una importante risorsa per rispondere all'emergenza del cambiamento climatico che negli anni a venire sottoporrà una superficie agricola sempre maggiore a stress di natura abiotica. Nello studio condotto è stato utilizzato uno stabile modello di crescita in vitro per valutare l'efficacia di preparati ultra diluiti (PUD), che non contenendo molecole chimiche di sintesi ben si adattano a sistemi agricoli sostenibili, su semi di frumento preventivamente sottoposti a stress sub-letale da arsenico. Sono state quindi condotte valutazioni sia a livello morfometrico (germinazione, lunghezza di germogli e radici) che molecolare (espressione genica valutata mediante analisi microarray, con validazione tramite Real-Time PCR) arricchendo la letteratura esistente di interessanti risultati. In particolare è stato osservato come lo stress da arsenico, determini una minore vigoria di coleptile e radici e a livello molecolare induca l'attivazione di pathways metabolici per proteggere e difendere le cellule vegetali dai danni derivanti dallo stress; mentre il PUD in esame (As 45x), nel sistema stressato ha indotto un recupero nella vigoria di germoglio e radici e livelli di espressione genica simili a quelli riscontrati nel controllo suggerendo un effetto "riequilibrante" del metabolismo vegetale.
Resumo:
Il sottotitolaggio è importante oggetto di studio della traduzione audiovisiva. Un incarico di sottotitolaggio viene generalmente assunto da un traduttore che dovrà rimanere fedele alla funzione del testo originale cambiando il mezzo, da orale a scritto, rispettando una serie di parametri. Gli eventi TED sono noti per la diffusione di idee e di discorsi illuminanti, che è possibile anche grazie al sottotitolaggio dei video. In quest’elaborato ho proposto i miei sottotitoli per un discorso TEDx Amsterdam, un evento TED organizzato in modo indipendente. Il relatore è il fotografo Jimmy Nelson, creatore di Before They Pass Away, raccolta fotografica che documenta 35 delle ultime tribù al mondo. Il primo capitolo è dedicato a TED e al discorso tenuto da Nelson e presenta gli obiettivi comunicativi dei suoi viaggi. Il secondo è dedicato alla traduzione audiovisiva e all’esposizione dei criteri del sottotitolaggio. Il terzo capitolo tratta delle strategie utilizzate, degli ostacoli incontrati e della risoluzione di problemi durante il sottotitolaggio. L'elaborato si conclude con l’appendice contenente la trascrizione del discorso e i sottotitoli italiani.
Resumo:
Il tumore del polmone e una delle neoplasie più diagnosticate dal 1985 e rimane ancora oggi la causa più frequente di morte cancro-correlata nel mondo. Una resezione polmonare anatomica completa continua ad essere il cardine della terapia per il tumore non a piccole cellule. Perdite aeree prolungate (PAL) sono la più comune complicanza dopo una chirurgia polmonare e sono state riportate con un’incidenza compresa tra il 3-26%, simile sia nelle resezioni polmonari per via toracotomica sia in quelle per via toracoscopica. Fattori di rischio descritti sono scissure interlobari incomplete, patologie polmonari sottostanti (come enfisema, fibrosi, tubercolosi o neoplasie), aderenze pleuriche, pazienti anziani (>75 anni) e bassa capacita di diffusione. Lo sviluppo di strumentazione all’avanguardia e di nuove tecniche chirurgiche ha contribuito a ridurre l’incidenza di queste complicanze. Considerando l’alto impatto clinico e socio-economico di queste problematiche, e stata inoltre sviluppata una varietà di complementari naturali e materiali sintetici molti utili nella gestione delle perdite aeree.