960 resultados para tomografia, computerizzata, tumore, perfusione, elaborazione, immagini, eterogeneità
Resumo:
Il presente lavoro si compone di tre capitoli, tra loro autonomi e allo stesso tempo intrinsecamente collegati. Nel primo capitolo si è voluto offrire una panoramica dello scenario agroalimentare italiano e della sua rilevanza nel sistema economico nazionale. Per fare ciò si è partiti da una disamina del contesto economico mondiale per poi centrare il discorso sull’andamento congiunturale dell’agroalimentare nazionale, analizzato secondo i principali indicatori macroeconomici. Successivamente vengono presentati gli attori del sistema agroalimentare, rilevando per ciascuno di essi le proprie specificità e tendenze. L’ultima parte del primo capitolo è un focus specifico sul ruolo giocato dall’agroalimentare italiano nel commercio e nei mercati internazionali. Nel secondo capitolo si è approntata una mappatura territoriale e per comparti delle principali specializzazioni commerciali del settore agroalimentare delle regioni italiane. Tramite l'utilizzo di appositi indici di specializzazione si è analizzata la realtà agroalimentare delle regioni italiane, mettendone in evidenza la struttura competitiva e approssimandola tramite l’analisi dei vantaggi comparati di cui gode. Infine, nel terzo capitolo, si è ampliato il campo d'analisi tentando di misurare il livello di internazionalizzazione delle regioni italiane, non solo in ambito agroalimentare, ma considerando l'intero sistema territoriale regionale. Si è tentato di fare ciò tramite tre strumenti: l’analisi delle componenti principali (PCA o ACP), il Mazziotta-Pareto Index e il Wroclaw taxonomic method. I risultati ottenuti tramite le tre modalità di elaborazione hanno permesso di approfondire la conoscenza del livello di internazionalizzazione registrato dalle regioni italiane, mettendo in luce ulteriori filoni di ricerca della tematica osservata.
Resumo:
Questa ricerca è un’indagine semasiologica del lessico agostiniano della provvidenza divina, costituito dalle parole-chiave prouidentia, prouideo, prouidens, prouidus, prouisio, prouisor, prouisus, e dai lessemi in relazione logico-sintattica diretta con esse. La prospettiva è sia sincronica (si considerano tutte le attestazioni delle parole-chiave presenti nel corpus agostiniano), sia diacronica: si soppesano di volta in volta analogie e differenze agostiniane rispetto agli antecedenti, nell’intento di arricchire il panorama dei possibili modelli lessicali latini (pagani, biblici, patristici) di Agostino. I dati lessicali sono stati raccolti in una banca dati appositamente costituita, selezionati secondo i criteri di frequenza e pregnanza semantica, e analizzati per nuclei tematici, coincidenti in parte con i capitoli della tesi. Si studiano dapprima i lessemi che esprimono il governo della provvidenza (le famiglie lessicali di administro, guberno e rego, e altri lessemi che designano l’azione della provvidenza); sono poi analizzati lessemi e iuncturae in cui prevale l’idea del mistero della provvidenza. Gli ultimi due capitoli sono dedicati al tema della cura divina, e a quello della cosiddetta “pedagogia divina”: attraverso i segni esteriori, la provvidenza ‘richiama’ l’uomo a rientrare in se stesso. Un’appendice approfondisce infine l’uso agostiniano di Sap 6,16 e Sap 8,1. L’apporto di Agostino al lessico filosofico latino va individuato a livello semantico più che nell’innovazione lessicale. Accanto a suffissazione, composizione, calco, la metafora svolge un ruolo essenziale nella formazione del lessico dell’Ipponate, e proviene spesso da altre lingue tecniche oppure è radicata nel patrimonio di immagini tradizionali della religione pagana. Il debito di Agostino è indubbiamente verso Cicerone, ma anche verso Seneca, per l’uso in ambito esistenziale-biografico di alcuni lessemi. Agostino li trasferisce però dal piano umano a quello divino, come nel caso del concetto di admonitio: parte integrante del programma filosofico senecano; ‘richiamo’ della provvidenza per Agostino, concetto che risente anche dell’apporto di retorica ed esegesi.
Resumo:
La tesi ha come obiettivo l’analisi della correlazione dello stile tettonico, in termini di deformazione sismica, con il b-value della relazione magnitudo-frequenza di occorrenza (Gutenberg e Richter, 1944) in area globale ed euro-mediterranea. L’esistenza di una dipendenza funzionale tra il b-value e gli angoli di rake, del tipo di quella segnalata da Schorlemmer et al. (2005) e Gulia e Wiemer (2010), viene confermata prima su scala globale e poi su scala euro-mediterranea, a partire dai dati dei principali dataset di tensori momento delle aree in esame, il Global Centroid Moment Tensor (GCMT) ed il Regional Centroid Moment Tensor (RCMT). La parte innovativa della tesi consiste invece nell’incrocio di tali dataset con un database globale di terremoti, l’International Seismological Center (ISC), con magnitudo momento omogenea rivalutata in accordo con Lolli et al. (2014), per il calcolo del b-value. Il campo di deformazione sismica viene ottenuto attraverso il metodo della somma dei tensori momento sismico secondo Kostrov (1974) su pixelizzazioni a celle quadrate o esagonali. All’interno di ciascuna cella, le componenti del tensore di ciascun terremoto vengono sommate tra loro e dal tensore somma vengono estratte le direzioni dei piani principali della migliore doppia coppia. Il sub-catalogo sismico per il calcolo del b-value, ottenuto come scomposizione di quello globale ISC, viene invece ricavato per ogni cluster di celle comprese all'interno di un opportuno range di rake, le quali condividono un medesimo stile tettonico (normale, inverso o trascorrente). La magnitudo di completezza viene valutata attraverso i metodi di massima verosimiglianza [Bender, 1983] ed EMR [Woessner e Wiemer 2005]. La retta di interpolazione per il calcolo del b-value viene costruita quindi secondo il metodo di massima verosimiglianza [Bender, 1983] [Aki 1965]. L’implementazione nel linguaggio del software Matlab® degli algoritmi di pixelizzazione e di costruzione dei tensori somma, l’utilizzo di funzioni di calcolo dal pacchetto Zmap [Wiemer e Wyss, 2001], unite al lavoro di traduzione di alcune routines [Gasperini e Vannucci (2003)] dal linguaggio del FORTRAN77, hanno costituito la parte preliminare al lavoro. La tesi è strutturata in 4 capitoli.Nel primo capitolo si introducono le nozioni teoriche di base riguardanti i meccanismi focali e la distribuzione magnitudo-frequenza, mentre nel secondo capitolo l’attenzione viene posta ai dati sismici dei database utilizzati. Il terzo capitolo riguarda le procedure di elaborazione dati sviluppate nella tesi. Nel quarto ed ultimo capitolo infine si espongono e si discutono i risultati sperimentali ottenuti, assieme alle conclusioni finali.
Resumo:
La presente tesi ha come obiettivo quello di illustrare il flusso informativo che gestisce lo scambio dei dati relativi a cure radioterapiche nell’ambiente di medicina nucleare. La radioterapia comprende tutte quelle cure a base di sostanze radioattive o radiazioni che vengono somministrate a scopo diagnostico o terapeutico. Le due tecniche più utilizzate sono la brachiradioterapia e la radioterapia a fasci esterni. La prima è utilizza solo in casi selezionati di tumori direttamente accessibili e la sua caratteristica principale è la rapida diminuzione della dose con l'allontanarsi dalla sorgente, la seconda tecnica invece consiste nell’irradiare la zona interessata dall’esterno, utilizzando come sorgente di radiazioni una macchina chiamata acceleratore lineare, posta all’esterno del corpo del paziente. Questa terapia ha come obiettivo primario quello di ottenere la migliore distribuzione di dose nel volume bersaglio, risparmiando quanto più possibile i tessuti sani. Già dalla nascita della radioterapia, questa tecnica era caratterizzata dalla presenza di immagini digitali, cioè al contrario di altri reparti radiologici dove le immagini diagnostiche venivano impresse su pellicole, qui le informazioni circolavano già in formato elettronico. Per questo motivo già da subito si è avvertita l’esigenza di trovare una modalità per lo scambio, in maniera efficiente e sicura, di dati clinici per organizzare al meglio la cura del paziente e la pianificazione, anche con macchinari di diversi produttori, del trattamento radioterapico. In tutto questo ha svolto un ruolo fondamentale la proposta di IHE del framework di medicina nucleare, dove si dettavano linee guida per coordinare in maniera semplice e vantaggiosa l’integrazione informativa dei vari attori del processo di cura radioterapico.
Resumo:
Für eine erfolgreiche Behandlung bösartiger Tumore ist eine frühzeitige Diagnose, aber auch eine effektive und effiziente Therapie essentiell. In diesem Zusammenhang sind Nanomaterialien in den Fokus der Arzneimittelentwicklung gerückt, welche für Diagnostik und Therapie genutzt werden könnten.rnSystematische Studien zur Radiometallmarkierung von Nanopartikeln und deren Stabilität in vitro im Zusammenhang mit der Struktur des Linkers und dem Anteil an Chelator wurden anhand verschiedener HPMA-DOTA-Konjugate durchgeführt. Es konnte gezeigt werden, dass die Linkerstruktur und der Belegungsgrad sowohl die Markierung als auch die in vitro -Stabilität von radiometallmarkierten HPMA-rnDOTA-Konjugaten beeinflussen.rnFür die Markierung selbst stehen mehrere Generator-produzierte metallische Positronenemitter zur Verfügung. Infolge der gesetzlichen Bestimmungen muss das Eluat der Generatoren bestimmte Spezifikationen (Elutionsausbeute, Durchbruch des Mutternuklids, Gehalt an Fremdionen, pH-Wert etc.) erfüllen, um für die Darstellung von Radiopharmaka verwendet werden zu können.rnFür das bereits etablierte PET-Nuklid 68Ga konnte eine Ethanol-basierte Aufreinigung entwickelt werden, welche hohe Elutions- und Markierungsausbeuten sowie Radionuklidreinheit garantiert und damit einen wichtigen Schritt für die Entwicklung von Kit-Formulierungen repräsentiert. Ausserdem konnten zwei Methoden zur Qualitätskontrolle entwickelt werden, welche es ermöglichen die Radionuklidreinheit des initialen 68Ga-Eluats, aber auch des finalen 68Ga-Radiopharmakons innerhalb einer Stunde ohne γ–Spektroskopie zu bestimmen.rnWährend mit 68Ga die Pharmakokinetik markierter Derivate für einen Zeitraum von bis 3 Stunden zugänglich ist, deckt das Generator-produzierte 44Sc eine Periode von bis zu einem Tag ab. Damit lässt sich die Pharmakokinetik markierter polymerer Drug Carrier-Systeme – von der frühen Ausscheidungsphase bis hin zu organspezifischen Akkumulationen durch passives und aktives Targeting – gut beschreiben.rnFür 44Sc konnte anhand der Modellverbindung DOTATOC gezeigt werden, dass das aufgereinigte Generatoreluat für die Markierung mit hohen radiochemischen Ausbeuten geeignet ist und etablierte Markierungsmethoden übertragbar sind. In weiterführenden Studien zur molekularen Bildgebung könnte das Potential dieses PET-Nuklids für die Langzeitbildgebung gezeigt werden.
Resumo:
I tumori, detti anche ''la malattia del secolo'', portano ogni anno alla morte di oltre 7 milioni di persone al mondo. Attualmente è una malattia molto diffusa che colpisce soprattutto persone anziane e non solo; tuttavia ancora non esiste una cura ''esatta'' che riesca a guarire la totalità delle persone: anzi si è ben lontani da questo risultato. La difficoltà nel curare queste malattie sta nel fatto che, oltre ad esservi una grande varietà di tipologie (è quindi difficile trovare una cura unica), spesse volte la malattie viene diagnosticata molto tempo dopo la comparsa per via dei sintomi che compaiono in ritardo: si intende quindi che si parla di una malattia molto subdola che spesse volte lascia poche speranze di vita. Uno strumento, utilizzato assieme alla terapie mediche, è quello della modellizzazione matematica: essa cerca di descrivere e prevedere, tramite equazioni, lo sviluppo di questo processo e, come ben si intenderà, poter conoscere in anticipo quel che accadrà al paziente è sicuramente un fattore molto rilevante per la sua cura. E' interessante vedere come una materia spesso definita come "noiosa" ed ''inutile'', la matematica, possa essere utilizzata per i più svariati, come -nel caso specifico- quello nobile della cura di un malato: questo è un aspetto di tale materia che mi ha sempre affascinato ed è anche una delle ragioni che mi ha spinto a scrivere questo elaborato. La tesi, dopo una descrizione delle basi oncologiche, si proporrà di descrivere le neoplasie da un punto di vista matematico e di trovare un algoritmo che possa prevedere l'effetto di una determinata cura. La descrizione verrà fatta secondo vari step, in modo da poter rendere la trattazione più semplice ed esaustiva per il lettore, sia egli esperto o meno dell'argomento trattato. Inizialmente si terrano distinti i modelli di dinamica tumorale da quelli di cinetica farmacologica, ma poi verrano uniti ed utilizzati assieme ad un algoritmo che permetta di determinare l'effetto della cura e i suoi effetti collaterali. Infine, nella lettura dell'elaborato il lettore deve tenere sempre a mente che si parla di modelli matematici ovvero di descrizioni che, per quanto possano essere precise, sono pur sempre delle approssimazioni della realtà: non per questo però bisogna disdegnare uno strumento così bello ed interessante -la matematica- che la natura ci ha donato.
Resumo:
La presente tesi vuole dare una descrizione delle Trasformate Wavelet indirizzata alla codifica dell’immagine in formato JPEG2000. Dopo aver quindi descritto le prime fasi della codifica di un’immagine, procederemo allo studio dei difetti derivanti dall’analisi tramite la Trasformata Discreta del Coseno (utilizzata nel formato predecessore JPEG). Dopo aver quindi descritto l’analisi multirisoluzione e le caratteristiche che la differenziano da quest’ultima, analizzeremo la Trasformata Wavelet dandone solo pochi accenni teorici e cercando di dedurla, in una maniera più indirizzata all’applicazione. Concluderemo la tesi descrivendo la codifica dei coefficienti calcolati, e portando esempi delle innumerevoli applicazioni dell’analisi multirisoluzione nei diversi campi scientifici e di trasmissione dei segnali.
Resumo:
Il fenomeno della magnetoresistenza gigante (GMR) consiste nella marcata variazione della resistenza elettrica di una struttura in forma di film sottile, composta da un’alternanza di strati metallici ferromagnetici (FM) e non magnetici (NM), per effetto di un campo magnetico esterno. Esso è alla base di un gran numero di sensori e dispositivi magnetoelettronici (come ad esempio magnetiche ad accesso casuale, MRAM, ad alta densità) ed ulteriori innovazioni tecnologiche sono in via di elaborazione. Particolarmente rilevanti sono diventate le Spin Valve, dispositivi composti da due strati FM separati da uno spaziatore NM, metallico. Uno dei due film FM (free layer) è magneticamente più soffice rispetto all’altro (reference layer), la cui magnetizzazione è fissata mediante accoppiamento di scambio all’interfaccia con uno strato antiferromagnetico (AFM) adiacente. Tale accoppiamento causa l’insorgenza di una anisotropia magnetica unidirezionale (anisotropia di scambio) per lo strato FM, che si manifesta in uno shift orizzontale del ciclo di isteresi ad esso associato (effetto di exchange bias), solitamente accompagnato anche da un aumento del campo coercitivo. Questo lavoro di tesi riporta la deposizione e la caratterizzazione magnetica e magnetoresistiva di due valvole spin, una a struttura top (SVT) composta da strati di Si/Cu[5 nm]/Py[5 nm]/Cu[5 nm]/Py[5 nm]/IrMn[10 nm], ed una a struttura bottom (SVB), di composizione Si/Cu[5 nm]/IrMn[10 nm]/Py[5 nm]/Cu[5 nm]/Py[5 nm], allo scopo di verificare il comportamento magnetoresistivo gigante del dispositivo per questa particolare scelta dei materiali. I campioni sono stati depositati mediante DC Magnetron sputtering, e caratterizzati magneticamente mediante magnetometro SQUID; la caratterizzazione resistiva è stata eseguita tramite metodo di van der Pawn. Vengono infine presentati i risultati sperimentali, in cui si osserva una variazione di magnetoresistenza nei campioni nell’ordine del punto percentuale.
Resumo:
L’ottica è rivolta allo studio delle proprietà della luce e della sua propagazione attraverso i mezzi materiali. Le applicazioni tradizionali dell’ottica includono le lenti correttive per la vista e la formazione delle immagini nei telescopi e nei microscopi. Le applicazioni moderne comprendono l’immagazzinamento ed il recupero delle informazioni, come nei riproduttori di compact disc, nei lettori di codici a barre in uso nelle casse dei supermercati, o nella trasmissione di segnali attraverso cavi a fibre ottiche, che possono trasportare una maggior quantità di informazioni dei fili in rame. Nel primo capitolo si considereranno casi nei quali la luce viaggia in linea retta e incontra ostacoli la cui dimensione è molto maggiore della lunghezza d’onda della luce. Questo è il dominio dell’ottica geometrica, che include lo studio delle proprietà degli specchi e delle lenti. Il passaggio della luce attraverso fessure molto sottili o attorno a barriere molto strette, le cui dimensioni siano confrontabili con la lunghezza d’onda della luce (a conferma della natura ondulatoria della luce) fa parte dell’ottica fisica o anche detta ottica ondulatoria, di cui si parlerà nel secondo capitolo. Nel terzo capitolo, infine, verranno trattati due metodi che sono stati adoperati nel passato per misurare la maggior peculiarità che possiede la “particella” principe dell’ottica: la velocità della luce.
Resumo:
Il Projection Mapping è una tecnologia che permette di proiettare delle immagini sulla superficie di uno o più oggetti, anche di forma irregolare, trasformandoli in display interattivi. Il suo utilizzo, abbinato a suoni e musiche, permette di creare una narrazione audio-visuale. La suggestione e l’emozione scaturite dalla visione di una performance di Projection Mapping su di un monumento pubblico, hanno stimolato la mia curiosità e mi hanno spinto a cercare di capire se era possibile realizzare autonomamente qualcosa di analogo. Obiettivo di questa tesi è perciò spiegare cos’è il Projection Mapping e fornire una serie di indicazioni utili per realizzarne un’applicazione interattiva con OpenFrameworks (un framework open-source in C++) e hardware a basso costo (un computer, un videoproiettore e un sensore Kinect).
Resumo:
Il progetto IDCardOCR si propone di investigare e realizzare le tecnologie per la messa in opera di un servizio avanzato di scanning di documenti di identità e acquisizione automatica dei dati anagrafici in formato strutturato tramite dispositivi mobili. In particolare si vuole realizzare una App Android in grado di: • Acquisire immagini di documenti di identità in diversi formati e rilevare tramite OCR i dati anagrafici. I dati dovranno poi essere salvati in formato strutturato. • Permettere la definizione di diversi template per l’acquisizione di documenti di tipo diverso (patenti, passaporti, IDCard straniere,… ) • Predisporre la possibilità di caricamento dei dati acquisiti su un server.
Resumo:
Finalità principale della Tesi è stata lo sviluppo di una linea di evidenza chimica che ha previsto la elaborazione di tre distinte procedure analitiche per la determinazione di caffeina con HPLC - MS, una delle quali messa a punto per matrici ambientali inorganiche (acque dolci e salate) e due delle quali specifiche per matrici biologiche (emolinfa e tessuti di Mytilus galloprovincialis). Esse sono state applicate a diversi casi di studio, cominciando dall’analisi di acque di mare prelevate al largo di Cesenatico (FC) e soggette in seguito ad aggiunta di varie concentrazioni di caffeina ai fini di analisi eco-tossicologiche. Le vasche, suddivise in quattro condizioni sperimentali, costituivano l’ambiente di esposizione di esemplari di Mytilus galloprovincialis, sottoposti a test con batterie di biomarker; campionando e analizzando le acque delle diverse vasche in diversi momenti nell’arco di una settimana di durata dell’esperimento, è stato possibile osservare una discrepanza significativa tra le concentrazioni predisposte e quelle effettivamente riscontrate, dovuta alla presenza di valori di fondo elevati (≈ 100 ng/l) nella matrice ambientale. Si è anche notata una cinetica di decadimento della sostanza di tipo esponenziale, più rapida dei casi di letteratura, ipotizzando che ciò avvenisse, oltre che per i normali fenomeni di termodegradazione e fotodegradazione, per l’attività di filtrazione dei molluschi. In seguito sono state raccolte aliquote di acqua presso i punti di immissione e di uscita dall’impianto di depurazione di Cervia (RA), nonchè campioni di acque superficiali, sia dolci che salate, riscontrando un ottimo abbattimento della sostanza da parte dell’impianto (≈ 99 %) e concentrazioni ambientali simili ai valori di fondo dell’esperimento (≈100 ng/l), inferiori rispetto a casi di letteratura per analoga matrice, anche a causa di intense precipitazioni atmosferiche in corrispondenza del prelievo. A suggello delle analisi relative alle acque si è provveduto ad esaminare anche acque di rubinetto, acque di rubinetto soggette a deionizzazione ed un’acqua minerale naturale imbottigliata e commercializzata, rilevando la presenza dello stimolante in ciascuno dei campioni (per ciò che concerne acque della rete idrica a valori simili a quelli ambientali, mentre per acque deionizzate ridotti di circa il 50% e per l’acqua imbottigliata testata abbattuti di oltre l’80%). Le ultime considerazioni sono state relative all’analisi di matrici biologiche mediante le procedure specificamente messe a punto; in questo caso, sia nell’emolinfa che nei tessuti prelevati dai mitili al termine dell’esperimento, si è osservato un bioaccumulo di caffeina che, per ciò che concerne la matrice fluida, è risultato correlato alla concentrazione di esposizione delle vasche, mentre relativamente ai tessuti si è evidenziato del tutto uniforme tra le condizioni sperimentali, facendo ipotizzare un bioaccumulo avvenuto nell’habitat marino, dovuto ai valori ambientali presenti.
Resumo:
Il seguente lavoro di tesi si è concentrato sull'analisi statistica dei dati prodotti dall'imaging di risonanza magnetica di pazienti affetti da tumori di alto grado, in particolare glioblastoma multiforme. Le tipologie di acquisizione d'immagine utilizzate sono state l'imaging pesato in T1 e il Diffusion-Weighted Imaging (DWI). Lo studio è stato suddiviso in due fasi: nella prima è stato considerato un campione di pazienti affetti da glioblastoma multiforme che, dopo il trattamento, avessero manifestato una ricaduta della malattia; per questi pazienti è stato quantificato in che modo la dose erogata durante la terapia si sia distribuita sul target del trattamento, in particolare nella porzione di tessuto in cui andrà a svilupparsi la recidiva. Nella seconda fase, è stato selezionato un campione più ristretto che disponesse, per entrambe le modalità di imaging, di un'acquisizione pre-terapia e di un numero sufficiente di esami di follow up; questo al fine di seguire retrospettivamente l'evoluzione della patologia e analizzare tramite metodi statistici provenienti anche dalla texture analysis, i dati estratti dalle regioni tumorali. Entrambe le operazioni sono state svolte tramite la realizzazione di software dedicati, scritti in linguaggio Matlab. Nel primo capitolo vengono fornite le informazioni di base relative ai tumori cerebrali, con un'attenzione particolare al glioblastoma multiforme e alle sue modalità di trattamento. Nel secondo capitolo viene fatta una panoramica della fisica dell'imaging di risonanza magnetica e delle tecniche di formazione delle immagini, con un'ampia sezione è dedicata all'approfondimento dell'imaging in diffusione. Nel terzo capitolo viene descritto il progetto, i campioni e gli strumenti statistici e di texture analysis utilizzati in questo studio. Il quarto capitolo è dedicato alla descrizione puntuale dei software realizzati durante questo lavoro e nel quinto vengono mostrati i risultati ottenuti dall'applicazione di questi ultimi ai campioni di pazienti esaminati.
Resumo:
Riassunto Tesi Nella presente dissertazione viene esposto un esperimento condotto con la partecipazione di 13 studenti del Corso Magistrale di Interpretazione di Conferenza della Scuola di Lingue e Letterature, Traduzione e Interpretazione di Forlì al fine di comprendere se la memoria di lavoro possa essere potenziata in seguito ad un periodo di 7 mesi nel quale gli studenti si sono costantemente confrontati con lezioni ed esercizi di memorizzazione, interpretazione simultanea e interpretazione consecutiva. Nel primo capitolo, dopo una breve introduzione agli studi riguardanti la memoria, vengono descritti i diversi tipi di quest'ultima che congiuntamente alla memoria di lavoro, vengono attivati durante l'interpretazione simultanea. Nel secondo capitolo la memoria di lavoro viene messa in relazione con l'interpretazione simultanea. Oltre alle teorie più influenti circa i meccanismi cognitivi e le singole attività che sottendono il processo dell’IS, vengono esposti i principali modelli di elaborazione dell'informazione durante l'attività in questione. In chiusura del secondo capitolo, vengono esposti brevemente altri aspetti cruciali per l'interpretazione simultanea, utili al fine di comprendere le teorie sviluppate e gli studi condotti in merito: attenzione, chunking, soppressione articolatoria e ripetizione subvocalica, accennando inoltre ad un'interessante ricerca condotta per monitorare l'attivazione e il mutamento delle diverse aree cerebrali durante l'utilizzo di una lingua straniera. Nel terzo capitolo vengono passati in rassegna i principali studi empirici condotti sull'interpretazione simultanea per comprendere il comportamento della memoria di lavoro. Infine, nel quarto capitolo viene presentato l'esperimento condotto allo scopo di verificare l'ipotesi alla base della presente tesi: un aumento dell'esperienza in IS può condurre al potenziamento ML. Dopo aver esposto lo scopo, il metodo e il materiale vengono presentati i risultati che, sebbene siano stati raccolti su un campione abbastanza esiguo, vanno a confermare l'ipotesi all'origine della ricerca.
Resumo:
In questa tesi viene seguito il lavoro di test delle schede ROD del layer 2 del Pixel Detector dell’ esperimento ATLAS, che mira a verificare la loro corretta funzionalità, prima che vengano spedite nei laboratori del CERN. Queste nuove schede gestiscono i segnali in arrivo dal Pixel Detector di ATLAS, per poi inviarli ai computer per la successiva elaborazione. Le schede ROD andranno a sostituire le precedenti schede SiROD nella catena di acquisizione dati dell’esperimento, procedendo dal nuovo strato IBL, e proseguendo con i tre layer del Pixel Detector, corroborando l’aggiornamento tecnologico e prestazionale necessario in vista dell’incremento di luminosità dell’esperimento.