887 resultados para Università degli Studi di Macerata
Resumo:
Il lavoro a partire dalla traduzione del romanzo autobiografico Je ne parle pas la langue de mon père dell’autrice francese di origine algerina Leïla Sebbar, si propone di riflettere sul rapporto tra esilio e meticciato culturale e sulla relazione che questi intrattengono con la traduzione. Il primo capitolo vuole fornire un’introduzione al tema della migrazione nella letteratura postcoloniale in quanto luogo privilegiato per la costruzione di paradigmi identitari, con particolare riferimento alle letterature francofone, al caso maghrebino e algerino. In questo ambito un’attenzione speciale è dedicata alle scritture femminili e a come la prospettiva di genere arricchisca il panorama letterario migrante di inedita sensibilità e complessità. La seconda sezione si focalizza sull’opera di Leïla Sebbar e sulla peculiare posizione che l’autrice occupa nel contesto francofono contemporaneo per terminare con un’analisi puntuale della pluralità delle istanze di Je ne parle pas la langue de mon père in quanto significanti delle tematiche dell’esilio e del meticciato. In particolare viene presa in considerazione la natura ibrida del genere testuale e l’apporto lessicale e sintattico della lingua arabo-berbera come elemento stilistico e identitario. Il terzo capitolo presenta una personale proposta di traduzione italiana del testo, nella prospettiva di una pubblicazione all’interno di un reale scenario editoriale. Basandomi sulle problematiche incontrate in sede traduttiva, ho cercato di definire il ruolo del traduttore e di valutare l’adeguatezza degli strumenti di cui dispone, tanto all’interno del testo quanto nell’apparato paratestuale, al momento di veicolare lingue terze e mondi altri. Una parentesi è dedicata all’esame dei limiti legati alla ricezione di un testo di questo tipo nel mondo editoriale italiano. Infine, la personale esperienza traduttiva viene raffrontata con alcuni contributi all’interno del dibattito contemporaneo sulla traduzione della letteratura postcoloniale.
Resumo:
Nel presente lavoro di tesi ho sviluppato un metodo di analisi di dati di DW-MRI (Diffusion-Weighted Magnetic Resonance Imaging)cerebrale, tramite un algoritmo di trattografia, per la ricostruzione del tratto corticospinale, in un campione di 25 volontari sani. Il diffusion tensor imaging (DTI) sfrutta la capacità del tensore di diffusione D di misurare il processo di diffusione dell’acqua, per stimare quantitativamente l’anisotropia dei tessuti. In particolare, nella sostanza bianca cerebrale la diffusione delle molecole di acqua è direzionata preferenzialmente lungo le fibre, mentre è ostacolata perpendicolarmente ad esse. La trattografia utilizza le informazioni ottenute tramite il DW imaging per fornire una misura della connettività strutturale fra diverse regioni del cervello. Nel lavoro si è concentrata l’attenzione sul fascio corticospinale, che è coinvolto nella motricità volontaria, trasmettendo gli impulsi dalla corteccia motoria ai motoneuroni del midollo spinale. Il lavoro si è articolato in 3 fasi. Nella prima ho sviluppato il pre-processing di immagini DW acquisite con un gradiente di diffusione sia 25 che a 64 direzioni in ognuno dei 25 volontari sani. Si è messo a punto un metodo originale ed innovativo, basato su “Regions of Interest” (ROIs), ottenute attraverso la segmentazione automatizzata della sostanza grigia e ROIs definite manualmente su un template comune a tutti i soggetti in esame. Per ricostruire il fascio si è usato un algoritmo di trattografia probabilistica che stima la direzione più probabile delle fibre e, con un numero elevato di direzioni del gradiente, riesce ad individuare, se presente, più di una direzione dominante (seconda fibra). Nella seconda parte del lavoro, ciascun fascio è stato suddiviso in 100 segmenti (percentili). Sono stati stimati anisotropia frazionaria (FA), diffusività media, probabilità di connettività, volume del fascio e della seconda fibra con un’analisi quantitativa “along-tract”, per ottenere un confronto accurato dei rispettivi percentili dei fasci nei diversi soggetti. Nella terza parte dello studio è stato fatto il confronto dei dati ottenuti a 25 e 64 direzioni del gradiente ed il confronto del fascio fra entrambi i lati. Dall’analisi statistica dei dati inter-subject e intra-subject è emersa un’elevata variabilità tra soggetti, dimostrando l’importanza di parametrizzare il tratto. I risultati ottenuti confermano che il metodo di analisi trattografica del fascio cortico-spinale messo a punto è risultato affidabile e riproducibile. Inoltre, è risultato che un’acquisizione con 25 direzioni di DTI, meglio tollerata dal paziente per la minore durata dello scan, assicura risultati attendibili. La principale applicazione clinica riguarda patologie neurodegenerative con sintomi motori sia acquisite, quali sindromi parkinsoniane sia su base genetica o la valutazione di masse endocraniche, per la definizione del grado di contiguità del fascio. Infine, sono state poste le basi per la standardizzazione dell’analisi quantitativa di altri fasci di interesse in ambito clinico o di studi di ricerca fisiopatogenetica.
Resumo:
In questa tesi è analizzato il caso di sensori con uscita in frequenza e periodo, si traduce in ultima analisi nella capacità di misurare con precisione un intervallo temporale. La rivelazione del tempo risulta essere lo stadio fondamentale da cui deriva la risoluzione dell'intero sistema di misura. Nella realtà, la questione della simultaneità cioè individuare con assoluta precisione due eventi che si verificano contemporaneamente, in un determinato istante t, è un problema piuttosto complesso: le difficoltà sono correlate soprattutto alle limitazioni fisiche intrinseche degli strumenti di misura. E' utile allora fornire un'analisi sui principi e le tecniche alla base della misura di intervalli temporali, detta Time Interval Measurement (TIM). Lo scopo della tesi è studiare i vari metodi per realizzare TDC lineari digitali, facendo un'analisi critica e ed evidenziando pro e contro che i vari approcci presentano, attingendo e analizzando criticamente informazioni dalle varie fonti riportate in bibliografia.
Resumo:
In questa tesi viene presentato il metodo della parametrice, che è utilizzato per trovare la soluzione fondamentale di un operatore parabolico a coefficienti hölderiani. Inizialmente si introduce un operatore modello a coefficienti costanti, la cui soluzione fondamentale verrà utilizzata per approssimare quella dell’operatore parabolico. Questa verrà trovata esplicitamente sotto forma di serie di operatori di convoluzione con la soluzione fondamentale dell’operatore a coefficienti costanti. La prova di convergenza e regolarità della serie si basa sullo studio delle proprietà della soluzione fondamentale dell’operatore a coefficienti costanti e degli operatori di convoluzione utilizzati. Infine, si applicherà il metodo della parametrice per trovare la soluzione fondamentale di un’equazione di Fokker-Planck sempre a coefficienti hölderiani.
Resumo:
I cambiamenti climatici dovuti all’immissione in atmosfera dei gas serra costringono alla ricerca di possibili soluzioni per la loro riduzione. Una risposta potrebbe essere rappresentata dall’impiego di calcestruzzi geopolimerici in quanto riducono notevolmente l’emissione in atmosfera di anidride carbonica rispetto ai calcestruzzi tradizionali. In letteratura sono numerosi gli studi di calcestruzzi geopolimerici realizzati mediante trattamenti termici applicati dopo le operazioni di confezionamento. Pochissime sono invece le ricerche effettuate su calcestruzzi geopolimerici prodotti senza trattamenti termici; in questa tesi sperimentale si è voluto indagare quest’ultimo tipo di conglomerati. In particolare si è studiato il mix design del calcestruzzo geopolimerico partendo dalla formulazione del calcestruzzo tradizionale. Da subito si è posto il problema di quale agente riduttore di acqua utilizzare. Pertanto è stata predisposta una sperimentazione di diversi tipi di fluidificanti e superfluidificanti su campioni di malta geopolimerica. In seguito sono stati testati diversi conglomerati geopolimerici con propri mix design, derivati in parte da esempi in letteratura, al fine di conseguire un accettabile valore di resistenza meccanica a compressione. Nella prospettiva di un possibile utilizzo in cantiere è stata indagata con particolare attenzione, la lavorabilità delle malte e dei calcestruzzi geopolimerici attraverso prove di consistenza, ponendola in relazione alle malte e i calcestruzzi cementizi. Sono state inoltre analizzate le caratteristiche dei materiali prodotti allo stato indurito, quali densità, assorbimento di acqua, modulo elastico e resistenza meccanica. Infine, è stata analizzata la fattibilità di un possibile utilizzo in cantiere.
Resumo:
Questo lavoro di tesi si inserisce nel recente filone di ricerca che ha lo scopo di studiare le strutture della Meccanica quantistica facendo impiego della geometria differenziale. In particolare, lo scopo della tesi è analizzare la geometria dello spazio degli stati quantistici puri e misti. Dopo aver riportato i risultati noti relativi a questo argomento, vengono calcolati esplicitamente il tensore metrico e la forma simplettica come parte reale e parte immaginaria del tensore di Fisher per le matrici densità 2×2 e 3×3. Quest’ultimo altro non é che la generalizzazione di uno strumento molto usato in Teoria dell’Informazione: l’Informazione di Fisher. Dal tensore di Fisher si può ottenere un tensore metrico non solo sulle orbite generate dall'azione del gruppo unitario ma anche su percorsi generati da trasformazioni non unitarie. Questo fatto apre la strada allo studio di tutti i percorsi possibili all'interno dello spazio delle matrici densità, che in questa tesi viene esplicitato per le matrici 2×2 e affrontato utilizzando il formalismo degli operatori di Kraus. Proprio grazie a questo formalismo viene introdotto il concetto di semi-gruppo dinamico che riflette la non invertibilità di evoluzioni non unitarie causate dall'interazione tra il sistema sotto esame e l’ambiente. Viene infine presentato uno schema per intraprendere la stessa analisi sulle matrici densità 3×3, e messe in evidenza le differenze con il caso 2×2.
Resumo:
In questo lavoro di tesi abbiamo studiato la relazione esistente tra la concentrazione di drogante in un wafer di silicio e l’energia superficiale del suo ossido nativo. La strumentazione utilizzata per la misura dell’energia superficiale è il tensiometro ottico, uno strumento semplice ma efficace per valutare le proprietà chimico-fisiche dell’interfaccia liquido-solido. Il tensiometro ottico misura l’angolo di contatto statico e dinamico. La misura dell’angolo statico ci ha permesso di valutare l’energia superficiale dell’ossido nativo attraverso il metodo di Owen-Wendt. Per valutare l’omogeneità chimica/fisica dell’ossido abbiamo invece misurato l’isteresi dell’angolo di contatto in configurazione dinamica. Le misure di angolo statico e dinamico sono state realizzate su 10 frammenti di wafer di silicio a concentrazione crescente da 10^13 a 10^19 atomi/cm^3 di entrambi i tipi di drogante (ossia di tipo p - boro - e di tipo n - fosforo -). E’ stato osservato che, per i substrati drogati con boro, l’energia superficiale presenta un picco corrispondente ad una concentrazione di circa 10^15 atomi/cm^3 nell’intervallo di concentrazione 2 · 10^13 − 1.6 · 10^16 atomi/cm^3. Mentre i campioni drogati con fosforo presentano un andamento dell’energia superficiale leggermente crescente al crescere della concentrazione di drogaggio nell’intervallo di concentrazione 6.5 · 10^14 − 1.5 · 10^19 atomi/cm^3. Questo risultato è stato correlato alla diffusione degli atomi di drogante nell’ossido che raggiunge l’interfaccia SiO2 − Aria. L’osservazione sperimentale che l’energia superficiale dell’ossido dipenda dalla concentrazione di drogante è avvalorata dal confronto fra la componente polare e dispersiva, in particolare la componente polare presenta lo stesso picco osservato nell’energia superficiale. Le impurità nell’ossido, determinate dagli atomi di drogante, conferiscono quindi polarità alla superficie aumentando l’energia superficiale totale. Dal confronto fra le misure dei campioni as received con le misure dell’ossido ricostruito dopo 7 e 21 giorni di esposizione all’aria, ricaviamo che gli atomi di drogante diffondono nel tempo e, in particolare, la polarità superficiale ritorna alle con- dizioni as recived dopo 21 giorni dalla rimozione dell’ossido. E’ stata simulata numericamente una goccia su una superficie, comprendendo come il picco osservato nell’energia superficiale corrisponde ad un minimo dell’energia di Gibbs per i campioni di tipo p. Infine, l’isteresi aumenta in valor medio per i campioni con ossido ricostruito rispetto ai campioni as recived, ad indicare una possibile variazione dell’omogeneità chimico-fisica delle superfici.
Resumo:
Il presente lavoro di tesi è stato stilato dopo aver svolto un tirocinio curriculare presso l’azienda Robopac S.p.A. nello stabilimento di Villa Verucchio (Rn). Sono partito dal lavoro di raccolta e sintesi degli indici di produzione e delle scorte di magazzino fatto nel periodo di tirocinio, focalizzandomi poi sull’aspetto della gestione delle scorte. Da quest’ultima analisi è emerso che la gestione delle merci ha portato ad avere un alto valore economico del magazzino per cui l’obbiettivo di questo lavoro di tesi è stato fornire un modello per la determinazione della scorta ottimale che porti ad una riduzione del valore totale del magazzino. Inizialmente è stato affrontato il tema generale della logistica industriale, in particolare analizzando il sistema logistico attraverso le sue caratteristiche e funzioni e sono state descritte le tipologie di magazzini industriali secondo i diversi sistemi di stoccaggio. Successivamente è stato introdotto l’argomento principale, ossia i problemi e i modelli di gestione delle scorte. E' stata dapprima descritta e classificata la scorta, per poi analizzarne i modelli di gestione come il modello di Wilson, utilizzato per il questo lavoro, con particolare attenzione alla scorta di sicurezza. Infine è stato formulato l’indice di rotazione e l’analis ABC di Lorentz-Pareto. L'ultimo capitolo descrive l’azienda Robopac con attenzione sul magazzino, attraverso la rappresentazione del percorso delle merci all’interno dello stabilimento e della fase di estrazione del materiale, aprendo una finestra sulla gestione degli approvvigionamenti dell’azienda Robopac. Nella seconda parte si arriva ad affrontare l’argomento centrale di tale elaborato, la definizione di un modello per determinare la scorta ottimale a magazino e vengono evidenziati i risultati ottenuti.
Resumo:
Negli ultimi anni le tecnologie informatiche sono state al centro di uno sviluppo esponenziale. Fra le incalcolabili innovazioni presentate, ha preso sempre più campo il paradigma per la programmazione ad agenti, che permette la realizzazione di sistemi software complessi, i quali, nell'informatica moderna, ricoprono un ruolo di fondamentale importanza. Questi sistemi, denominati autonomi, mostrano caratteristiche interessanti per scenari dinamici; essi infatti devono essere robusti e resistenti, in grado di adattarsi al contesto ambientale e quindi reagire a determinate modifiche che si verificano nell'ambiente, comportandosi di conseguenza. Indicano perciò la pro-attività dell'entità presa in considerazione. In questa tesi saranno spiegate queste tipologie di sistemi, introdotte le loro caratteristiche e mostrate le loro potenzialità. Tali caratteristiche permettono di responsabilizzare i soggetti, rendendo il sistema auto-organizzato, con una migliore scalabilità e modularità, riducendo quindi le elevate esigenze di calcolo. L'organizzazione di questo documento prevede i primi capitoli atti a introdurre il mondo dei sistemi autonomi, partendo dalle definizioni di autonomia e di agenti software, concludendo con i sistemi multi-agenti, allo scopo di permettere al lettore una comprensione adatta ed esaustiva. I successivi capitoli riguardano le fasi di progettazione delle entità prese in esame, le loro forme di standardizzazione e i modelli che possono adottare, tra i quali il più conosciuto, il modello BDI. Ne seguono due diverse metodologie per l'ingegneria del software orientata agli agenti. Si conclude con la presentazione dello stato dell'arte degli ambienti di sviluppo conosciuti, contenente un'esauriente introduzione ad ognuno di essi ed una visione nel mondo del lavoro del loro apporto negli applicativi in commercio. Infine la tesi terminerà con un capitolo di conclusioni e di riflessioni sui possibili aspetti futuri.
Resumo:
Il funzionamento del cervello umano, organo responsabile di ogni nostra azione e pensiero, è sempre stato di grande interesse per la ricerca scientifica. Dopo aver compreso lo sviluppo dei potenziali elettrici da parte di nuclei neuronali in risposta a stimoli, si è riusciti a graficare il loro andamento con l'avvento dell'ElettroEncefaloGrafia (EEG). Tale tecnologia è entrata a far parte degli esami di routine per la ricerca di neuropsicologia e di interesse clinico, poiché permette di diagnosticare e discriminare i vari tipi di epilessia, la presenza di traumi cranici e altre patologie del sistema nervoso centrale. Purtroppo presenta svariati difetti: il segnale è affetto da disturbi e richiede un'adeguata elaborazione tramite filtraggio e amplificazione, rimanendo comunque sensibile a disomogeneità dei tessuti biologici e rendendo difficoltoso il riconoscimento delle sorgenti del segnale che si sono attivate durante l'esame (il cosiddetto problema inverso). Negli ultimi decenni la ricerca ha portato allo sviluppo di nuove tecniche d'indagine, di particolare interesse sono la ElettroEncefaloGrafia ad Alta Risoluzione (HREEG) e la MagnetoEncefaloGrafia (MEG). L'HREEG impiega un maggior numero di elettrodi (fino a 256) e l'appoggio di accurati modelli matematici per approssimare la distribuzione di potenziale elettrico sulla cute del soggetto, garantendo una migliore risoluzione spaziale e maggior sicurezza nel riscontro delle sorgenti neuronali. Il progresso nel campo dei superconduttori ha reso possibile lo sviluppo della MEG, che è in grado di registrare i deboli campi magnetici prodotti dai segnali elettrici corticali, dando informazioni immuni dalle disomogeneità dei tessuti e andando ad affiancare l'EEG nella ricerca scientifica. Queste nuove tecnologie hanno aperto nuovi campi di sviluppo, più importante la possibilità di comandare protesi e dispositivi tramite sforzo mentale (Brain Computer Interface). Il futuro lascia ben sperare per ulteriori innovazioni.
Resumo:
Negli ultimi anni, la popolazione è stata esposta a vari tipi di campi elettromagnetici generati da strumentazioni elettroniche e dispositivi di telecomunicazione. In questa tesi, si valutano SAR ed effetti termici prodotti da tre antenne patch a radiofrequenza sia su Cheratinociti (cellule dell'epidermide) in vitro che sull'epidermide umana in vivo caratterizzata in un modello multistrato contenente tessuti biologici. Le antenne progettate hanno frequenze di risonanza di 1.8 e 2.4 GHz, tipiche delle bande utilizzate rispettivamente da LTE (Long Term Evolution, la più recente evoluzione degli standard di telefonia mobile cellulare) e dalle moderne tecnologie Wi-Fi, e di 60 GHz, propria delle cosiddette onde millimetriche. Vengono valutati quindi il SAR (Specific Absorption Rate, grandezza che fornisce una misura dell'assorbimento delle onde da parte dei tessuti biologici) e le variazioni di temperatura prodotte dall'applicazione del campo elettromagnetico: ciò viene realizzato attraverso l'equazione del calore stazionaria e, nel caso dell'epidermide in vivo, con la Bioheat Equation, che contempla anche la circolazione sanguigna ed il calore generato nei processi metabolici che avvengono nell'organismo.
Resumo:
Il principale scopo di questa tesi è focalizzato alla ricerca di una caratterizzazione dei contenuti in video 3D. In una prima analisi, le complessità spaziale e temporale di contenuti 3D sono state studiate seguendo le convenzionali tecniche applicate a video 2D. In particolare, Spatial Information (SI) e Temporal Information (TI) sono i due indicatori utilizzati nella caratterizzazione 3D di contenuti spaziali e temporali. Per presentare una descrizione completa di video 3D, deve essere considerata anche la caratterizzazione in termini di profondità. A questo riguardo, nuovi indicatori di profondità sono stati proposti sulla base di valutazioni statistiche degli istogrammi di mappe di profondità. Il primo depth indicator è basato infatti sullo studio della media e deviazione standard della distribuzione dei dati nella depth map. Un'altra metrica proposta in questo lavoro stima la profondità basandosi sul calcolo dell’entropia della depth map. Infine, il quarto algoritmo implementato applica congiuntamente una tecnica di sogliatura (thresholding technique) e analizza i valori residui dell’istogramma calcolando l’indice di Kurtosis. Gli algoritmi proposti sono stati testati con un confronto tra le metriche proposte in questo lavoro e quelle precedenti, ma anche con risultati di test soggettivi. I risultati sperimentali mostrano l’efficacia delle soluzioni proposte nel valutare la profondità in video 3D. Infine, uno dei nuovi indicatori è stato applicato ad un database di video 3D per completare la caratterizzazione di contenuti 3D.
Resumo:
Lo scopo di questa tesi è la misura di sezione d’urto di produzione di coppie top-antitop nel canale adronico. Per la misura sono stati utilizzati i dati raccolti dall’esperimento CMS in collisioni protone-protone ad LHC, con un’energia nel centro di massa pari a 13 TeV. Il campione di dati utilizzato corrisponde ad una luminosità integrata di 2.474 f b^ −1 . L’analisi dati inizia selezionando gli eventi che soddisfano determinate condizioni (e.g. trigger, tagli cinematici, sei o più jet, almeno 2 jet provenienti dall’adronizzazione di due quark bottom) con lo scopo di incrementare la purezza del segnale scartando il più possibile gli eventi di fondo. A seguire, viene ricostruita la massa del quark top usando un fit cinematico. Sulle distribuzioni di tale massa si basa la stima degli eventi di fondo e di segnale. Infine, attraverso un fit di verosimiglianza, si ottiene il valore della sezione d’urto: σ t t ̄ = 893 ± 57 (stat) ± 104 (syst) pb. Questo risultato è in buon accordo con il valore teorico di 832 pb e con altre misure di CMS effettuate in canali differenti.
Pensionamento e plurilinguismo. Un'indagine qualitativa su immigrati italiani e su svizzeri tedeschi
Resumo:
Che cosa succede con le competenze linguistiche quando una persona va in pensione? Perde delle competenze perché si indebolisce il contatto con la rete sociale del lavoro o acquisisce nuove competenze grazie alla maggiore disponibilità di tempo (frequentando per esempio un corso di lingua)? Partendo da queste domande il presente lavoro indaga la tematica finora poco studiata della percezione di cambiamenti riguardo all’uso e alle competenze delle lingue durante il processo del pensionamento. Dopo aver passato in rassegna il quadro interdisciplinare degli studi incentrati sulla terza età, viene discusso il complesso di fattori che interagiscono nelle dinamiche del pensionamento. Nella seconda parte del lavoro, si presenta invece una serie di indagini empiriche svolte dall’autrice che offrono un primo approccio sociolinguistico ai mutamenti legati a questo importante momento della vita.
Resumo:
This article analyzes the Jakobsonian classification of aphasias. It aims to show on the one hand the non-linguistic character of this classification and on the other hand its asymmetry, in spite of the fact that its author had conceived his structural construction as symmetrical. The non-linguistic character of Jakobson’s formulation is due to the absence of any definition of language, this absence being the main characteristic of Jakobsonian linguistics: concerning the aphasia problem, the Jakobsonian formulation is linguistic solely by virtue of its object, aphasia, which is already considered as a linguistic concern because it belongs to the field of « language », but which is not defined as such (as linguistic). As for asymmetry, it demonstrates first the circularity of the Jakobsonian representation of language (the duality between structure and functioning), and secondly the non-linguistic character – in the Saussurean sense of the term – of the aphasia problem. Thus it appears that breaking (in the sense of Gaston Bachelard) with idiom is the prerequisite of a scientific apprehension of language, and therefore of any interdisciplinarity, this being one of Jakobson’s favorite topics but one that this linguist failed to render fruitful because he did not offer a real definition of language.