908 resultados para ricostruzione di immagini stima del rumore regolarizzazioneproblemi mal postivariazione totale
Resumo:
L’elaborato è strutturato in quattro parti: la prima è dedicata all’inquadramento del background normativo. L’autrice affronta, con un approccio ricostruttivo, i precedenti alla redazione del regolamento e le difficoltà incontrate a causa delle resistenze degli Stati membri. Si sofferma altresì sulle norme UNCITRAL, anch’esse oggetto nel recente periodo, di numerose implementazioni. La seconda parte fotografa il ruolo della Corte di Giustizia nell’interpretazione del regolamento n. 1346/2000 ed individua i concetti fondamentali del regolamento: l’universalità attenuata, il campo di applicazione soggettivo del regolamento, la legge applicabile, il principio dell’automatico riconoscimento delle decisioni e la correlata tematica dell’ordine pubblico, nonché la figura del curatore. Si approfondisce l’attività degli Stati membri nel dotarsi di norme di coordinamento ( esemplare il caso della Spagna e della Germania) sottolineando il silenzio del legislatore italiano che, nonostante le numerose riforme in materia, a tutt’oggi non ha ideato un sistema in grado di coordinare la normativa nazionale con la struttura del regolamento europeo. Nella terza parte l'autrice approfondisce la giurisdizione nel regolamento n. 1346/2000. Si individuano le parole chiave: Comi e dipendenza, i cui significati sono sfumati seguendo le posizioni della Corte di Giustizia, (Leading Case Eurofood sino a Interedil) e si mette in discussione, nel panorama attuale, la tenuta di tali criteri giurisdizionali. Sempre intorno al concetto di Comi, si analizzano: la giurisdizione verso gruppi di imprese disciplina assente nel regolamento, i rapporti tra procedura principale e secondaria , la giurisdizione in materia di azioni connesse e/o correlate (Gourdain vs Nadler/Seagon vs Deko Marty). Il capitolo conclusivo offre una panoramica delle proposte finalizzate ad un’implementazione della struttura del regolamento sull’insolvenza. Numerose, infatti, sono le proposte a livello dottrinale e da parte degli organi comunitari in vista della scadenza del Report della Commissione Europea sulla applicazione del regolamento 1346 del 2000 (art. 46).
Resumo:
Lo scopo di questa tesi è l'installazione di un Rilassometro ottenuto a partire da un magnete permanente situato nel Dipartimento di Fisica e Astronomia (DIFA - via Irnerio, 46), al fine di eseguire misure attendibili di Rilassometria in mezzi porosi su campioni del diametro di alcuni centimetri. Attualmente nel Dipartimento è gia presente un elettromagnete adibito a misure di questo tipo; tuttavia, questo strumento permette lo studio di campioni di piccole dimensioni (circa 220mm3) e si rivela insuffciente per lo studio di rocce, coralli e altre strutture porose di più grande dimensione senza la frantumazione del campione stesso; per questa ragione si è presentata la necessità dell'istallazione di una nuova strumentazione. Parte della strumentazione utilizzata è in disuso da parecchi anni e le caratteristiche devono essere verificate. Dopo l'assemblaggio della strumentazione (magnete, console, probe), sono state determinate le migliori condizioni in cui effettuare le misure, ovvero i parametri fondamentali dell'elettronica (frequenza di risonanza, TATT, tempo morto del probe, tempo di applicazione dell'impulso 90°) e la zona di maggiore uniformità del campo magnetico. Quindi, sono state effettuate misure di T1 e T2 su campioni bulk e su un campione di roccia saturata d'acqua, confrontando i risultati con valori di riferimento ottenuti tramite elettromagnete. I risultati ottenuti risultano consistenti con i valori attesi, con scarti - inevitabili a causa della grande differenza di volume dei campioni - molto ridotti, pertanto l'installazione del nuovo Rilassometro risulta essere completata con successo.
Resumo:
L’obiettivo della ricerca condotta dal candidato è stato sin dal principio la proposta di un’analisi del popolamento e delle dinamiche culturali dell’età neolitica nella Puglia Centrale. Tale aspirazione derivava dal fatto che il territorio oggetto di tale ricerca è stato, negli ultimi decenni, assai meno investigato rispetto alle limitrofe aree, come la piana del Tavoliere ed il Salento in particolare. Questa mancanza di informazioni rendeva necessaria una rivisitazione delle ricerche e degli studi, attraverso la costruzione di un atlante del popolamento, al fine di colmare questo vuoto. Infatti, una valutazione del popolamento dell’età neolitica nell’Italia sud-orientale non può essere considerata per aree culturali distinte e geograficamente limitate. Nonostante vi siano importanti differenziazioni di facies archeologiche, è solo attraverso una visione complessiva e con un controllo articolato delle informazioni che è possibile descrivere i processi e le dinamiche che hanno portato ad un popolamento così imponente, dalla sua espansione al repentino collasso, causando la trasformazione del paesaggio pugliese. La scelta di guardare alla complessità neolitica di questo versante della Puglia si lega culturalmente, oltre che geograficamente, alla ricerca già effettuata sulla grande diffusione del neolitico nella piana del Tavoliere di Puglia, unico esempio europeo in quanto a colonizzazione capillare del territorio..Ciò ha permesso di disegnare un quadro globale, che al momento esclude solo la penisola salentina, del popolamento neolitico della Puglia settentrionale e centrale. Le caratteristiche che differenziano i due complessi, sono strettamente legate sia all’habitat insediativo, inteso come scelte insediamentali, che nella regione indagata appare organizzato su diversi livelli (area costiera adriatica, area prospiciente antichi alvei torrentizi, propaggini dell’altopiano delle Murge), che alle forme culturali, intese come produzione artigianale e soprattutto aspetti rituali connessi alla frequentazione delle grotte naturali.
Resumo:
Al centro della seguente ricerca c'è il Piacentino, ossia il territorio che faceva capo alla città di Placentia in età altomedievale, più precisamente tra VII e IX secolo. L'aspetto su cui è concentrata l’analisi è quello dell’insediamento, rapportando le forme insediative alle comunità rurali e alle strutture del potere. Il Piacentino costituisce un contesto particolare, sia per la vicinanza alla capitale Pavia, sia per la presenza di enti patrimoniali molto importanti, quale il monastero di Bobbio, sia per l'estensione di vallate appenniniche che ne hanno protetto l'isolamento e impedito, fino al secolo IX inoltrato, l'insediamento di una forte aristocrazia. Ciò che sembra dedursi dall’analisi della documentazione (informatizzata) di VIII, ma soprattutto di IX secolo, è che la civitas di Piacenza, sede del conte e centro della diocesi, non costituiva di fatto il punto di riferimento per gli abitanti dell’intero territorio rurale. Dal punto di vista del possesso fondiario molti insediamenti erano autonomi. Ciò vale soprattutto per i siti di alcune zone collinari e per quelli dell’Appennino, mentre il discorso è da porsi in modo più sfumato per la pianura e per la zona dei prata vel campanea Placentina, ubicati immediatamente al di fuori della civitas. Lo studio della media e grande proprietà fondiaria ha permesso di registrare la frammentarietà dei possedimenti, ossia la loro dispersione nel sistema insediativo del comitato, la loro ubicazione e l’articolato intreccio proprietario, che in alcune zone sembra avere permesso l’esistenza di comunità locali piuttosto forti. L’attento esame della documentazione e il sicuro rimando alla bibliografia di riferimento hanno portato a risultati originali e significativi.
Resumo:
Il progetto di valorizzazione dell’area del parco archeologico dell’anfiteatro romano di Ancona affronta il problema del recupero delle zone lacerate del centro antico della città, di quelle aree che in seguito ai bombardamenti della Seconda Guerra Mondiale e del terremoto del 1972 hanno perso la loro identità. Dopo aver analizzato le fasi evolutive della struttura urbana della città e il sistema di relazioni sociali che la caratterizza, il progetto ha individuato nella zona dell’ex convento di Santa Palazia, sul versante ovest del colle Guasco e attigua al parco archeologico dell’anfiteatro romano, il sito idoneo per la localizzazione di un nuovo complesso architettonico. È prevista la realizzazione di residenze, spazi per la didattica e per la cultura, attività di servizio e commerciale e la realizzazione della sede del nuovo Museo d’Arte Contemporanea della Regione Marche. Il progetto definisce un macrosistema in grado di mettere ordine e porre in relazione, attraverso spazi condivisi, edifici primari (come l’anfiteatro, la chiesa dei SS Pellegrino e Teresa e il Museo Archeologico), siti archeologici, edifici pubblici legati alla archeologia, ed edifici privati, prevalentemente ad uso residenziale. Ridisegna la città facendo della misura dell’eccellenza del passato di Ancona, la misura del nuovo progetto per recuperare l’identità perduta.
Resumo:
Obbiettivo. Analizzare la funzionalità polmonare e diaframmatica dopo interventi di plicatura del diaframma con rete di rinforzo peri-costale eseguiti per relaxatio e riparazione di ernia transdiaframmatica cronica mediante riduzione e sutura diretta. Metodi. Dal 1996 al 2010, 10 pazienti con relaxatio unilaterale del diaframma e 6 pazienti con ernia transdiaframmatica cronica misconosciuta sono stati sottoposti a chirurgia elettiva. Gli accertamenti preoperatori e al follow-up di 12 mesi includevano prove di funzionalità respiratoria, misura della pressione massimale inspiratoria alla bocca in clino e ortostatismo, emogasanlisi, TC del torace e dispnea score. Risultati. I pazienti dei due gruppi non differivano in termini di funzionalità respiratoria preoperatoria nè di complicanze postoperatorie; al follow-up a 12 mesi il gruppo Eventrazione mostrava un significativo aumento del FEV1% (+18,2 – p<0.001), FVC% (+12,8 – p<0.001), DLCO% (+6,84 – p=0,04) e pO2 (+9,8 mmHg – p<0.001). Al contrario nrl gruppo Ernia solo il miglioramento della pO2 era significativo (+8.3 – p=0.04). Sebbene la massima pressione inspiratoria (PImax) fosse aumentata in entrambi i gruppi al follow-up, i pazienti operati per ernia mostravano un miglioramento limitato con persistente caduta significativa della PImax dall’ortostatismo al clinostatismo (p<0.001). Il Transitional dyspnoea score è stato concordante con tali miglioramenti pur senza differenze significative tra i due gruppi. La TC del torace ha evidenziato una sopraelevazione dell’emidiaframma suturato, senza recidiva di ernia, mentre i pazienti sottoposti a plicatura hanno mantenuto l’ipercorrezione. Conclusioni. L’utilizzo di un rinforzo protesico è sicuro e sembra assicurare risultati funzionali migliori a distanza in termini di flussi respiratori e di movimento paradosso del diaframma (valutato mediante PImax). Lacerazioni estese del diaframma coinvolgenti le branche principali di suddivisione del nervo frenico si associano verosimilmente a una relaxatio che può quindi ridurre il guadagno funzionale a lungo termine se non adeguatamente trattata mediante l’utilizzo di un rinforzo protesico.
Resumo:
Numerosi incidenti verificatisi negli ultimi dieci anni in campo chimico e petrolchimico sono dovuti all’innesco di sostanze infiammabili rilasciate accidentalmente: per questo motivo gli scenari incidentali legati ad incendi esterni rivestono oggigiorno un interesse crescente, in particolar modo nell’industria di processo, in quanto possono essere causa di ingenti danni sia ai lavoratori ed alla popolazione, sia alle strutture. Gli incendi, come mostrato da alcuni studi, sono uno dei più frequenti scenari incidentali nell’industria di processo, secondi solo alla perdita di contenimento di sostanze pericolose. Questi eventi primari possono, a loro volta, determinare eventi secondari, con conseguenze catastrofiche dovute alla propagazione delle fiamme ad apparecchiature e tubazioni non direttamente coinvolte nell’incidente primario; tale fenomeno prende il nome di effetto domino. La necessità di ridurre le probabilità di effetto domino rende la mitigazione delle conseguenze un aspetto fondamentale nella progettazione dell’impianto. A questo scopo si impiegano i materiali per la protezione passiva da fuoco (Passive Fire Protection o PFP); essi sono sistemi isolanti impiegati per proteggere efficacemente apparecchiature e tubazioni industriali da scenari di incendio esterno. L’applicazione dei materiali per PFP limita l’incremento di temperatura degli elementi protetti; questo scopo viene raggiunto tramite l’impiego di differenti tipologie di prodotti e materiali. Tuttavia l’applicazione dei suddetti materiali fireproofing non può prescindere da una caratterizzazione delle proprietà termiche, in particolar modo della conducibilità termica, in condizioni che simulino l’esposizione a fuoco. Nel presente elaborato di tesi si è scelto di analizzare tre materiali coibenti, tutti appartenenti, pur con diversità di composizione e struttura, alla classe dei materiali inorganici fibrosi: Fibercon Silica Needled Blanket 1200, Pyrogel®XT, Rockwool Marine Firebatt 100. I tre materiali sono costituiti da una fase solida inorganica, differente per ciascuno di essi e da una fase gassosa, preponderante come frazione volumetrica. I materiali inorganici fibrosi rivestono una notevole importanza rispetto ad altri materiali fireproofing in quanto possono resistere a temperature estremamente elevate, talvolta superiori a 1000 °C, senza particolari modifiche chimico-fisiche. Questo vantaggio, unito alla versatilità ed alla semplicità di applicazione, li rende leader a livello europeo nei materiali isolanti, con una fetta di mercato pari circa al 60%. Nonostante l’impiego dei suddetti materiali sia ormai una realtà consolidata nell’industria di processo, allo stato attuale sono disponibili pochi studi relativi alle loro proprietà termiche, in particolare in condizioni di fuoco. L’analisi sperimentale svolta ha consentito di identificare e modellare il comportamento termico di tali materiali in caso di esposizione a fuoco, impiegando nei test, a pressione atmosferica, un campo di temperatura compreso tra 20°C e 700°C, di interesse per applicazioni fireproofing. Per lo studio delle caratteristiche e la valutazione delle proprietà termiche dei tre materiali è stata impiegata principalmente la tecnica Transient Plane Source (TPS), che ha consentito la determinazione non solo della conducibilità termica, ma anche della diffusività termica e della capacità termica volumetrica, seppure con un grado di accuratezza inferiore. I test sono stati svolti su scala di laboratorio, creando un set-up sperimentale che integrasse opportunamente lo strumento Hot Disk Thermal Constants Analyzer TPS 1500 con una fornace a camera ed un sistema di acquisizione dati. Sono state realizzate alcune prove preliminari a temperatura ambiente sui tre materiali in esame, per individuare i parametri operativi (dimensione sensori, tempi di acquisizione, etc.) maggiormente idonei alla misura della conducibilità termica. Le informazioni acquisite sono state utilizzate per lo sviluppo di adeguati protocolli sperimentali e per effettuare prove ad alta temperatura. Ulteriori significative informazioni circa la morfologia, la porosità e la densità dei tre materiali sono state ottenute attraverso stereo-microscopia e picnometria a liquido. La porosità, o grado di vuoto, assume nei tre materiali un ruolo fondamentale, in quanto presenta valori compresi tra 85% e 95%, mentre la frazione solida ne costituisce la restante parte. Inoltre i risultati sperimentali hanno consentito di valutare, con prove a temperatura ambiente, l’isotropia rispetto alla trasmissione del calore per la classe di materiali coibenti analizzati, l’effetto della temperatura e della variazione del grado di vuoto (nel caso di materiali che durante l’applicazione possano essere soggetti a fenomeni di “schiacciamento”, ovvero riduzione del grado di vuoto) sulla conducibilità termica effettiva dei tre materiali analizzati. Analoghi risultati, seppure con grado di accuratezza lievemente inferiore, sono stati ottenuti per la diffusività termica e la capacità termica volumetrica. Poiché è nota la densità apparente di ciascun materiale si è scelto di calcolarne anche il calore specifico in funzione della temperatura, di cui si è proposto una correlazione empirica. I risultati sperimentali, concordi per i tre materiali in esame, hanno mostrato un incremento della conducibilità termica con la temperatura, da valori largamente inferiori a 0,1 W/(m∙K) a temperatura ambiente, fino a 0,3÷0,4 W/(m∙K) a 700°C. La sostanziale similitudine delle proprietà termiche tra i tre materiali, appartenenti alla medesima categoria di materiali isolanti, è stata riscontrata anche per la diffusività termica, la capacità termica volumetrica ed il calore specifico. Queste considerazioni hanno giustificato l’applicazione a tutti i tre materiali in esame dei medesimi modelli per descrivere la conducibilità termica effettiva, ritenuta, tra le proprietà fisiche determinate sperimentalmente, la più significativa nel caso di esposizione a fuoco. Lo sviluppo di un modello per la conducibilità termica effettiva si è reso necessario in quanto i risultati sperimentali ottenuti tramite la tecnica Transient Plane Source non forniscono alcuna informazione sui contributi offerti da ciascun meccanismo di scambio termico al termine complessivo e, pertanto, non consentono una facile generalizzazione della proprietà in funzione delle condizioni di impiego del materiale. La conducibilità termica dei materiali coibenti fibrosi e in generale dei materiali bi-fasici tiene infatti conto in un unico valore di vari contributi dipendenti dai diversi meccanismi di scambio termico presenti: conduzione nella fase gassosa e nel solido, irraggiamento nelle superfici delle cavità del solido e, talvolta, convezione; inoltre essa dipende fortemente dalla temperatura e dalla porosità. Pertanto, a partire dal confronto con i risultati sperimentali, tra cui densità e grado di vuoto, l’obiettivo centrale della seconda fase del progetto è stata la scelta, tra i numerosi modelli a disposizione in letteratura per materiali bi-fasici, di cui si è presentata una rassegna, dei più adatti a descrivere la conducibilità termica effettiva nei materiali in esame e nell’intervallo di temperatura di interesse, fornendo al contempo un significato fisico ai contributi apportati al termine complessivo. Inizialmente la scelta è ricaduta su cinque modelli, chiamati comunemente “modelli strutturali di base” (Serie, Parallelo, Maxwell-Eucken 1, Maxwell-Eucken 2, Effective Medium Theory) [1] per la loro semplicità e versatilità di applicazione. Tali modelli, puramente teorici, hanno mostrato al raffronto con i risultati sperimentali numerosi limiti, in particolar modo nella previsione del termine di irraggiamento, ovvero per temperature superiori a 400°C. Pertanto si è deciso di adottare un approccio semi-empirico: è stato applicato il modello di Krischer [2], ovvero una media pesata su un parametro empirico (f, da determinare) dei modelli Serie e Parallelo, precedentemente applicati. Anch’esso si è rivelato non idoneo alla descrizione dei materiali isolanti fibrosi in esame, per ragioni analoghe. Cercando di impiegare modelli caratterizzati da forte fondamento fisico e grado di complessità limitato, la scelta è caduta sui due recenti modelli, proposti rispettivamente da Karamanos, Papadopoulos, Anastasellos [3] e Daryabeigi, Cunnington, Knutson [4] [5]. Entrambi presentavano il vantaggio di essere stati utilizzati con successo per materiali isolanti fibrosi. Inizialmente i due modelli sono stati applicati con i valori dei parametri e le correlazioni proposte dagli Autori. Visti gli incoraggianti risultati, a questo primo approccio è seguita l’ottimizzazione dei parametri e l’applicazione di correlazioni maggiormente idonee ai materiali in esame, che ha mostrato l’efficacia dei modelli proposti da Karamanos, Papadopoulos, Anastasellos e Daryabeigi, Cunnington, Knutson per i tre materiali analizzati. Pertanto l’obiettivo finale del lavoro è stato raggiunto con successo in quanto sono stati applicati modelli di conducibilità termica con forte fondamento fisico e grado di complessità limitato che, con buon accordo ai risultati sperimentali ottenuti, consentono di ricavare equazioni predittive per la stima del comportamento, durante l’esposizione a fuoco, dei materiali fireproofing in esame. Bologna, Luglio 2013 Riferimenti bibliografici: [1] Wang J., Carson J.K., North M.F., Cleland D.J., A new approach to modelling the effective thermal conductivity of heterogeneous materials. International Journal of Heat and Mass Transfer 49 (2006) 3075-3083. [2] Krischer O., Die wissenschaftlichen Grundlagen der Trocknungstechnik (The Scientific Fundamentals of Drying Technology), Springer-Verlag, Berlino, 1963. [3] Karamanos A., Papadopoulos A., Anastasellos D., Heat Transfer phenomena in fibrous insulating materials. (2004) Geolan.gr http://www.geolan.gr/sappek/docs/publications/article_6.pdf Ultimo accesso: 1 Luglio 2013. [4] Daryabeigi K., Cunnington G. R., and Knutson J. R., Combined Heat Transfer in High-Porosity High-Temperature Fibrous Insulation: Theory and Experimental Validation. Journal of Thermophysics and Heat Transfer 25 (2011) 536-546. [5] Daryabeigi K., Cunnington G.R., Knutson J.R., Heat Transfer Modeling for Rigid High-Temperature Fibrous Insulation. Journal of Thermophysics and Heat Transfer. AIAA Early Edition/1 (2012).
Resumo:
This thesis investigates two distinct research topics. The main topic (Part I) is the computational modelling of cardiomyocytes derived from human stem cells, both embryonic (hESC-CM) and induced-pluripotent (hiPSC-CM). The aim of this research line lies in developing models of the electrophysiology of hESC-CM and hiPSC-CM in order to integrate the available experimental data and getting in-silico models to be used for studying/making new hypotheses/planning experiments on aspects not fully understood yet, such as the maturation process, the functionality of the Ca2+ hangling or why the hESC-CM/hiPSC-CM action potentials (APs) show some differences with respect to APs from adult cardiomyocytes. Chapter I.1 introduces the main concepts about hESC-CMs/hiPSC-CMs, the cardiac AP, and computational modelling. Chapter I.2 presents the hESC-CM AP model, able to simulate the maturation process through two developmental stages, Early and Late, based on experimental and literature data. Chapter I.3 describes the hiPSC-CM AP model, able to simulate the ventricular-like and atrial-like phenotypes. This model was used to assess which currents are responsible for the differences between the ventricular-like AP and the adult ventricular AP. The secondary topic (Part II) consists in the study of texture descriptors for biological image processing. Chapter II.1 provides an overview on important texture descriptors such as Local Binary Pattern or Local Phase Quantization. Moreover the non-binary coding and the multi-threshold approach are here introduced. Chapter II.2 shows that the non-binary coding and the multi-threshold approach improve the classification performance of cellular/sub-cellular part images, taken from six datasets. Chapter II.3 describes the case study of the classification of indirect immunofluorescence images of HEp2 cells, used for the antinuclear antibody clinical test. Finally the general conclusions are reported.
Resumo:
In this thesis we have developed solutions to common issues regarding widefield microscopes, facing the problem of the intensity inhomogeneity of an image and dealing with two strong limitations: the impossibility of acquiring either high detailed images representative of whole samples or deep 3D objects. First, we cope with the problem of the non-uniform distribution of the light signal inside a single image, named vignetting. In particular we proposed, for both light and fluorescent microscopy, non-parametric multi-image based methods, where the vignetting function is estimated directly from the sample without requiring any prior information. After getting flat-field corrected images, we studied how to fix the problem related to the limitation of the field of view of the camera, so to be able to acquire large areas at high magnification. To this purpose, we developed mosaicing techniques capable to work on-line. Starting from a set of overlapping images manually acquired, we validated a fast registration approach to accurately stitch together the images. Finally, we worked to virtually extend the field of view of the camera in the third dimension, with the purpose of reconstructing a single image completely in focus, stemming from objects having a relevant depth or being displaced in different focus planes. After studying the existing approaches for extending the depth of focus of the microscope, we proposed a general method that does not require any prior information. In order to compare the outcome of existing methods, different standard metrics are commonly used in literature. However, no metric is available to compare different methods in real cases. First, we validated a metric able to rank the methods as the Universal Quality Index does, but without needing any reference ground truth. Second, we proved that the approach we developed performs better in both synthetic and real cases.
Resumo:
A partire da una ricognizione storica sull’ultimo impero coloniale portoghese, la tesi intende analizzare come il mito dell’impero abbia contribuito a definire l’identità nazionale del Portogallo e il suo patrimonio culturale e letterario. Il mito viene indagato in particolar modo nella sua componente linguistica e discorsiva, come modalità peculiare di costruire “costellazioni” di immagini. In questo contesto la letteratura assume una rilevanza specifica, poiché le sue risorse formali le permettono di contrapporre alla fissità del mito una potente articolazione in grado di scardinare gli automatismi legati ad una translatio imperii volta a reiterare l’immaginazione del centro. L’analisi di un corpus letterario afferente a quella che potremmo chiamare la letteratura “dei retornados”, che si concentra soprattutto sulla definizione della focalizzazione narrativa e sulla rielaborazione delle figure narrative, intende ricercare le diverse forme di assumere criticamente il canone imperiale e di oltrepassarlo.
Resumo:
Questa tesi è una panoramica di alcuni concetti base su cui si fonda la dinamica delle galassie. Nel primo capitolo vengono messi in evidenza i concetti più generali dal punto di vista morfologico- strutturale attraverso la classificazione di Hubble. Nel secondo capitolo si mette in evidenza come un sistema possa essere definito non collisionale (attraverso la stima del tempo di rilassamento ai due corpi) e le conseguenze che ne derivano come, per esempio, l' anisotropia dello stesso sistema che conferisce alla galassia la sua classica forma “schiacciata”. Vengono poi descritti la collisional Boltzmann equation (CBE) e il teorema del viriale in forma tensoriale . Integrando la CBE nello spazio delle velocità otteniamo tre equazioni note come equazioni di Jeans: queste hanno una struttura del tutto identica a quelle della fluidodinamica ma con alcune eccezioni significative che non permettono di descrivere completamente la dinamica delle galassie attraverso la fluidodinamica. Il terzo capitolo è un excursus generale sulle galassie ellittiche: dalla loro struttura alla loro dinamica. Dall' applicazione del teorema del viriale ad un sistema ellittico si può notare come la forma “schiacciata” delle galassie sia una conseguenza dell' anisotropia del sistema e sia dovuta solo in minima parte alla rotazione. Successivamente viene presentato un modello galattico (quello di Jeans), che ci permette di calcolare una distribuzione di massa del sistema attraverso un' equazione che purtroppo non ha soluzione unica e quindi ci rende impossibile calcolare il rapporto massa- luminosità. Infine viene descritto il fundamental plane che è una relazione empirica tale per cui ad ogni galassia viene associato un determinato valore di raggio effettivo, dispersione di velocità e luminosità. Nel quarto ed ultimo capitolo viene trattata la dinamica delle parti più esterne di una galassia: disco e bracci. La dinamica del disco è descritta attraverso la curva di rotazione che, come vedremo, ha delle caratteristiche abbastanza diverse da una curva di rotazione di tipo kepleriano (quella che ad esempio descrive l' andamento della velocità in funzione della distanza nel nostro sistema solare). Infine viene descritta la dinamica dei bracci e la teoria delle onde di densità di Lin e Shu, due astronomi americani, che riesce a descrivere compiutamente la nascita e l' evoluzione dei bracci a spirale.
Resumo:
La tesi si articola in quattro parti. La prima, di stampo femminista, propone una panoramica sul femminicidio come fenomeno sociale e sulla relativa situazione giuridica internazionale. La seconda tratta in generale la stampa di qualità, supporto mediatico prescelto per l'analisi linguistica. La terza parte propone un micro-corpus di stampa italiana sul tema del femminicidio e la quarta un micro-corpus di stampa francese sull' "Affaire DSK", entrambe corredate di un' analisi del componente lessicale e discorsivo (Analyse du discours). E' un lavoro comparativo, i cui risultati hanno permesso di mettere in evidenza e provare come la stampa di qualità italiana e francese tendano a veicolare in modo implicito un'immagine sessista, sterotipata e discriminatoria del femminicidio e della vittima di violenza.
Resumo:
L’obiettivo della tesi consiste nell’osservazione di un’immagine ecografica e nella sua analisi tramite vari metodi di segmentazione. Il fine di questo approfondimento è di rendere chiari e misurabili alcuni elementi significativi della figura presa in considerazione. Sono analizzati e implementati alcuni metodi per la segmentazione di un’immagine e applicati ad alcune immagini campione con caratteristiche diverse. Dai risultati ottenuti da questi test sono scelti i metodi più efficaci ed applicati all’ecografia. Il lavoro è svolto nel modo seguente: nel primo capitolo si tratta dei vari metodi di filtrazione di un’immagine e di segmentazione, nel secondo capitolo l’elaborazione delle immagini tramite implementazione dei vari metodi. Il primo capitolo è più teorico, affronta il problema da un punto di vista generale ed è suddiviso in sei sottocapitoli. Nella prima sezione si definisce un’immagine digitale e le nozioni fondamentali di lettura di un’immagine con MATLAB. La seconda e la terza sezione trattano nello specifico i filtri che vengono utilizzati per migliorare un’immagine prima di accedere alla segmentazione definitiva. Nelle ultime tre sezioni vengono studiati alcuni metodi di segmentazione più importanti e di facile implementazione. Il secondo capitolo mette a confronto i vari filtri e i metodi di segmentazione su ‘immagini campione’; infine la parte più interessante e applicativa è la sezione 2.4 in cui viene segmentata l’immagine ecografica che si intende analizzare.
Resumo:
La tesi affronta il tema degli istituti e degli strumenti di tutela della condizione di disoccupazione. In mancanza d’una nozione giuridica generale di disoccupazione, l’obiettivo è quello di ricercare gli elementi comuni ai differenti istituti in grado di definire l’ambito della protezione garantita alla persona priva d’impiego. Lo studio fornisce, dapprima, una complessiva ricognizione storico-critica degli strumenti per il sostegno del reddito nelle ipotesi di mancanza di lavoro. L’esame dei modelli d’intervento legislativo evidenzia finalità, caratteristiche e criticità dei singoli istituti, sia di quelli più consolidati, che degli interventi più recenti. La seconda parte della tesi si propone d’integrare la ricognizione delle forme di tutela economica con l’analisi delle politiche attive nel mercato del lavoro e degli interventi a sostegno all’occupabilità. L’intento è di verificare le modalità attraverso le quali l’ordinamento tenta di collegare tutela del reddito e promozione dell’occupazione. La ricerca affronta anche la questione dei limiti alla libertà di circolazione nell’Unione Europea dei cittadini non lavoratori, nonché il condizionamento determinato dalle misure che riducono o scoraggiano l’esportabilità delle prestazioni previdenziali negli altri Paesi europei. La parte finale si propone d’individuare gli elementi che caratterizzano il complesso degli istituti analizzati, al fine di verificare a quale evento giuridico l’ordinamento offra protezione. Lo studio identifica due elementi rilevanti: la condizione di “mancanza di lavoro”, che accomuna l’intervento per la disoccupazione e quello a favore dei rapporti di lavoro sospesi, nonché l’attualità dello stato di disoccupazione, parametro generale per gli interventi protettivi. L’analisi svolta sottolinea, però, che i meccanismi di c.d. condizionalità per l’accesso alle prestazioni economiche e ai servizi per l’impiego non consentono un’adeguata promozione della qualità del lavoro e della professionalità del lavoratore. La tesi individua un possibile terreno di sviluppo della protezione della condizione del disoccupato nell’integrazione tra strumenti di sostegno all’impiego e interventi a base universalistica.