1000 resultados para tessuto osseo corticale femore trazione collagene caratteristiche meccaniche
Resumo:
Durante l'attività di ricerca sono stati sviluppati tre progetti legati allo sviluppo e ottimizzazione di materiali compositi. In particolare, il primo anno, siamo andati a produrre materiali ceramici ultrarefrattari tenacizzati con fibre di carburo di silicio, riuscendo a migliorare il ciclo produttivo e ottenendo un materiale ottimizzato. Durante il secondo anno di attività ci siamo concentrati nello sviluppo di resine epossidiche rinforzate con particelle di elastomeri florurati che rappresentano un nuovo materiale non presente nel mercato utile per applicazioni meccaniche e navali. L'ultimo anno di ricerca è stato svolto presso il laboratorio materiali di Ansaldo Energia dove è stato studiato il comportamenteo di materiali per turbine a gas.
Resumo:
Numerosi incidenti verificatisi negli ultimi dieci anni in campo chimico e petrolchimico sono dovuti all’innesco di sostanze infiammabili rilasciate accidentalmente: per questo motivo gli scenari incidentali legati ad incendi esterni rivestono oggigiorno un interesse crescente, in particolar modo nell’industria di processo, in quanto possono essere causa di ingenti danni sia ai lavoratori ed alla popolazione, sia alle strutture. Gli incendi, come mostrato da alcuni studi, sono uno dei più frequenti scenari incidentali nell’industria di processo, secondi solo alla perdita di contenimento di sostanze pericolose. Questi eventi primari possono, a loro volta, determinare eventi secondari, con conseguenze catastrofiche dovute alla propagazione delle fiamme ad apparecchiature e tubazioni non direttamente coinvolte nell’incidente primario; tale fenomeno prende il nome di effetto domino. La necessità di ridurre le probabilità di effetto domino rende la mitigazione delle conseguenze un aspetto fondamentale nella progettazione dell’impianto. A questo scopo si impiegano i materiali per la protezione passiva da fuoco (Passive Fire Protection o PFP); essi sono sistemi isolanti impiegati per proteggere efficacemente apparecchiature e tubazioni industriali da scenari di incendio esterno. L’applicazione dei materiali per PFP limita l’incremento di temperatura degli elementi protetti; questo scopo viene raggiunto tramite l’impiego di differenti tipologie di prodotti e materiali. Tuttavia l’applicazione dei suddetti materiali fireproofing non può prescindere da una caratterizzazione delle proprietà termiche, in particolar modo della conducibilità termica, in condizioni che simulino l’esposizione a fuoco. Nel presente elaborato di tesi si è scelto di analizzare tre materiali coibenti, tutti appartenenti, pur con diversità di composizione e struttura, alla classe dei materiali inorganici fibrosi: Fibercon Silica Needled Blanket 1200, Pyrogel®XT, Rockwool Marine Firebatt 100. I tre materiali sono costituiti da una fase solida inorganica, differente per ciascuno di essi e da una fase gassosa, preponderante come frazione volumetrica. I materiali inorganici fibrosi rivestono una notevole importanza rispetto ad altri materiali fireproofing in quanto possono resistere a temperature estremamente elevate, talvolta superiori a 1000 °C, senza particolari modifiche chimico-fisiche. Questo vantaggio, unito alla versatilità ed alla semplicità di applicazione, li rende leader a livello europeo nei materiali isolanti, con una fetta di mercato pari circa al 60%. Nonostante l’impiego dei suddetti materiali sia ormai una realtà consolidata nell’industria di processo, allo stato attuale sono disponibili pochi studi relativi alle loro proprietà termiche, in particolare in condizioni di fuoco. L’analisi sperimentale svolta ha consentito di identificare e modellare il comportamento termico di tali materiali in caso di esposizione a fuoco, impiegando nei test, a pressione atmosferica, un campo di temperatura compreso tra 20°C e 700°C, di interesse per applicazioni fireproofing. Per lo studio delle caratteristiche e la valutazione delle proprietà termiche dei tre materiali è stata impiegata principalmente la tecnica Transient Plane Source (TPS), che ha consentito la determinazione non solo della conducibilità termica, ma anche della diffusività termica e della capacità termica volumetrica, seppure con un grado di accuratezza inferiore. I test sono stati svolti su scala di laboratorio, creando un set-up sperimentale che integrasse opportunamente lo strumento Hot Disk Thermal Constants Analyzer TPS 1500 con una fornace a camera ed un sistema di acquisizione dati. Sono state realizzate alcune prove preliminari a temperatura ambiente sui tre materiali in esame, per individuare i parametri operativi (dimensione sensori, tempi di acquisizione, etc.) maggiormente idonei alla misura della conducibilità termica. Le informazioni acquisite sono state utilizzate per lo sviluppo di adeguati protocolli sperimentali e per effettuare prove ad alta temperatura. Ulteriori significative informazioni circa la morfologia, la porosità e la densità dei tre materiali sono state ottenute attraverso stereo-microscopia e picnometria a liquido. La porosità, o grado di vuoto, assume nei tre materiali un ruolo fondamentale, in quanto presenta valori compresi tra 85% e 95%, mentre la frazione solida ne costituisce la restante parte. Inoltre i risultati sperimentali hanno consentito di valutare, con prove a temperatura ambiente, l’isotropia rispetto alla trasmissione del calore per la classe di materiali coibenti analizzati, l’effetto della temperatura e della variazione del grado di vuoto (nel caso di materiali che durante l’applicazione possano essere soggetti a fenomeni di “schiacciamento”, ovvero riduzione del grado di vuoto) sulla conducibilità termica effettiva dei tre materiali analizzati. Analoghi risultati, seppure con grado di accuratezza lievemente inferiore, sono stati ottenuti per la diffusività termica e la capacità termica volumetrica. Poiché è nota la densità apparente di ciascun materiale si è scelto di calcolarne anche il calore specifico in funzione della temperatura, di cui si è proposto una correlazione empirica. I risultati sperimentali, concordi per i tre materiali in esame, hanno mostrato un incremento della conducibilità termica con la temperatura, da valori largamente inferiori a 0,1 W/(m∙K) a temperatura ambiente, fino a 0,3÷0,4 W/(m∙K) a 700°C. La sostanziale similitudine delle proprietà termiche tra i tre materiali, appartenenti alla medesima categoria di materiali isolanti, è stata riscontrata anche per la diffusività termica, la capacità termica volumetrica ed il calore specifico. Queste considerazioni hanno giustificato l’applicazione a tutti i tre materiali in esame dei medesimi modelli per descrivere la conducibilità termica effettiva, ritenuta, tra le proprietà fisiche determinate sperimentalmente, la più significativa nel caso di esposizione a fuoco. Lo sviluppo di un modello per la conducibilità termica effettiva si è reso necessario in quanto i risultati sperimentali ottenuti tramite la tecnica Transient Plane Source non forniscono alcuna informazione sui contributi offerti da ciascun meccanismo di scambio termico al termine complessivo e, pertanto, non consentono una facile generalizzazione della proprietà in funzione delle condizioni di impiego del materiale. La conducibilità termica dei materiali coibenti fibrosi e in generale dei materiali bi-fasici tiene infatti conto in un unico valore di vari contributi dipendenti dai diversi meccanismi di scambio termico presenti: conduzione nella fase gassosa e nel solido, irraggiamento nelle superfici delle cavità del solido e, talvolta, convezione; inoltre essa dipende fortemente dalla temperatura e dalla porosità. Pertanto, a partire dal confronto con i risultati sperimentali, tra cui densità e grado di vuoto, l’obiettivo centrale della seconda fase del progetto è stata la scelta, tra i numerosi modelli a disposizione in letteratura per materiali bi-fasici, di cui si è presentata una rassegna, dei più adatti a descrivere la conducibilità termica effettiva nei materiali in esame e nell’intervallo di temperatura di interesse, fornendo al contempo un significato fisico ai contributi apportati al termine complessivo. Inizialmente la scelta è ricaduta su cinque modelli, chiamati comunemente “modelli strutturali di base” (Serie, Parallelo, Maxwell-Eucken 1, Maxwell-Eucken 2, Effective Medium Theory) [1] per la loro semplicità e versatilità di applicazione. Tali modelli, puramente teorici, hanno mostrato al raffronto con i risultati sperimentali numerosi limiti, in particolar modo nella previsione del termine di irraggiamento, ovvero per temperature superiori a 400°C. Pertanto si è deciso di adottare un approccio semi-empirico: è stato applicato il modello di Krischer [2], ovvero una media pesata su un parametro empirico (f, da determinare) dei modelli Serie e Parallelo, precedentemente applicati. Anch’esso si è rivelato non idoneo alla descrizione dei materiali isolanti fibrosi in esame, per ragioni analoghe. Cercando di impiegare modelli caratterizzati da forte fondamento fisico e grado di complessità limitato, la scelta è caduta sui due recenti modelli, proposti rispettivamente da Karamanos, Papadopoulos, Anastasellos [3] e Daryabeigi, Cunnington, Knutson [4] [5]. Entrambi presentavano il vantaggio di essere stati utilizzati con successo per materiali isolanti fibrosi. Inizialmente i due modelli sono stati applicati con i valori dei parametri e le correlazioni proposte dagli Autori. Visti gli incoraggianti risultati, a questo primo approccio è seguita l’ottimizzazione dei parametri e l’applicazione di correlazioni maggiormente idonee ai materiali in esame, che ha mostrato l’efficacia dei modelli proposti da Karamanos, Papadopoulos, Anastasellos e Daryabeigi, Cunnington, Knutson per i tre materiali analizzati. Pertanto l’obiettivo finale del lavoro è stato raggiunto con successo in quanto sono stati applicati modelli di conducibilità termica con forte fondamento fisico e grado di complessità limitato che, con buon accordo ai risultati sperimentali ottenuti, consentono di ricavare equazioni predittive per la stima del comportamento, durante l’esposizione a fuoco, dei materiali fireproofing in esame. Bologna, Luglio 2013 Riferimenti bibliografici: [1] Wang J., Carson J.K., North M.F., Cleland D.J., A new approach to modelling the effective thermal conductivity of heterogeneous materials. International Journal of Heat and Mass Transfer 49 (2006) 3075-3083. [2] Krischer O., Die wissenschaftlichen Grundlagen der Trocknungstechnik (The Scientific Fundamentals of Drying Technology), Springer-Verlag, Berlino, 1963. [3] Karamanos A., Papadopoulos A., Anastasellos D., Heat Transfer phenomena in fibrous insulating materials. (2004) Geolan.gr http://www.geolan.gr/sappek/docs/publications/article_6.pdf Ultimo accesso: 1 Luglio 2013. [4] Daryabeigi K., Cunnington G. R., and Knutson J. R., Combined Heat Transfer in High-Porosity High-Temperature Fibrous Insulation: Theory and Experimental Validation. Journal of Thermophysics and Heat Transfer 25 (2011) 536-546. [5] Daryabeigi K., Cunnington G.R., Knutson J.R., Heat Transfer Modeling for Rigid High-Temperature Fibrous Insulation. Journal of Thermophysics and Heat Transfer. AIAA Early Edition/1 (2012).
Resumo:
Solo il 60% dei candidati alla resincronizzazione cardiaca risponde in termini di rimodellamento ventricolare inverso che è il più forte predittore di riduzione della mortalità e delle ospedalizzazioni. Due cause possibili della mancata risposta sono la programmazione del dispositivo e i limiti dell’ approccio transvenoso. Nel corso degli anni di dottorato ho effettuato tre studi per ridurre il numero di non responder. Il primo studio valuta il ritardo interventricolare. Al fine di ottimizzare le risorse e fornire un reale beneficio per il paziente ho ricercato la presenza di predittori di ritardo interventricolare diverso dal simultaneo, impostato nella programmazione di base. L'unico predittore è risultato essere l’ intervallo QRS> 160 ms, quindi ho proposto una flow chart per ottimizzare solo i pazienti che avranno nella programmazione ottimale un intervallo interventricolare non simultaneo. Il secondo lavoro valuta la fissazione attiva del ventricolo sinistro con stent. I dislocamenti, la soglia alta di stimolazione del miocardio e la stimolazione del nervo frenico sono tre problematiche che limitano la stimolazione biventricolare. Abbiamo analizzato più di 200 angiografie per vedere le condizioni anatomiche predisponenti la dislocazione del catetere. Prospetticamente abbiamo deciso di utilizzare uno stent per fissare attivamente il catetere ventricolare sinistro in tutti i pazienti che presentavano le caratteristiche anatomiche favorenti la dislocazione. Non ci sono più state dislocazioni, c’è stata una migliore risposta in termini di rimodellamento ventricolare inverso e non ci sono state modifiche dei parametri elettrici del catetere. Il terzo lavoro ha valutato sicurezza ed efficacia della stimolazione endoventricolare sinistra. Abbiamo impiantato 26 pazienti giudicati non responder alla terapia di resincronizzazione cardiaca. La procedura è risultata sicura, il rischio di complicanze è simile alla stimolazione biventricolare classica, ed efficace nell’arrestare la disfunzione ventricolare sinistra e / o migliorare gli effetti clinici in un follow-up medio.
Resumo:
Il progetto di un velivolo risulta essere un processo multidisciplinare molto complesso. Per poter determinare una configurazione di variabili che permetta di soddisfare i requisiti che si desiderano ottenere dal velivolo, sono necessarie una serie di stime che richiedono altrettanti cicli di analisi delle caratteristiche, prima di poter ottenere una configurazione completa o accettabile. Il processo di progetto richiede, così, un gran numero di iterazioni per poter trovare la migliore configurazione. In questo lavoro di tesi verranno descritti gli strumenti di ottimizzazione noti come algoritmi genetici e verrà presentato come questi possano essere inquadrati all'interno della fase preliminare del progetto di un velivolo.
Resumo:
L’obiettivo della ricerca è, da un lato, quello di definire un quadro conoscitivo di sfondo rispetto al fenomeno della tratta e dello sfruttamento sessuale di donne che approdano nel contesto italiano, dall’altro quello di esaminare gli interventi politici e legislativi posti in essere per contrastare il fenomeno e per tutelarne le vittime. Dopo uno sguardo alle caratteristiche strutturali della tratta, alla normativa italiana, europea e internazionale connessa al suo contrasto e alla protezione delle vittime e ai modelli di intervento sociale nel settore posti in essere nel nostro Paese, l’analisi si è concretizzata prendendo in considerazione i risultati emersi dall’attività di ricerca. L’analisi delle storie di vita delle vittime, di nazionalità nigeriana, albanese e serba ha permesso, da un lato, di evidenziare la complessità dei loro percorsi di vita e dall’altro di tracciare un quadro delle modalità organizzative e di sfruttamento utilizzate dal racket nigeriano e da quello albanese. Sul versante legislativo, invece, le interviste ai ricercatori svedesi sono state volte a comprendere se la normativa che punisce l’acquisto di prestazioni sessuali potesse avere un potere deterrente e, quindi, se potesse rappresentare una risposta efficace per arginare il fenomeno della prostituzione schiavizzata. In ultimo, dal punto di vista processuale, l’analisi delle sentenze giudiziarie penali emesse dal Tribunale di Rimini è stata utile per individuare le principali dinamiche che caratterizzano il rapporto tra l’autore e la vittima di reato e, non di meno, per sottolineare l’importanza del ruolo della vittima nel processo penale.
Resumo:
Obiettivi: nonostante i miglioramenti nel trattamento, circa il 30% dei pazienti pediatrici affetti da Linfoma di Hodgkin (LH) in stadio avanzato recidiva o muore per progressione di malattia e i correnti metodi predittivi biologico-clinici non consentono di individuare tali pazienti. L’obiettivo dello studio è stato quello di definire un profilo molecolare di rischio che correli con l’outcome in questi pazienti. Materiali e metodi: studio retrospettico condotto su pazienti pediatrici affetti da LH omogeneamente trattati dal 2004 in poi. Su tali pazienti è stato intrapreso uno studio di validazione di marcatori molecolari già identificati in studi esplorativi precedenti. 27 geni sono stati analizzati in RT PCR su campioni di tessuto istologico prelevato alla diagnosi fissato in formalina e processato in paraffina relativi a una coorte di 37 pazienti, 12 ad outcome sfavorevole e 25 ad outcome favorevole. Risultati: dall’analisi univariata è emerso che solo l’espressione di CASP3 e CYCS, appartenenti al pathway apoptotico, è in grado di influenzare l’EFS in modo significativo nella nostra coorte di pazienti. Lo studio delle possibili combinazioni di questi geni ha mostrato l’esistenza di 3 gruppi di rischio che correlano con l’EFS: alto rischio (down regolazione di entrambi i geni), rischio intermedio (down regolazione di uno solo dei 2 geni), basso rischio (up regolazione di entrambi i geni). Dall’analisi multivariata è emerso che CASP3 è l’unica variabile che mantiene la sua indipendenza nell’influenzare la prognosi con un rischio di eventi di oltre il doppio di chi ha un’espressione bassa di questo gene. Conclusioni: i risultati ottenuti sulla nostra coorte di pazienti pediatrici affetti da LH confermano l’impatto sulla prognosi di due marcatori molecolari CASP3 e CYCS coinvolti nel patwhay apoptotico. La valutazione del profilo di espressione di tali geni, potrebbe pertanto essere utilizzata in corso di stadiazione, come criterio di predittività.
Resumo:
Negli ultimi anni il mondo del mobile computing ha avuto una vera e propria crescita esponenziale grazie soprattutto all'entrata in scena dello smartphone. In realtà, per essere più precisi, è bene bene sottolineare che gli smartphone esistevano già da tempo ma il loro utilizzo era in particolar modo indirizzato ai professionisti per il quale era, ma continua ad essere tutt'oggi, un valido supporto in campo lavorativo, basti pensare all'importanza della comunicazione via e-mail e non solo. Seppur comunque fossero già presenti da tempo, i primi smartphone non godevano di certo di un touch-screen sofisticato come quello odierno nè in essi erano presenti funzionalità tipiche dei dispositivi che troviamo ad oggi sul mercato. Una svolta decisiva è stata segnata dall'introduzione dell'iPhone e successivamente dell'AppStore, grazie a questi la programmazione per i dispositivi mobile ha preso sempre più piede diventando un vero e proprio business. In un secondo momento alla programmazione nativa si affiancarono le tecnologie web. Questo mio lavoro di tesi si pone l'obiettivo di studiare in primis la struttura, caratteristiche e peculiarità del sistema operativo iOS e analizzare il framework PhoneGap al fine di riuscire a confrontarne i vari aspetti fondamentali anche attraverso lo sviluppo di piccole applicazioni. Così facendo, quindi scendendo nei dettagli di quelle che possono essere le differenze rilevanti, mi pongo l'obiettivo di valutarne relativi pro e contro al fine di fare una scelta del tutto personale tra iOS e PhoneGap.
Resumo:
Gli argomenti trattati all’interno di questa tesi di dottorato riguardano la sintesi e la modifica di polimeri ottenuti a partire da fonti rinnovabili. L’acido polilattico (PLA) è stato modificato per ottenere film estensibili per uso alimentare. La scelta del materiale si è basata sull’analisi del suo ciclo di vita e perché è riconosciuto come sicuro per l’utilizzo nel campo alimentare. Le formulazioni testate, a base di PLA, sono state preparate con l’aggiunta di una serie di additivi utilizzati per migliorare le proprietà meccaniche del materiale. La lavorazione è stata eseguita mediante estrusione, ottenendo dei pellet a composizione omogenea successivamente lavorati nell’estrusore a bolla, modalità industriale di produzione dei film estensibili. È stata poi effettuata la sintesi diretta di nuovi poliesteri insaturi a base di dimetil succinato e 1,6-esandiolo. L’insaturazione della catena è stata ottenuta mediante l’uso, durante la sintesi, di derivati dell’olio di ricino, l’acido ricinoleico e il suo derivato insaturo metil undecenoato. Un’altra molecola insatura utilizzata è stata il citronellolo, scelto tra i terpeni. I polimeri così ottenuti sono stati modificati tramite reazioni radicaliche indotte con radiazioni UV utilizzando sostanze antibatteriche (sale 3-esadecil-1-vinilimidazolo bromuro) al fine di ottenere materiali con attività biocida a lungo termine e senza rilascio. Si è proceduto inoltre alla polimerizzazione reversibile di monomeri furanici con oli vegetali utilizzando una strategia di tipo double click. Si è partiti dalla sintesi di monomeri derivanti da oli vegetali contenenti eterocicli furanici attaccati mediante addizione tiol-enica (prima reazione click chemistry) e si è proseguito con la loro successiva polimerizzazione attraverso una reazione di tipo Diels-Alder con molecole con gruppi maleimmidici (seconda reazione click chemistry). I polimeri così ottenuti sono materiali potenzialmente auto-riparanti, grazie alla possibilità di spostare l’equilibrio verso i prodotti o i reagenti semplicemente variando le condizioni di temperatura.
Resumo:
La tesi di dottorato del dott. Wu Gongqing è il frutto di un lavoro di studio e ricerca durato tre anni e condotto usufruendo delle strutture di ricerca della Fondazione per le Scienze Religiose Giovanni XXIII di Bologna. L'obiettivo del lavoro che il candidato presenta è quello di offrire un quadro della ricezione di una delle maggiori opere di Origene, il Contra Celsum, nella cultura dell'Europa moderna. Il punto di vista scelto per condurre questa indagine è quello delle edizioni e traduzioni che il testo conobbe a partire dal 1481 sino alla fine del Settecento. La scansione del lavoro segue il susseguirsi delle diverse edizioni, con un capitolo dedicato alle edizioni umanistiche e al loro impatto sulla cultura italiana ed europea fra Quattro e Cinquecento. Seguono i capitoli dedicati alle edizioni di Hoeschel, Spencer, Bouhéreau e Delarue, Mosheim e Tamburini. In ciascun capitolo il ricercatore prende in esame le diverse edizioni e traduzioni, analizzandone le caratteristiche letterarie principali, lo stile, il rapporto con la tradizione manoscritta, la diffusione e cercando di ricondurre ciascuna di esse al proprio specifico ambito storico-culturale.
Resumo:
In this thesis we have developed solutions to common issues regarding widefield microscopes, facing the problem of the intensity inhomogeneity of an image and dealing with two strong limitations: the impossibility of acquiring either high detailed images representative of whole samples or deep 3D objects. First, we cope with the problem of the non-uniform distribution of the light signal inside a single image, named vignetting. In particular we proposed, for both light and fluorescent microscopy, non-parametric multi-image based methods, where the vignetting function is estimated directly from the sample without requiring any prior information. After getting flat-field corrected images, we studied how to fix the problem related to the limitation of the field of view of the camera, so to be able to acquire large areas at high magnification. To this purpose, we developed mosaicing techniques capable to work on-line. Starting from a set of overlapping images manually acquired, we validated a fast registration approach to accurately stitch together the images. Finally, we worked to virtually extend the field of view of the camera in the third dimension, with the purpose of reconstructing a single image completely in focus, stemming from objects having a relevant depth or being displaced in different focus planes. After studying the existing approaches for extending the depth of focus of the microscope, we proposed a general method that does not require any prior information. In order to compare the outcome of existing methods, different standard metrics are commonly used in literature. However, no metric is available to compare different methods in real cases. First, we validated a metric able to rank the methods as the Universal Quality Index does, but without needing any reference ground truth. Second, we proved that the approach we developed performs better in both synthetic and real cases.
Resumo:
In questo lavoro di tesi vengono esaminate quelle caratteristiche architetturali del middleware di coordinazione TuCSoN che maggiormente impattano sulle prestazioni dei sistemi coordinati. Laddove è stato possibile si è intervenuto sia a livello architetturale sia a livello tecnologico per migliorare le prestazioni del middleware. Come risultato finale si è ottenuto un importante incremento delle prestazioni del sistema. Non tutte le migliorie apportabili sono state realizzate, tuttavia vengono forniti alcuni spunti per possibili sviluppi futuri.
Resumo:
Lo scopo della tesi risiede nel caratterizzare film sottili di Rubrene cresciuti per mezzo dell’epitassia molecolare. In particolare si è studiata la densità di stati di trappola con il fine di determinare il grado di purezza di questi campioni. Partendo dalle caratteristiche I-V (Corrente-Tensione) in temperatura è stato possibile utilizzare il modello TM-SCLC (Temperature Modulated Space Charge Limited Current)concludendo che i campioni così cresciuti raggiungono un grado di purezza maggiore rispetto al Rubrene bulk ed escludendo la presenza di difetti estrinseci.
Resumo:
Questa tesi è una panoramica di alcuni concetti base su cui si fonda la dinamica delle galassie. Nel primo capitolo vengono messi in evidenza i concetti più generali dal punto di vista morfologico- strutturale attraverso la classificazione di Hubble. Nel secondo capitolo si mette in evidenza come un sistema possa essere definito non collisionale (attraverso la stima del tempo di rilassamento ai due corpi) e le conseguenze che ne derivano come, per esempio, l' anisotropia dello stesso sistema che conferisce alla galassia la sua classica forma “schiacciata”. Vengono poi descritti la collisional Boltzmann equation (CBE) e il teorema del viriale in forma tensoriale . Integrando la CBE nello spazio delle velocità otteniamo tre equazioni note come equazioni di Jeans: queste hanno una struttura del tutto identica a quelle della fluidodinamica ma con alcune eccezioni significative che non permettono di descrivere completamente la dinamica delle galassie attraverso la fluidodinamica. Il terzo capitolo è un excursus generale sulle galassie ellittiche: dalla loro struttura alla loro dinamica. Dall' applicazione del teorema del viriale ad un sistema ellittico si può notare come la forma “schiacciata” delle galassie sia una conseguenza dell' anisotropia del sistema e sia dovuta solo in minima parte alla rotazione. Successivamente viene presentato un modello galattico (quello di Jeans), che ci permette di calcolare una distribuzione di massa del sistema attraverso un' equazione che purtroppo non ha soluzione unica e quindi ci rende impossibile calcolare il rapporto massa- luminosità. Infine viene descritto il fundamental plane che è una relazione empirica tale per cui ad ogni galassia viene associato un determinato valore di raggio effettivo, dispersione di velocità e luminosità. Nel quarto ed ultimo capitolo viene trattata la dinamica delle parti più esterne di una galassia: disco e bracci. La dinamica del disco è descritta attraverso la curva di rotazione che, come vedremo, ha delle caratteristiche abbastanza diverse da una curva di rotazione di tipo kepleriano (quella che ad esempio descrive l' andamento della velocità in funzione della distanza nel nostro sistema solare). Infine viene descritta la dinamica dei bracci e la teoria delle onde di densità di Lin e Shu, due astronomi americani, che riesce a descrivere compiutamente la nascita e l' evoluzione dei bracci a spirale.
Resumo:
La tesi è orientata ad elaborare un’introduzione alla geometria algebrica particolarmente rivolta agli strumenti di algebra commutativa, al fine di affrontare i problemi descritti nell'ultimo paragrafo. A partire da testi basilari per l’argomento, come [A, MD] e [Ha], si introdurrà la nozione di spettro di un anello e si andranno a studiare vari casi che costituiscono una buona base per avere un panorama delle possibili strutture che si generano come schemi associati ad un anello e se ne studieranno le proprietà caratteristiche. In particolare, si analizzeranno proprietà di irriducibilità, finitezza e altro, in connessione con quelle degli anelli commutativi. Una particolare attenzione viene poi rivolta agli schemi 0-dimensionali, alle loro diverse immersioni negli spazi proiettivi ed ai problemi aperti ad essi connessi (es. determinazione della funzione di Hilbert). In questo ambito molti problemi aperti rimangono anche per questioni di semplice formulazione (ad esempio sulla dimensione di particolari spazi lineari di curve piane definite dall'imposizione di singolarità lungo schemi 0-dimensionali).
Resumo:
L’obiettivo della tesi consiste nell’osservazione di un’immagine ecografica e nella sua analisi tramite vari metodi di segmentazione. Il fine di questo approfondimento è di rendere chiari e misurabili alcuni elementi significativi della figura presa in considerazione. Sono analizzati e implementati alcuni metodi per la segmentazione di un’immagine e applicati ad alcune immagini campione con caratteristiche diverse. Dai risultati ottenuti da questi test sono scelti i metodi più efficaci ed applicati all’ecografia. Il lavoro è svolto nel modo seguente: nel primo capitolo si tratta dei vari metodi di filtrazione di un’immagine e di segmentazione, nel secondo capitolo l’elaborazione delle immagini tramite implementazione dei vari metodi. Il primo capitolo è più teorico, affronta il problema da un punto di vista generale ed è suddiviso in sei sottocapitoli. Nella prima sezione si definisce un’immagine digitale e le nozioni fondamentali di lettura di un’immagine con MATLAB. La seconda e la terza sezione trattano nello specifico i filtri che vengono utilizzati per migliorare un’immagine prima di accedere alla segmentazione definitiva. Nelle ultime tre sezioni vengono studiati alcuni metodi di segmentazione più importanti e di facile implementazione. Il secondo capitolo mette a confronto i vari filtri e i metodi di segmentazione su ‘immagini campione’; infine la parte più interessante e applicativa è la sezione 2.4 in cui viene segmentata l’immagine ecografica che si intende analizzare.