457 resultados para Probabilité de couverture
Resumo:
This doctoral dissertation presents a new method to asses the influence of clearancein the kinematic pairs on the configuration of planar and spatial mechanisms. The subject has been widely investigated in both past and present scientific literature, and is approached in different ways: a static/kinetostatic way, which looks for the clearance take-up due to the external loads on the mechanism; a probabilistic way, which expresses clearance-due displacements using probability density functions; a dynamic way, which evaluates dynamic effects like the actual forces in the pairs caused by impacts, or the consequent vibrations. This dissertation presents a new method to approach the problem of clearance. The problem is studied from a purely kinematic perspective. With reference to a given mechanism configuration, the pose (position and orientation) error of the mechanism link of interest is expressed as a vector function of the degrees of freedom introduced in each pair by clearance: the presence of clearance in a kinematic pair, in facts, causes the actual pair to have more degrees of freedom than the theoretical clearance-free one. The clearance-due degrees of freedom are bounded by the pair geometry. A proper modelling of clearance-affected pairs allows expressing such bounding through analytical functions. It is then possible to study the problem as a maximization problem, where a continuous function (the pose error of the link of interest) subject to some constraints (the analytical functions bounding clearance- due degrees of freedom) has to be maximize. Revolute, prismatic, cylindrical, and spherical clearance-affected pairs have been analytically modelled; with reference to mechanisms involving such pairs, the solution to the maximization problem has been obtained in a closed form.
Resumo:
Numerosi incidenti verificatisi negli ultimi dieci anni in campo chimico e petrolchimico sono dovuti all’innesco di sostanze infiammabili rilasciate accidentalmente: per questo motivo gli scenari incidentali legati ad incendi esterni rivestono oggigiorno un interesse crescente, in particolar modo nell’industria di processo, in quanto possono essere causa di ingenti danni sia ai lavoratori ed alla popolazione, sia alle strutture. Gli incendi, come mostrato da alcuni studi, sono uno dei più frequenti scenari incidentali nell’industria di processo, secondi solo alla perdita di contenimento di sostanze pericolose. Questi eventi primari possono, a loro volta, determinare eventi secondari, con conseguenze catastrofiche dovute alla propagazione delle fiamme ad apparecchiature e tubazioni non direttamente coinvolte nell’incidente primario; tale fenomeno prende il nome di effetto domino. La necessità di ridurre le probabilità di effetto domino rende la mitigazione delle conseguenze un aspetto fondamentale nella progettazione dell’impianto. A questo scopo si impiegano i materiali per la protezione passiva da fuoco (Passive Fire Protection o PFP); essi sono sistemi isolanti impiegati per proteggere efficacemente apparecchiature e tubazioni industriali da scenari di incendio esterno. L’applicazione dei materiali per PFP limita l’incremento di temperatura degli elementi protetti; questo scopo viene raggiunto tramite l’impiego di differenti tipologie di prodotti e materiali. Tuttavia l’applicazione dei suddetti materiali fireproofing non può prescindere da una caratterizzazione delle proprietà termiche, in particolar modo della conducibilità termica, in condizioni che simulino l’esposizione a fuoco. Nel presente elaborato di tesi si è scelto di analizzare tre materiali coibenti, tutti appartenenti, pur con diversità di composizione e struttura, alla classe dei materiali inorganici fibrosi: Fibercon Silica Needled Blanket 1200, Pyrogel®XT, Rockwool Marine Firebatt 100. I tre materiali sono costituiti da una fase solida inorganica, differente per ciascuno di essi e da una fase gassosa, preponderante come frazione volumetrica. I materiali inorganici fibrosi rivestono una notevole importanza rispetto ad altri materiali fireproofing in quanto possono resistere a temperature estremamente elevate, talvolta superiori a 1000 °C, senza particolari modifiche chimico-fisiche. Questo vantaggio, unito alla versatilità ed alla semplicità di applicazione, li rende leader a livello europeo nei materiali isolanti, con una fetta di mercato pari circa al 60%. Nonostante l’impiego dei suddetti materiali sia ormai una realtà consolidata nell’industria di processo, allo stato attuale sono disponibili pochi studi relativi alle loro proprietà termiche, in particolare in condizioni di fuoco. L’analisi sperimentale svolta ha consentito di identificare e modellare il comportamento termico di tali materiali in caso di esposizione a fuoco, impiegando nei test, a pressione atmosferica, un campo di temperatura compreso tra 20°C e 700°C, di interesse per applicazioni fireproofing. Per lo studio delle caratteristiche e la valutazione delle proprietà termiche dei tre materiali è stata impiegata principalmente la tecnica Transient Plane Source (TPS), che ha consentito la determinazione non solo della conducibilità termica, ma anche della diffusività termica e della capacità termica volumetrica, seppure con un grado di accuratezza inferiore. I test sono stati svolti su scala di laboratorio, creando un set-up sperimentale che integrasse opportunamente lo strumento Hot Disk Thermal Constants Analyzer TPS 1500 con una fornace a camera ed un sistema di acquisizione dati. Sono state realizzate alcune prove preliminari a temperatura ambiente sui tre materiali in esame, per individuare i parametri operativi (dimensione sensori, tempi di acquisizione, etc.) maggiormente idonei alla misura della conducibilità termica. Le informazioni acquisite sono state utilizzate per lo sviluppo di adeguati protocolli sperimentali e per effettuare prove ad alta temperatura. Ulteriori significative informazioni circa la morfologia, la porosità e la densità dei tre materiali sono state ottenute attraverso stereo-microscopia e picnometria a liquido. La porosità, o grado di vuoto, assume nei tre materiali un ruolo fondamentale, in quanto presenta valori compresi tra 85% e 95%, mentre la frazione solida ne costituisce la restante parte. Inoltre i risultati sperimentali hanno consentito di valutare, con prove a temperatura ambiente, l’isotropia rispetto alla trasmissione del calore per la classe di materiali coibenti analizzati, l’effetto della temperatura e della variazione del grado di vuoto (nel caso di materiali che durante l’applicazione possano essere soggetti a fenomeni di “schiacciamento”, ovvero riduzione del grado di vuoto) sulla conducibilità termica effettiva dei tre materiali analizzati. Analoghi risultati, seppure con grado di accuratezza lievemente inferiore, sono stati ottenuti per la diffusività termica e la capacità termica volumetrica. Poiché è nota la densità apparente di ciascun materiale si è scelto di calcolarne anche il calore specifico in funzione della temperatura, di cui si è proposto una correlazione empirica. I risultati sperimentali, concordi per i tre materiali in esame, hanno mostrato un incremento della conducibilità termica con la temperatura, da valori largamente inferiori a 0,1 W/(m∙K) a temperatura ambiente, fino a 0,3÷0,4 W/(m∙K) a 700°C. La sostanziale similitudine delle proprietà termiche tra i tre materiali, appartenenti alla medesima categoria di materiali isolanti, è stata riscontrata anche per la diffusività termica, la capacità termica volumetrica ed il calore specifico. Queste considerazioni hanno giustificato l’applicazione a tutti i tre materiali in esame dei medesimi modelli per descrivere la conducibilità termica effettiva, ritenuta, tra le proprietà fisiche determinate sperimentalmente, la più significativa nel caso di esposizione a fuoco. Lo sviluppo di un modello per la conducibilità termica effettiva si è reso necessario in quanto i risultati sperimentali ottenuti tramite la tecnica Transient Plane Source non forniscono alcuna informazione sui contributi offerti da ciascun meccanismo di scambio termico al termine complessivo e, pertanto, non consentono una facile generalizzazione della proprietà in funzione delle condizioni di impiego del materiale. La conducibilità termica dei materiali coibenti fibrosi e in generale dei materiali bi-fasici tiene infatti conto in un unico valore di vari contributi dipendenti dai diversi meccanismi di scambio termico presenti: conduzione nella fase gassosa e nel solido, irraggiamento nelle superfici delle cavità del solido e, talvolta, convezione; inoltre essa dipende fortemente dalla temperatura e dalla porosità. Pertanto, a partire dal confronto con i risultati sperimentali, tra cui densità e grado di vuoto, l’obiettivo centrale della seconda fase del progetto è stata la scelta, tra i numerosi modelli a disposizione in letteratura per materiali bi-fasici, di cui si è presentata una rassegna, dei più adatti a descrivere la conducibilità termica effettiva nei materiali in esame e nell’intervallo di temperatura di interesse, fornendo al contempo un significato fisico ai contributi apportati al termine complessivo. Inizialmente la scelta è ricaduta su cinque modelli, chiamati comunemente “modelli strutturali di base” (Serie, Parallelo, Maxwell-Eucken 1, Maxwell-Eucken 2, Effective Medium Theory) [1] per la loro semplicità e versatilità di applicazione. Tali modelli, puramente teorici, hanno mostrato al raffronto con i risultati sperimentali numerosi limiti, in particolar modo nella previsione del termine di irraggiamento, ovvero per temperature superiori a 400°C. Pertanto si è deciso di adottare un approccio semi-empirico: è stato applicato il modello di Krischer [2], ovvero una media pesata su un parametro empirico (f, da determinare) dei modelli Serie e Parallelo, precedentemente applicati. Anch’esso si è rivelato non idoneo alla descrizione dei materiali isolanti fibrosi in esame, per ragioni analoghe. Cercando di impiegare modelli caratterizzati da forte fondamento fisico e grado di complessità limitato, la scelta è caduta sui due recenti modelli, proposti rispettivamente da Karamanos, Papadopoulos, Anastasellos [3] e Daryabeigi, Cunnington, Knutson [4] [5]. Entrambi presentavano il vantaggio di essere stati utilizzati con successo per materiali isolanti fibrosi. Inizialmente i due modelli sono stati applicati con i valori dei parametri e le correlazioni proposte dagli Autori. Visti gli incoraggianti risultati, a questo primo approccio è seguita l’ottimizzazione dei parametri e l’applicazione di correlazioni maggiormente idonee ai materiali in esame, che ha mostrato l’efficacia dei modelli proposti da Karamanos, Papadopoulos, Anastasellos e Daryabeigi, Cunnington, Knutson per i tre materiali analizzati. Pertanto l’obiettivo finale del lavoro è stato raggiunto con successo in quanto sono stati applicati modelli di conducibilità termica con forte fondamento fisico e grado di complessità limitato che, con buon accordo ai risultati sperimentali ottenuti, consentono di ricavare equazioni predittive per la stima del comportamento, durante l’esposizione a fuoco, dei materiali fireproofing in esame. Bologna, Luglio 2013 Riferimenti bibliografici: [1] Wang J., Carson J.K., North M.F., Cleland D.J., A new approach to modelling the effective thermal conductivity of heterogeneous materials. International Journal of Heat and Mass Transfer 49 (2006) 3075-3083. [2] Krischer O., Die wissenschaftlichen Grundlagen der Trocknungstechnik (The Scientific Fundamentals of Drying Technology), Springer-Verlag, Berlino, 1963. [3] Karamanos A., Papadopoulos A., Anastasellos D., Heat Transfer phenomena in fibrous insulating materials. (2004) Geolan.gr http://www.geolan.gr/sappek/docs/publications/article_6.pdf Ultimo accesso: 1 Luglio 2013. [4] Daryabeigi K., Cunnington G. R., and Knutson J. R., Combined Heat Transfer in High-Porosity High-Temperature Fibrous Insulation: Theory and Experimental Validation. Journal of Thermophysics and Heat Transfer 25 (2011) 536-546. [5] Daryabeigi K., Cunnington G.R., Knutson J.R., Heat Transfer Modeling for Rigid High-Temperature Fibrous Insulation. Journal of Thermophysics and Heat Transfer. AIAA Early Edition/1 (2012).
Resumo:
Nell’autunno del 2011 due eventi meteorologici estremi caratterizzati da intense precipitazioni hanno interessato la Liguria. Nella giornata del 25 ottobre si è verificato sul Levante ligure un evento alluvionale di rilevante entità, determinato dalla formazione di un intenso sistema convettivo che ha coinvolto l’area compresa tra il Tigullio, le Cinque Terre ed il bacino del Magra. Un altro episodio di forte maltempo si è verificato tra il 3 e il 9 novembre 2011, e in particolare il forte sistema convettivo che ha interessato Genova la mattina del 4 novembre, in cui avvenne l’esondazione in alcuni punti del torrente Bisagno e del rio Fereggiano. Tuttavia, nel corso del lungo periodo perturbato si sono registrati vari episodi di esondazione, localizzati principalmente in zone golenali agricole, anche sui versanti padani della regione, oltre a numerosi casi di smottamenti e frane. I casi sopra citati sono stati studiati facendo innanzitutto un’accurata analisi meteorologica a scala sinottica e alla mesoscala, esaminando in particolar modo i meccanismi che hanno portato l’innesco dei due sistemi temporaleschi. In secondo luogo, utilizzando anche dati osservativi disponibili, si è voluto mettere in evidenza la reale e significativa evoluzione nel tempo e nello spazio dei dati pluviometrici delle stazioni al suolo, e dei parametri fisici più importanti, come ad esempio la direzione e l’intensità del vento. Infine, utilizzando simulazioni numeriche dei modelli sviluppati all’ISAC-CNR di Bologna (BOLAM e MOLOCH), ci si è posti l’obiettivo di verificare la loro sensibilità alla risoluzione e ad altri aspetti numerici e fisici, in particolare per quanto riguarda i dati relativi alla precipitazione. I modelli, oltre a riprodurre la dinamica degli eventi in maniera fisicamente coerente anche se non del tutto accurata, sono stati utilizzati, previo confronto con le osservazioni, per verificare alcune ipotesi formulate relative ai processi fisici responsabili dell’intensità della precipitazione, come ad esempio la presenza del flusso (outflow) di aria fredda proveniente dalla cold pool in relazione con le correnti caldo-umide negli strati più bassi (Low Level Jet, LLJ), e la formazione di una zona di convergenza nella quale è più alta la probabilità che si sviluppino sistemi convettivi organizzati.
Resumo:
La valutazione dei rischi associati all’operatività dei sistemi di stoccaggio, quali la sismicità indotta e la subsidenza, è requisito basilare per una loro corretta gestione e progettazione, e passa attraverso la definizione dell’influenza sullo stato tensionale delle variazioni di pressione di poro nel sottosuolo. Principale scopo di questo progetto è lo sviluppo di una metodologia in grado di quantificare le deformazioni dei reservoir in funzione della pressione di poro, di tarare i modelli utilizzati con casi studio che presentino dati di monitoraggio reali, tali da consentire un confronto con le previsioni di modello. In questa tesi, la teoria delle inomogeneità è stata utilizzata, tramite un approccio semianalitico, per definire le variazioni dei campi elastici derivanti dalle operazioni di prelievo e immissione di fluidi in serbatoi geologici. Estensione, forma e magnitudo delle variazioni di stress indotte sono state valutate tramite il concetto di variazione dello sforzo critico secondo il criterio di rottura di Coulomb, tramite un’analisi numerica agli elementi finiti. La metodologia sviluppata è stata applicata e tarata su due reservoir sfruttati e riconvertiti a sistemi di stoccaggio che presentano dataset, geologia, petrofisica, e condizioni operative differenti. Sono state calcolate le variazioni dei campi elastici e la subsidenza; è stata mappata la variazione di sforzo critico di Coulomb per entrambi i casi. I risultati ottenuti mostrano buon accordo con le osservazioni dei monitoraggi, suggerendo la bontà della metodologia e indicando la scarsa probabilità di sismicità indotta. Questo progetto ha consentito la creazione di una piattaforma metodologica di rapido ed efficace utilizzo, per stimare l’influenza dei sistemi di stoccaggio di gas sullo stato tensionale della crosta terrestre; in fase di stoccaggio, permette di monitorare le deformazioni e gli sforzi indotti; in fase di progettazione, consente di valutare le strategie operative per monitorare e mitigare i rischi geologici associati a questi sistemi.
Resumo:
Si è proposto una serie di 4 assiomi per la MQ più deboli, e quindi più fondamentali, da cui è possibile dedurre i concetti di misura di probabilità, equazione di Schrodinger e operatori autoaggiunti, considerati i pilastri della MQ. Si è cercato di trovare le motivazioni fisiche che rendevano necessaria la loro formulazione e si sono sviluppate le conseguenze matematiche. In particolare ci si è focalizzati nel dimostrare che non a tutte le osservabili possono essere associati operatori simmetrici definiti su tutto lo spazio di Hilbert, da cui l’introduzione negli assiomi della MQ degli operatori simmetrici massimali densamente definiti; il punto fondamentale è che da questi ultimi è stato provato che si può arrivare alla corrispondenza biunivoca tra operatori autoaggiunti ed osservabili fisiche. Si è infine dimostrato che la condizione che un operatore sia simmetrico massimale non implica che esso sia autoaggiunto.
Resumo:
In questa tesi si studiano gli aspetti dell’emissione non termica degli ammassi di galassie e le proprietà in confronto all’emissione termica dell’ICM, in particolare verranno messe a confronto le proprietà nella banda radio ed X. Si considerano in particolare le radiosorgenti diffuse: gli aloni, i relitti, i mini aloni e si mostra come l’andamento dello spettro radio degli aloni sia ripido alle alte frequenze; inoltre si nota che merger (scontri) recenti tra ammassi, sembrano fornire energia agli aloni ed ai relitti e dunque come conseguenza di ciò le proprietà nella banda radio e nei raggi X negli ammassi siano collegate tra di loro. I risultati sperimentali consentono di ipotizzare che gli ammassi con aloni e relitti siano caratterizzati da una forte attività dinamica che è collegata ai processi di merging. Si può vedere che i mini aloni sono le uniche sorgenti diffuse che non sono associate a merger tra ammassi. Si discute degli elettroni relativistici negli aloni radio, nei relitti radio e nei mini aloni radio. Trattando i campi magnetici degli ammassi, la loro origine e la polarizzazione che essi producono si evince che misurando la percentuale di polarizzazione si può stimare il grado d’ordine del campo magnetico in una radiosorgente. Se l’ICM in un ammasso possiede un forte effetto sulle strutture delle radiogalassie, la probabilità di formare radiosorgenti sembra non essere influenzata dall’ambiente dell’ammasso, ma soltanto dai merger degli ammassi. Nel secondo capitolo in particolare, si approfondisce invece la radiazione di sincrotrone.
Resumo:
In questo elaborato sono stati analizzati i dati raccolti nel Corso-Laboratorio “L’esperimento più bello”, realizzato nel periodo marzo-aprile 2013 nell'ambito delle attività del Piano Lauree Scientifiche del Dipartimento di Fisica e Astronomia di Bologna. Il Corso, frequentato da studenti volontari del quinto anno di Liceo Scientifico, era finalizzato ad introdurre concetti di Fisica Quantistica seguendo, come filo conduttore, l’esperimento di interferenza con elettroni singoli e le sue varianti. I principali dati considerati e analizzati riguardano le risposte degli studenti a questionari proposti a fine Corso per avere un riscontro sul tipo di coinvolgimento e sul livello di comprensione raggiunto. L’analisi è stata condotta con l’obiettivo specifico di valutare come gli studenti si siano posti di fronte ad alcuni approfondimenti formali sviluppati per interpretare gli esperimenti e come abbiano colto i concetti trattati, ritenuti necessari per entrare nel “nuovo modo di vedere il mondo della quantistica”: il concetto di stato, sovrapposizione, ampiezza di probabilità, entanglement.
Resumo:
Il presente lavoro ha lo scopo di presentare gli studi e i risultati ottenuti durante l’attività di ricerca svolta sul Displacement-based Assessment (DBA) dei telai in cemento armato. Dopo alcune considerazioni iniziali sul tema della vulnerabilità sismica e sui metodi di analisi e verifica, si procede alla descrizione teorica del metodo. Sono stati analizzati tre casi studio di telai piani, progettati per soli carichi verticali e secondo normative non più in vigore che non prevedevano l’applicazione della gerarchia delle resistenze. I telai considerati, destinati ad abitazione civile, hanno diversa altezza e numero di piani, e diverso numero di campate. Si è proceduto all’applicazione del metodo, alla valutazione della vulnerabilità sismica in base alla domanda in termini di spostamento costituita da uno spettro elastico previsto dall’EC8 e alla validazione dei risultati ottenuti mediante analisi non lineari statiche e dinamiche e mediante l’applicazione dei teoremi dell’Analisi limite dei telai, proposta come procedura alternativa per la determinazione del meccanismo anelastico e della capacità in termini di taglio alla base. In ultimo si è applicata la procedura DBA per la valutazione della vulnerabilità sismica di un edificio scolastico, realizzato tra il 1969 e il 1975 in un sito caratterizzato da una accelerazione di picco orizzontale pari a 0,24g e una probabilità di superamento del 10% in 75 anni.
Resumo:
L’approccio performance-based nell’Ingegneria sismica è una metodologia di progetto che tiene esplicitamente in conto la performance dell’edificio tra i criteri progettuali. Nell’ambito dei metodi PBEE (Performance-Based Earthquake Engineering) di seconda generazione, quello proposto dal PEER (Pacific Earthquake Engineering Research Center) risulta essere il più diffuso. In esso la performance dell’edificio oggetto di studio viene valutata in termini quantitativi secondo le 3D’s (dollars, deaths, downtime – soldi, decessi, inutilizzo), quantità di notevole interesse per l’utente finale. Il metodo si compone di quattro step, indipendenti tra loro fino alla sintesi finale. Essi sono: l’analisi di pericolosità, l’analisi strutturale, l’analisi di danno, l’analisi delle perdite o di loss. Il risultato finale è la curva di loss, che assegna ad ogni possibile perdita economica conseguente all’evento sismico una probabilità di superamento nell’arco temporale di riferimento. Dopo la presentazione del metodo PEER, si è provveduto ad una sua applicazione su di un caso di studio, nella fattispecie un telaio piano di quattro campate, multipiano, in calcestruzzo armato, costruito secondo le norme del ’92. Per l’analisi di pericolosità si è fatto ricorso alle mappe di pericolosità disponibili sul sito INGV, mentre per l’analisi strutturale si è utilizzato il software open-source OpenSees. Le funzioni di fragilità e quelle di loss sono state sviluppate facendo riferimento alla letteratura scientifica, in particolare il bollettino Fib numero 68 “Probabilistic performance-based seismic design”. In questa sede ci si è concentrati unicamente sulla stima delle perdite economiche, tralasciando le altre due variabili decisionali. Al termine del procedimento si è svolta un’analisi di sensitività per indagare quali parametri influenzino maggiormente la curva di loss. Data la curva di pericolosità, il legame EDP(IM) e la deformazione ultima a collasso risultano essere i più rilevanti sul risultato dell’analisi.
Resumo:
Obiettivo: capire la relazione che intercorre tra le coliche del cavallo e le parassitosi intestinali, quindi capire l’effettiva rilevanza clinica delle infezioni parassitarie. Tipo di studio: studio clinico-chirurgico e parassitologico. Metodi: in questo studio sono stati presi in esame 92 cavalli afferiti presso il servizio SARGA del Dipartimento di Scienze Mediche Veterinarie durante gli anni 2009-2011. 27 di questi soggetti sono stati sottoposti a laparotomia esplorativa per colica, 22 avevano una colica che si è risolta con terapia medica, sono stati 43 i cavalli afferiti presso il servizio per patologie diverse dall’addome acuto. I cavalli da cui è stato possibile prelevare un’adeguato quantitativo di feci (# 86) sono stati sottoposti ad esami coprologici, qualitativi e quantitativi. I dati ottenuti sono stati sottoposti ad analisi statistica descrittiva, al test del Chi quadrato e al test di Kuskall-Wallis rispettivamente per le prevalenze e i dati quantitativi, oltre ad una regressione logistica per evidenziare i fattori di rischio. Dai cavalli sottoposti a celiotomia è stato prelevato il contenuto intestinale per la raccolta dei parassiti adulti. Risultati: la prevalenza e l’abbondanza degli strongili è risultata significativamente minore nei cavalli sottoposti a chirurgia addominale rispetto al totale della popolazione presa in esame. Differenze significative di prevalenza sono state evidenziate anche tra i cavalli in colica medica e chirurgica. L’unico fattore di rischio evidenziato dall’analisi di regressione logistica è rappresentato dall’età per le sole coliche trattate chirurgicamente. Né strongili né ascaridi sembrano aumentare il rischio di colica. La probabilità di decesso aumenta significativamente in caso di colica chirurgica ma non è influenzata in alcun modo dalle infezioni parassitarie.
Resumo:
Utilizzando fonti della più diversa tipologia (liturgiche, agiografiche, storiche, letterarie, archeologiche ed epigrafiche), lo studio condotto sulla Passio s. Prisci e sulla Vita s. Castrensis, entrambe con ogni probabilità composte da monaci benedettini a Capua tra X e XI secolo, si concentra innanzitutto sulle vicende che in quell'arco di tempo resero possibile la permanenza delle comunità di Montecassino e di S. Vincenzo al Volturno nel centro campano e sul riflesso che la loro presenza ebbe sulla vita politica e culturale della città. La Passio s. Prisci acquista una valenza non solo religiosa ma anche politica se messa in relazione con la quasi contemporanea istituzione della metropolia capuana; la Vita s. Castrensis, per la netta prevalenza dell'elemento fantastico e soprannaturale che la caratterizza, appare meno legata alle contingenze storico-politiche e più vicina ai topoi della tradizione agiografica e popolare. I capitoli centrali della tesi sono dedicati alla figura di Quodvultdeus, vescovo cartaginese esiliato dai Vandali nel V secolo, la cui vicenda, narrata da Vittore di Vita nell'Historia persecutionis africanae provinciae ha funto da modello per le agigrafie campane. La ricerca prende dunque in considerazione le fonti letterarie, i ritrovamenti archeologici e le testimonianze epigrafiche che confermerebbero la testimonianza di Vittore, riflettendo inoltre sui rapporti di natura commerciale che nel V secolo intercorsero tra Africa e Campania e sul forte legame esistente, già a partire dal secolo precedente, tra le Chiese delle due regioni, fattori che potrebbero aver facilitato l'arrivo degli esuli cartaginesi a Napoli. L'ultima parte del lavoro è volta a rintracciare le ragioni storiche e letterarie che possono aver spinto gli autori dei testi a trasformare due santi di sicura origine campana in vescovi africani venuti dal mare, favorendo la diffusione del topos nell'agiografia campana medievale.
Resumo:
La tesi descrive alcune applicazioni in ambito satellitare delle tecniche di radio cognitiva. In particolare si analizza la loro possibile implementazione in uno scenario dual-satellite in banda Ka nel quale l'utente primario si avvale dello standard DVB-S2 per la trasmissione. A seguire la verifica delle performance degli algoritmi di spectum sensing per la detection del segnale primario attraverso simulazioni in ambiente matlab con curve ROC e curve di probabilità di detection in funzione del rapporto segnale rumore.
Resumo:
La tesi affronta il tema della neuromatematica della visione, in particolare l’integrazione di modelli geometrici di percezione visiva con tecniche di riduzione di dimensionalità. Dall’inizio del secolo scorso, la corrente ideologica della Gestalt iniziò a definire delle regole secondo le quali stimoli visivi distinti tra loro possono essere percepiti come un’unica unità percettiva, come ad esempio i principi di prossimità, somiglianza o buona continuazione. Nel tentativo di quantificare ciò che gli psicologi avevano definito in maniera qualitativa, Field, Hayes e Hess hanno descritto, attraverso esperimenti psicofisiologici, dei campi di associazione per stimoli orientati, che definiscono quali caratteristiche due segmenti dovrebbero avere per poter essere associati allo stesso gruppo percettivo. Grazie alle moderne tecniche di neuroimaging che consentono una mappatura funzionale dettagliata della corteccia visiva, è possibile giustificare su basi neurofisiologiche questi fenomeni percettivi. Ad esempio è stato osservato come neuroni sensibili ad una determinata orientazione siano preferenzialmente connessi con neuroni aventi selettività in posizione e orientazione coerenti con le regole di prossimità e buona continuazione. Partendo dal modello di campi di associazione nello spazio R^2xS^1 introdotto da Citti e Sarti, che introduce una giustificazione del completamento percettivo sulla base della funzionalità della corteccia visiva primaria (V1), è stato possibile modellare la connettività cellulare risolvendo un sistema di equazioni differenziali stocastiche. In questo modo si sono ottenute delle densità di probabilità che sono state interpretate come probabilità di connessione tra cellule semplici in V1. A queste densità di probabilità è possibile collegare direttamente il concetto di affinità tra stimoli visivi, e proprio sulla costruzione di determinate matrici di affinità si sono basati diversi metodi di riduzione di dimensionalità. La fenomenologia del grouping visivo descritta poco sopra è, di fatto, il risultato di un procedimento di riduzione di dimensionalità. I risultati ottenuti da questa analisi e gli esempi applicativi sviluppati si sono rivelati utili per comprendere più nel dettaglio la possibilità di poter riprodurre, attraverso l’analisi spettrale di matrici di affinità calcolate utilizzando i modelli geometrici di Citti-Sarti, il fenomeno percettivo di grouping nello spazio R^2xS^1.
Resumo:
Questo lavoro di tesi si è svolto in collaborazione con le Unità Operative di Cardiologia e di Radiologia dell’ospedale “M. Bufalini” di Cesena e della St. Jude Medical, Inc., con l’obiettivo di sviluppare e implementare un metodo per l’identificazione e la valutazione della fibrosi atriale mediante risonanza magnetica in pazienti con fibrillazione atriale, candidati a procedura di ablazione. I pazienti sono stati sottoposti all’esame di risonanza magnetica (RM) angio per la valutazione della morfologia atriale e alla DE-MRI per l’identificazione e la visualizzazione delle zone di alto enhancement sulla struttura 3D dell’atrio sinistro, ossia le zone di alta intensità corrispondenti alla fibrosi. La struttura anatomica è utile all’elettrofisiologo per conoscere la morfologia dell’atrio e delle vene polmonari, permettendo quindi di minimizzare l’uso della fluoroscopia durante la procedura di ablazione. La conoscenza dei siti e della quantificazione della fibrosi è vantaggiosa per il medico per la pianificazione preoperatoria, in quanto nei pazienti con molta fibrosi non è sufficiente l’isolamento delle vene polmonari, ma si ottengono risultati migliori effettuando un’ablazione estensiva della parete atriale. Inoltre gli studi in letteratura hanno dimostrato che i pazienti con un’estensione di fibrosi superiore al 35% della superficie atriale, hanno una probabilità superiore al 50% di soffrire nuovamente di fibrillazione atriale dopo la procedura di ablazione; lo studio della fibrosi atriale vuole quindi essere un metodo per predire se l’ablazione avrà successo, oppure se è preferibile seguire indicazioni terapeutiche diverse. Il primo passo di questo lavoro è stata la registrazione delle immagini angio-RM e DE-MR mediante il software VolView. Successivamente si è implementato un programma in Matlab per segmentare in modo automatico l’atrio sinistro e si è visualizzata la struttura tridimensionale con la mappa cromatica della fibrosi utilizzando il software ParaView. Infine per validare questo lavoro si è effettuato un confronto qualitativo dei risultati ottenuti con il mappaggio elettro-anatomico acquisito mediante il sistema EnSite Velocity della St. Jude Medical, Inc. durante la procedura di ablazione transcatetere. Per eseguire questo confronto è stato necessario interfacciare il nostro lavoro con il sistema EnSite Velocity, con lo scopo di riuscire a visualizzare le mappe elettro-anatomiche sul nostro sistema e di importare la nostra struttura anatomica nel loro.