983 resultados para Traffic jam, transizioni di fase, optimal velocity
Resumo:
The present work aims for investigate the influence of electrospun Nylon 6,6 nanofibrous mat on the behavior of composite laminates. The main idea is that nanofibrous interleaved into particular ply-to-ply interfaces of a laminate can lead to significant improvements of mechanical properties and delamination/damage resistance. Experimental campaigns were performed to investigate how nanofibers affect both the static and dynamic behavior of the laminate in which they are interleaved. Fracture mechanics tests were initially performed on virgin and 8 different configuration of nanomodified specimens. The purposes of this first step of the work are to understand which geometrical parameters of the nanointerleave influence the behavior of the laminate and, to find the optimal architecture of the nanofibrous mat in order to obtain the best reinforcement. In particular, 3 morphological parameters are investigated: nanofibers diameter, nanofibers orientation and thickness of the reinforce. Two different values for each parameter have been used, and it leads to 8 different configurations of nanoreinforce. Acoustic Emission technique is also used to monitor the tests. Once the optimum configuration has been found, attention is focused on the mechanism of reinforce played by the nanofibers during static and dynamic tests. Low velocity impacts and free decay tests are performed to attest the effect of nanointerlayers and the reinforce mechanism during the dynamic loads. Bump tests are performed before and after the impact on virgin and two different nanomodified laminates configurations. The authors focused their attention on: vibrational behavior, low velocity impact response and post-impact vibration behavior of the nano-interleaved laminates with respect to the response of non-nanomodified ones. Experiments attest that nanofibers significantly strength the delamination resistance of the laminates and increase some mechanical properties. It is demonstrated that the nanofibers are capable to continue to carry on the loads even when the matrix around them is broken.
Resumo:
Negli ultimi anni l’interesse nei confronti dell’H2 è cresciuto notevolmente per l’aumento della richiesta energetica mondiale. Uno dei processi più importanti per la produzione di H2 utilizza la reazione di Water-Gas Shift (WGS) per il trattamento delle correnti in uscita dai processi di steam reforming o di ossidazione parziale catalitica. CO + H2O CO2 + H2 ∆H0298 = -41,2 KJ/mol Sono quindi stati sviluppati sistemi catalitici attivi nella reazione di WGS a media temperatura (circa 300 °C). Partendo da sistemi catalitici a base di Cu/Zn/Al, ottenuti da precursori idrotalcitici e sviluppati in lavori di tesi precedenti, sono state effettuate modifiche nella composizione al fine di aumentarne l’attività e la stabilità. L’aggiunta di piccole quantità di Mg ha un effetto positivo sull’attività dei sistemi catalitici, con effetti più evidenti a 250 °C. Tuttavia, l’aumento del contenuto di Mg, sebbene migliori le proprietà fisiche del catalizzatore (area superficiale e dispersione del Cu) sia del campione calcinato che di quello scaricato dopo reazione, peggiora drasticamente l’attività catalitica. L’aggiunta di piccole quantità di Mg sembra portare alla stabilizzazione della specie attiva Cu+ e promuovere un meccanismo redox superficiale (Cu0 e Cu+). E’ possibile correlare la conversione del CO con il rapporto ZnO/Cu, confermando il ruolo nella reazione di WGS dell’interazione Cu0/ZnO libero. La sostituzione di Mg con Ba comporta un miglioramento delle prestazioni catalitiche, in particolare nelle condizioni MTS (300 °C), suggerendo una più facile dissociazione dell’acqua legata alla stabilizzazione degli ossidrili da parte dei siti basici. È però accompagnato da una diminuzione della stabilità nelle condizioni di reazione. L’aggiunta di piccole quantità di La, Ce o Zr (con un rapporto Al/R = 50 mol/mol) incrementa la stabilità termica, sia in termini di proprietà fisiche che di attività catalitica. A seguito dei cicli termici di invecchiamento accelerato, infatti, non si riscontrano importanti diminuzioni di attività catalitica, evidenziando un’elevata stabilità della fase attiva.
Resumo:
La presente ricerca muove i suoi primi passi dall’ipotesi generale che il paradigma relazionale possa offrire al mondo dei servizi sociali una configurazione diversa, talora meno utopistica, del community work. Sebbene, infatti, in questi anni il sistema di offerta dei servizi si sia arricchito di principi come la co-progettazione e la co-responsabilità delle azioni, il lavoro di comunità resta ancora molto distante dal lavoro generalmente svolto nei servizi sociali territoriali, incapaci per ragioni strutturali e culturali di accogliere dentro di sé tale funzione. L’idea dalla quale trae origine la presente tesi di dottorato, è pertanto quella di arricchire la definizione di servizi sociali relazionali. Partendo dalle dimensioni che in letteratura sociologica e nei principali modelli teorici di social work definiscono un servizio alla persona quale servizio relazionale, nella prima parte teorica viene ipotizzata una trasformazione parziale del welfare regionale emiliano, poiché ai mutamenti culturali di questi anni non ha fatto seguito un cambiamento reale dei modelli operativi maggiormente basati sullo sviluppo delle competenze. Nella seconda parte della tesi, la ricerca empirica si focalizza sui progetti “family friendly” realizzati nel Comune di Parma, collocati in una logica di welfare societario e basati sull’apporto di soggetti di Terzo Settore, responsabili di ogni fase di realizzazione delle attività. La ricerca si avvale prevalentemente di tecniche qualitative e in alcuni tratti assume le caratteristiche della ricerca-azione. Nelle conclusioni, il contesto territoriale studiato rivela grande ricchezza dei legami strutturali, ma anche necessità di un rafforzamento dei legami interni. La forza dei servizi prodotti si situa, inoltre, nella sovrafunzionalità del legame tra volontari e famiglie, e di questo elemento dovrebbe arricchirsi anche il social work che scelga di adottare una prospettiva metodologica di lavoro relazionale.
Resumo:
Introduzione: La sindrome delle gambe senza riposo (RLS) è un disturbo caratterizzato da sensazione spiacevole disestesica generalmente agli arti inferiori, che si presenta o peggiora nelle ore serali-notturne e che migliora con il movimento. Studi clinici hanno mostrato una maggiore prevalenza di RLS negli emicranici, mentre mancano studi condotti su popolazione generale non selezionata. Lo scopo di questo studio era quello di valutare la associazione tra emicrania e RLS in una popolazione italiana adulta. Inoltre è stata valutata l’associazione tra RLS e cefalea fenotipizzata attraverso metodica di principal components analysis (PCA). Materiali e metodi: la presenza di RLS e di emicrania è stata determinata attraverso questionari basati sui criteri diagnostici correnti in un campione di 1567 partecipanti di un fase preliminare di uno studio in corso sulla popolazione adulta della Val Venosta (BZ). Risultati: gli emicranici hanno presentato un significativo maggior rischio di soffrire di RLS rispetto ai non emicranici, anche dopo aggiustamento per fattori confondenti come età, sesso, depressione, ansia e qualità del sonno (p = 0.049). Questa associazione non era modificata dalla presenza di aura emicranica, di cause possibili di RLS secondaria e dalla frequenza di attacchi emicranici. Inoltre la RLS non era risultata significativamente associata alla cefalea di tipo tensivo (TTH). Dall’analisi di associazione tra RLS e cefalea fenotipizzata attraverso PCA era emerso che la componente 1, caratterizzata da sintomi di sensitivizzazione del sistema nervoso centrale (SNC), correlava significativamente con la presenza di RLS (p = 0.021). Conclusioni: RLS ed emicrania sono risultate associate nel nostro campione di popolazione adulta; inoltre la RLS ha mostrato una correlazione significativa con i sintomi di sensitivizzazione del SNC legati agli attacchi di cefalea. Questa associazione potrebbe risiedere in una possibile base patogenetica comune.
Resumo:
Solo il 60% dei candidati alla resincronizzazione cardiaca risponde in termini di rimodellamento ventricolare inverso che è il più forte predittore di riduzione della mortalità e delle ospedalizzazioni. Due cause possibili della mancata risposta sono la programmazione del dispositivo e i limiti dell’ approccio transvenoso. Nel corso degli anni di dottorato ho effettuato tre studi per ridurre il numero di non responder. Il primo studio valuta il ritardo interventricolare. Al fine di ottimizzare le risorse e fornire un reale beneficio per il paziente ho ricercato la presenza di predittori di ritardo interventricolare diverso dal simultaneo, impostato nella programmazione di base. L'unico predittore è risultato essere l’ intervallo QRS> 160 ms, quindi ho proposto una flow chart per ottimizzare solo i pazienti che avranno nella programmazione ottimale un intervallo interventricolare non simultaneo. Il secondo lavoro valuta la fissazione attiva del ventricolo sinistro con stent. I dislocamenti, la soglia alta di stimolazione del miocardio e la stimolazione del nervo frenico sono tre problematiche che limitano la stimolazione biventricolare. Abbiamo analizzato più di 200 angiografie per vedere le condizioni anatomiche predisponenti la dislocazione del catetere. Prospetticamente abbiamo deciso di utilizzare uno stent per fissare attivamente il catetere ventricolare sinistro in tutti i pazienti che presentavano le caratteristiche anatomiche favorenti la dislocazione. Non ci sono più state dislocazioni, c’è stata una migliore risposta in termini di rimodellamento ventricolare inverso e non ci sono state modifiche dei parametri elettrici del catetere. Il terzo lavoro ha valutato sicurezza ed efficacia della stimolazione endoventricolare sinistra. Abbiamo impiantato 26 pazienti giudicati non responder alla terapia di resincronizzazione cardiaca. La procedura è risultata sicura, il rischio di complicanze è simile alla stimolazione biventricolare classica, ed efficace nell’arrestare la disfunzione ventricolare sinistra e / o migliorare gli effetti clinici in un follow-up medio.
Resumo:
This dissertation analyzes the effect of market analysts’ expectations of share prices (price targets) on executive compensation. It examines how well the estimated effects of price targets on compensation fit with two competing views on determining executive compensation: the arm’s length bargaining model, which assumes that a board seeks to maximize shareholders’ interests, and the managerial power model, which assumes that a board seeks to maximize managers’ compensation (Bebchuk et al. 2005). The first chapter documents the pattern of CEO pay from fiscal year 1996 to 2010. The second chapter analyzes the Institutional Broker Estimate System Detail History Price Target data file, which that reports analysts’ price targets for firms. I show that the number of price target announcements is positively associated with company share price’s volatility, that price targets are predictive of changes in the value of stocks, and that when analysts announce positive (negative) expectations of future stock price, share prices change in the same direction in the short run. The third chapter analyzes the effect of price targets on executive compensation. I find that analysts' price targets alter the composition of executive pay between cash-based compensation and stock-based compensation. When analysts forecast a rise (fall) in the share price for a firm, the compensation package tilts toward stock-based (cash-based) compensation. The substitution effect is stronger in companies that have weaker corporate governance. The fourth chapter explores the effect of the introduction of the Sarbanes-Oxley Act (SOX) in 2002 and its reinforcement in 2006 on the options granting process. I show that the introduction of SOX and its reinforcement eliminated the practice of backdating options but increased “spring-loading” of option grants around price targets announcements. Overall, the dissertation shows that price targets provide insights into the determinants of executive pay in favor of the managerial power model.
Resumo:
In questa tesi viene presentata un’analisi dettagliata sulla struttura di profili recettori di neuroni coinvolti nell’elaborazione visiva, con particolare attenzione per le cellule appartenenti alla corteccia visiva primaria (V1). Dopo aver illustrato brevemente il percorso effettuato dall’informazione visiva, costituito da retina, nucleo genicolato laterale e V1, vengono descritte la struttura e le principali caratteristiche di profili recettori dei neuroni appartenenti ad ognuno di questi livelli di elaborazione. Per modellare i profili recettori di cellule corticali in V1 si è deciso di utilizzare filtri bidimensionali realizzati mediante funzioni di Gabor nel dominio spaziale. Questo modello ha, infatti, il grande vantaggio di possedere alcune tra le maggiori proprietà dei profili recettori di neuroni appartenenti a V1: struttura del profilo recettore nello spazio (x,y), selettività in orientazione e in frequenza spaziale, indipendenza dalla fase dello stimolo. Viene successivamente presentato il concetto di campo di associazione visivo, mediante il quale sono determinate le caratteristiche principali (posizione spaziale ed orientazione) che diversi oggetti devono possedere per essere percepiti non come unità singole, ma come un unico elemento. I campi di associazione possono essere modellati mediante l’utilizzo del sistema di equazioni differenziali proposto da Citti-Sarti, le cui soluzioni sono curve integrali adatte a ricostruire la struttura dei campi di associazione, come proposti da Field, Hayes ed Hess. Diverse ipotesi sono state presentate su come cellule appartenenti a V1 siano in grado di realizzare simili campi di associazione, ed in particolare, da dove queste possano prendere le informazioni necessarie per farlo. Una di queste è quella sostenuta dai dati di Bosking et al., secondo i quali le connessioni intracorticali più fitte sono quelle tra neuroni non adiacenti tra loro, i cui profili recettori sono co-orientati (con la stessa orientazione preferenziale) e co-assiali (disposti lungo un asse del campo visivo che corrisponde all’orientazione preferenziale). L’analisi effettuata in questa tesi ha come obbiettivo proprio quello di ottenere informazioni utili su come cellule corticali siano legate alla fenomenologia dei campi di associazione. Come già detto, un filtro di Gabor bidimensionale può essere considerato un buon modello per profili recettori di questo tipo di cellule e quindi è possibile definirlo in maniera astratta come l’unità fondamentale nel processo di elaborazione visiva. Per questo motivo viene effettuata un’analisi di cross-correlazione tra un filtro di Gabor con una determinata orientazione e una famiglia di filtri di Gabor aventi n orientazioni. I risultati ottenuti sono stati trattati utilizzando la tecnica di soppressione dei non massimi, in modo da estrarre per ogni punto dell’immagine l’orientazione per la quale si ottiene la risposta massima. Successivamente, dai dati è stato possibile calcolare delle curve integrali simili a quelle ottenute dal modello differenziale proposto da Citti-Sarti. I risultati ottenuti da questa analisi si sono rivelati utili per comprendere più nel dettaglio i processi di elaborazione dei neuroni corticali, ed in particolare, per capire in che modo le informazioni necessarie per la realizzazione di strutture complesse ed articolate come quelle dei campi di associazione, siano già contenute intrinsecamente all’interno di ogni cellula corticale, unità fondamentale dell’elaborazione visiva.
Resumo:
Il progetto di un velivolo risulta essere un processo multidisciplinare molto complesso. Per poter determinare una configurazione di variabili che permetta di soddisfare i requisiti che si desiderano ottenere dal velivolo, sono necessarie una serie di stime che richiedono altrettanti cicli di analisi delle caratteristiche, prima di poter ottenere una configurazione completa o accettabile. Il processo di progetto richiede, così, un gran numero di iterazioni per poter trovare la migliore configurazione. In questo lavoro di tesi verranno descritti gli strumenti di ottimizzazione noti come algoritmi genetici e verrà presentato come questi possano essere inquadrati all'interno della fase preliminare del progetto di un velivolo.
Resumo:
Studio su giunti incollati attraverso il metodo agli elementi finiti (FEM). E’ stata implementata l’analisi numerica su provini seguendo lo standard della normativa ASTM International relativa a prove sperimentali, per giunzioni di lamine in metallo o in materiale composito. Si è introdotto il materiale composito, cercando di inquadrarne le proprietà, i limiti e i vantaggi rispetto ai materiali tradizionalmente usati, sono stati elencati i difetti che possono nascere e svilupparsi in un composito durante la sua vita operativa, i quali, anche se di piccole dimensioni, a volte possono risultare tanto pericolosi da portare al collasso dell’intera struttura. Nasce, quindi, durante la fase di progettazione la necessità di rilevare, caratterizzare e tenere sotto controllo i danni e considerare i materiali non completamente esenti da difetti. Si è parlato, poi, del processo di riparazione, ove possibile, come alternativa alla sostituzione del componente con un notevole risparmio sui costi di manutenzione. Sono stai presi in esame i vari metodi effettuando un confronto tra essi. Per questo lavoro di tesi, è stato preso in esame l’incollaggio come metodo di fissaggio tra la membrana riparata e la struttura esistente e ne è stata descritta la teoria. Dopo questa panoramica si è passati alla verifica sugli incollaggi attraverso le analisi FEM.
Resumo:
Aedes albopictus (Skuse), comunemente detta Zanzara Tigre, ha invaso, negli ultimi anni, molti paesi, soprattutto in modo passivo attraverso il commercio di pneumatici usati. Questa specie è particolarmente adatta all'applicazione della tecnica dell'insetto sterile (SIT), basata su allevamento massale, sterilizzazione e rilascio in campo di un gran numero di maschi della specie vettrice. I maschi sterili rilasciati devono essere in grado di volare, di disperdersi sul territorio, di sopravvivere, di essere sessualmente attivi abbastanza a lungo per coprire il tempo tra una fase di rilascio e la successiva, di individuare le femmine vergini selvatiche e competere con successo per l'accoppiamento con i maschi selvatici. La dispersione e la sopravvivenza dei maschi di Ae. albopictus allevati in laboratorio, sono state studiate mediante tecniche di marcatura, rilascio e ricattura. Le catture sono state eseguite da tecnici specializzati, in un raggio di 350 m dal sito di rilascio. Gli esperimenti condotti hanno dimostrato che i maschi sono in grado di disperdersi, dal sito di rilascio, per circa 200 m ma la loro longevità in campo è fortemente dipendente dalle condizioni climatiche. In studi di semi-campo e di campo è stato valutato uno speciale dispositivo progettato per essere incluso nella stazione di rilascio dei maschi in grado di fornire loro fonti energetiche per migliorarne le prestazioni. I risultati ottenuti sono stati positivi. Studi di competitività sono stati condotti in tunnel costruiti in un ambiente naturale al fine di validare un protocollo per studi sulla competitività dei maschi in questo modello sperimentale. Maschi irraggiati mediante l'applicazione di raggi gamma alla dose di 30 Gy sono stati messi in competizione con maschi fertili per l'accoppiamento con femmine vergini con diversi rapporti. I risultati ottenuti hanno dimostrato le buone prestazioni e l'affidabilità di questo modello sperimentale rimanendo però irrisolto il problema dell’elevata variabilità.
Resumo:
La presente tesi di dottorato ha come argomento la produzione d’idrogeno per via fermentativa sfruttando il metabolismo anaerobico di particolari batteri estremofili del genere Thermotoga. In questo lavoro, svolto in seno al progetto Bio-Hydro, sfruttando reattori batch da 116 mL, è stato selezionato il ceppo migliore di Thermotoga fra i quatto ceppi testati: T. neapolitana. Una volta individuato il candidato batterico migliore è stato individuato il valore ottimale di pH (8.5 a t.amb) per la produzione d’idrogeno. Un intenso lavoro è stato svolto sul medium di coltura permettendone la minimizzazione e rendendolo così economicamente sostenibile per il suo utilizzo nel reattore da 19L; in questo caso il glucosio è stato completamente sostituito con due sottoprodotti agroindustriali individuati in precedenza, il melasso di barbabietola e il siero di latte. Sono stati poi eliminati i gravosi micronutrienti e le vitamine. È stata sfruttata la capacità di T. neapolitana di produrre biofilm e sono stati testati 4 diversi supporti in vetro sinterizzato e ceramici, tali test hanno permesso di individuare Biomax come supporto migliore. Sono stati svolti studi sul metabolismo di T. neapolitana volti ad individuare le concentrazioni inibenti di ogni substrato testato, l’inibizione da prodotto (idrogeno) e l’inibizione da ossigeno. Tutte queste prove hanno dato le conoscenze di base per la conduzione di esperienze su reattore da 19L. L’innovativo reattore di tipo SPCSTR è stato interamente studiato, progettato e costruito presso il DICMA. dell’Università di Bologna. La conduzione di esperienze batch su SPCSTR ha dato la possibilità di verificare il funzionamento del nuovo tipo d’impianto. Presso il Wageningen UR (NL), è stata svolta la selezione del miglior ceppo di Caldicellulosisruptor fra 3 testati e del miglior supporto per la produzione d’idrogeno; è stato poi costruito testato e condotto in continuo l’innovativo reattore CMTB.
Resumo:
Il siero di latte e la scotta sono effluenti provenienti rispettivamente dal processo di trasformazione del latte in formaggio e ricotta. Il siero di latte contiene minerali, lipidi, lattosio e proteine; la scotta contiene principalmente lattosio. Il siero può essere riutilizzato in diversi modi, come l'estrazione di proteine o per l’alimentazione animale, mentre la scotta è considerata solamente un rifiuto. Inoltre, a causa degli ingenti volumi di siero prodotti nel mondo, vengono a crearsi seri problemi ambientali e di smaltimento. Destinazioni alternative di questi effluenti, come le trasformazioni biotecnologiche, possono essere un modo per raggiungere il duplice obiettivo di migliorare il valore aggiunto dei processi agroindustriali e di ridurre il loro impatto ambientale. In questo lavoro sono state studiate le condizioni migliori per produrre bioetanolo dal lattosio del siero e della scotta. Kluyveromyces marxianus è stato scelto come lievito lattosio-fermentante. Sono state effettuate fermentazioni su scala di laboratorio aerobiche e anaerobiche in batch, fermentazioni semicontinue in fase dispersa e con cellule immobilizzate in alginato di calcio,. Diverse temperature sono state testate per migliorare la produzione di etanolo. Le migliori prestazioni, per entrambe le matrici, sono state raggiunte a basse temperature (28°C). Anche le alte temperature sono compatibili con buone rese di etanolo nelle fermentazioni con siero. Ottimi risultati si sono ottenuti anche con la scotta a 37°C e a 28°C. Le fermentazioni semicontinue in fase dispersa danno le migliori produzioni di etanolo, in particolare con la scotta. Invece, l'uso di cellule di lievito intrappolate in alginato di calcio non ha migliorato i risultati di processo. In conclusione, entrambi gli effluenti possono essere considerati adatti per la produzione di etanolo. Le buone rese ottenute dalla scotta permettono di trasformare questo rifiuto in una risorsa.
Resumo:
I test di qualifica a vibrazioni vengono usati in fase di progettazione di un componente per verificarne la resistenza meccanica alle sollecitazioni dinamiche (di natura vibratoria) applicate durante la sua vita utile. La durata delle vibrazioni applicate al componente durante la sua vita utile (migliaia di ore) deve essere ridotta al fine di realizzare test fattibili in laboratorio, condotti in genere utilizzando uno shaker elettrodinamico. L’idea è quella di aumentare l’intensità delle vibrazioni riducendone la durata. Esistono diverse procedure di Test Tailoring che tramite un metodo di sintesi definiscono un profilo vibratorio da applicare in laboratorio a partire dalle reali vibrazioni applicate al componente: una delle metodologie più comuni si basa sull’equivalenza del danno a fatica prodotto dalle reali vibrazioni e dalle vibrazioni sintetizzate. Questo approccio è piuttosto diffuso tuttavia all’autore non risulta presente nessun riferimento in letteratura che ne certifichi la validità tramite evidenza sperimentalmente. L’obiettivo dell’attività di ricerca è stato di verificare la validità del metodo tramite una campagna sperimentale condotta su opportuni provini. Il metodo viene inizialmente usato per sintetizzare un profilo vibratorio (random stazionario) avente la stessa durata di un profilo vibratorio non stazionario acquisito in condizioni reali. Il danno a fatica prodotto dalla vibrazione sintetizzata è stato confrontato con quello della vibrazione reale in termini di tempo di rottura dei provini. I risultati mostrano che il danno prodotto dalla vibrazione sintetizzata è sovrastimato, quindi l’equivalenza non è rispettata. Sono stati individuati alcuni punti critici e sono state proposte alcune modifiche al metodo per rendere la teoria più robusta. Il metodo è stato verificato con altri test e i risultati confermano la validità del metodo a condizione che i punti critici individuati siano correttamente analizzati.
Resumo:
L’obiettivo di questa tesi di laurea è stato la valutazione delle sovratensioni generate da una scarica atmosferica in linee miste di tipo aerea-cavo affluenti a stazioni di trasformazione. Lo studio si è incentrato sul caso della fulminazione diretta su una fase della linea aerea, il cosiddetto shielding failure, nella situazione peggiore ovvero senza innesco degli spinterometri posti a protezione della catena di isolatori. Applicando la teoria dei diagrammi a graticcio, è stata studiata la propagazione di un’onda di tensione (gradino, triangolo rettangolo e triangolo scaleno), generata da una scarica atmosferica, lungo tre particolari configurazioni di una linea mista AT 132 kV. In particolare, è stato implementato un codice di calcolo in Matlab, con il quale sono state determinate le componenti riflesse, che si formano quando l’onda di tensione incidente va ad impattare nei punti di discontinuità d’impedenza d’onda della linea mista. Tale calcolo ha consentito sia la rappresentazione temporale del transitorio, sia la determinazione del valore di cresta raggiunto dalla sovratensione, in particolari punti sensibili della linea, quali le estremità della linea in cavo ed il collegamento con il trasformatore. Il calcolo analitico è stato poi confrontato con i risultati delle simulazioni relative alla fulminazione diretta su una fase della linea aerea, eseguite con il software EMTPWorks. Il lavoro si è incentrato in particolar modo, sulla determinazione del modello che va a simulare la linea mista presa in considerazione, anche mediante il confronto con un noto caso di studio riportato sulle pubblicazioni.
Resumo:
Alcune osservazioni sperimentali portano ad affermare che la maggior parte della massa dell'universo è costituita da un tipo di materia definita oscura, cioè materia che interagisce solo gravitazionalmente e debolmente. I candidati più promettenti sono tipicamente identificati con le WIMP (Weakly Interacting Massive Particle). L'esperimento XENON1T per la rivelazione di materia oscura, in fase di costruzione nei Laboratori Nazionali del Gran Sasso, sfrutta uno spessore di 1.4 km di roccia schermante. Il rivelatore è una Time Projection Chamber contenente circa 2 tonnellate di xeno e avrà sensibilità per sezioni d’urto WIMP-nucleo spin-indipendent pari a circa 2x10-47 cm2 (per WIMP di massa 50 GeV/c2), due ordini di grandezza al di sotto degli attuali limiti. Per raggiungere tale sensibilità la TPC sarà inserita in una tank cilindrica riempita di acqua ultrapura, che fungerà sia da schermo passivo contro la radiazione esterna (gamma e neutroni di bassa energia), sia da veto per i muoni cosmici. I muoni possono infatti produrre neutroni di energia tale da raggiungere la TPC e simulare segnali tipici delle WIMP. Essi sono identificati per via della radiazione Cherenkov, emessa in seguito al loro passaggio in acqua, rivelata per mezzo di 84 fotomoltiplicatori (PMT) 8'' Hamamatsu R5912ASSY HQE. Lo studio delle prestazioni e delle caratteristiche dei PMT utilizzati nel sistema di veto di muoni sono lo scopo di questo lavoro di tesi. In particolare è stato preparato un opportuno setup per i test dei fotomoltiplicatori e sono state effettuate misure di guadagno, dark rate ed afterpulse. In una prima fase sono stati testati in aria 50 PMT presso la Sezione INFN di Bologna, nel periodo compreso tra Novembre 2012 e Marzo 2013 ed in una seconda fase sono stati testati in acqua 90 PMT presso i Laboratori Nazionali del Gran Sasso, nel periodo compreso tra Aprile e Settembre 2013.