407 resultados para Rustichelli-Valori


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Circa 2500 anni fa, a Magnesia, l’uomo scopriva la magnetite, un minerale del ferro che ha un contenuto di metallo particolarmente alto. Fu così che l’umanità venne a contatto per la prima volta, più o meno consapevolmente, con gli effetti dei campi magnetici. Già il filosofo greco Talete di Mileto nel VI secolo a.C. descrisse gli effetti di tali pietre, ma l’umanità non smise di esserne affascinata. Un esempio astronomicamente noto di campo magnetico su ampia scala è quello terrestre: il nostro pianeta si può pensare come un grosso magnete con un campo di BE ≈ 0.3...0.5G, che tra le altre cose ci protegge dalle particelle ad altissima energia intrappolandole nelle cosiddette fasce di Van Allen. Vi sono poi campi magnetici molto più intensi, a partire da quelli generati in altri pianeti, come Giove, o di stelle e altri corpi celesti particolarmente densi, che possono raggiungere i 10^15G. Ma i campi magnetici sono largamente diffusi anche in tutto lo spazio interstellare e intergalattico, dove hanno valori molto inferiori, che sfiorano i pochi μG. Come si può intuire, un così ampio spettro di valori si traduce in un’altrettanto ricca gamma di metodi di rilevazione. In particolare, in questo elaborato, ci concentreremo soprattutto sui metodi di studio dei campi magnetici meno intensi, la cui conoscenza si basa sulle proprietà osservabili della radiazione di sincrotrone, principalmente indi- viduabili dai dati radio. Dedichiamo quindi un breve capitolo alla derivazione dello spettro della radiazione suddetta (Capitolo 2), preceduto da un accenno alle proprietà energetiche dei plasmi magnetizzati (Capitolo 1). Ci occupiamo infine per l’intero Capitolo 3 di alcuni tra i più diffusi metodi diagnostici, preferendo, come già anticipa- to quelli che analizzano gli spettri prodotti da elettroni relativistici in moto in campi magnetici, ma attraversando comunque gli effetti dei plasmi magnetizzati sulla propagazione della luce e sulla separazione delle righe spettrali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La distribuzione del valore del raggio di core rispetto all’età cronologica per gli ammassi globulari della Grande Nube di Magellano (LMC) appare alquanto peculiare, poiché tutti gli ammassi più giovani sono caratterizzati da un raggio di core limitato, mentre quelli più vecchi presentano un ampio intervallo di valori. Questo comportamento, noto come “size-age conundrum”, è stato recentemente attribuito ad un diverso livello di evoluzione dinamica degli ammassi più vecchi, con i sistemi con valori elevati del raggio di core dinamicamente più giovani rispetto a quelli con configurazioni più compatte. È attesa dunque un’anticorrelazione tra il valore del raggio di core e l’età dinamica. Questo lavoro di tesi è stato indirizzato allo studio del sistema NGC1835, un ammasso globulare vecchio e compatto della LMC in grado di fornire un’ulteriore conferma del nuovo scenario. Grazie ad immagini ad alta risoluzione acquisite tramite HST è stato possibile studiarne la popolazione stellare, la struttura, l’età cronologica e il grado di evoluzione dinamica. La stima della sua età cronologica (t=12.5±1 Gyr) ha confermato che si tratta di un sistema stellare molto antico, che si è formato all’epoca di formazione della LMC. Il profilo di densità e di brillanza superficiale sono stati utilizzati per derivare le principali caratteristiche strutturali dell’ammasso, come il raggio di core rc e il raggio a metà massa rh. Infine l’età dinamica è stata calcolata tramite il parametro A+, che misura il grado di segregazione radiale delle Blue Straggler Stars. NGC1835 è risultato l’ammasso più compatto (rc=3.60’’) e dinamicamente evoluto (A+=0.28±0.04) finora studiato nella LMC e, inserendosi con precisione all’interno dell’anticorrelazione aspettata tra il raggio di core e A+, ha ulteriormente supportato lo scenario secondo cui il livello di compattezza di un sistema dipende dal suo stadio di evoluzione dinamica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo di questa tesi è introdurre alla analisi delle componenti principali, una metodologia statistico computazionale utilizzata per l'interpretazione di grandi insiemi di dati. L'obiettivo principale di questa tecnica è quello di ridurre le dimensioni del problema ricercando delle combinazioni lineari delle variabili di partenza che mantengano le principali informazioni sulla variabilità dei dati. In particolare, all’interno di questo elaborato verrà trattata una variante della PCA: l’analisi delle componenti principali “sparsa”. Dopo alcuni richiami iniziali verrà presentato un approccio standard all'analisi delle componenti principali, legato alle proprietà della matrice di covarianza (o correlazione) dei dati iniziali. Successivamente ne verrà mostrato un secondo approccio basato sulla decomposizione in valori singolari della matrice dei dati. Questo metodo permetterà di ottenere gli stessi risultati dell'approccio standard senza calcolare in modo esplicito la matrice di covarianza (o correlazione) dei dati e consentirà di sfruttare alcune proprietà importanti della decomposizione in valori singolari. Per introdurre la variante “sparsa” dell’analisi delle componenti principali verranno riportate alcune nozioni di base sulla regressione lineare. Infatti, questa tecnica ci permetterà di ottenere delle nuove combinazioni lineari delle variabili originarie che abbiano un numero alto di coefficienti uguali a zero, questo favorirà l’analisi delle componenti principali. La tesi si concluderà con la presentazione di alcuni risultati rielaborati in linguaggio Matlab, insieme alla valutazione dei risultati ottenuti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Angiodroid The CO2 Injector è un dispositivo medico che permette il dosaggio di CO2 nelle cavità vascolari a volumi e pressioni controllate. La CO2 agisce come mezzo di contrasto durante gli esami angiografici, offrendo notevoli vantaggi e bassissimo tasso di complicazioni rispetto ai mezzi di contrasto iodati. L’oggetto di questa tesi è lo studio di due Essential Performance Requirements (EPR) di Angiodroid, definiti come le prestazioni di una funzione clinica diversa da quella relativa alla sicurezza di base, in cui la perdita o la degradazione oltre i limiti specificati dal produttore comporta un rischio inaccettabile. Gli EPR presi in considerazione sono il volume e la pressione di iniezione di CO2, in quanto l’erogazione affidabile e ripetibile del gas permette sia di garantire la sicurezza del paziente sia di standardizzare i protocolli di iniezione per i diversi distretti vascolari. Sovradosaggio e sovrapressione della somministrazione della dose di CO2 possono comportare potenziali rischi clinici per il paziente, mentre sottodosaggio e una sottopressione non sono legati a rischi clinici, piuttosto comportano una scarsa qualità dell’immagine radiologica. Lo scopo della tesi è quello di validare gli intervalli di precisione del volume e della pressione di iniezione in diversi scenari entro i quali il dispositivo è considerato conforme e sicuro. I test di validazione sono stati eseguiti su 5 iniettori al termine della loro life cycle (8 anni) attraverso un invecchiamento accelerato. I valori di volume e la pressione di iniezione sono stati esaminati sia in aria, cioè senza carico, sia su un modello di paziente simulato, quindi con carico, utilizzando introduttori e cateteri angiografici autorizzati dalla Food and Drug Administration. Tutte le analisi sono state effettuate simulando gli scenari di funzionamento dell'iniettore più critici.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La ventilazione meccanica è un utile strumento per far fronte a patologie respiratorie, ma per avere un risultato ottimale è necessario impostare il ventilatore in modo personalizzato, al fine di rispettare la meccanica respiratoria di ogni paziente. Per far questo si possono utilizzare modelli della meccanica respiratoria dello specifico paziente, i cui parametri devono essere identificati a partire dalla conoscenza di variabili misurabili al letto del paziente. Schranz et al. hanno proposto l’utilizzo di un nuovo metodo, il Metodo Integrale Iterativo, la cui efficacia è stata valutata confrontandone le prestazioni con quelle di altre tecniche consolidate di identificazione parametrica: regressione lineare multipla, algoritmi iterativi e metodo integrale. Tutti questi metodi sono stati applicati ad un modello viscoelastico del secondo ordine della meccanica respiratoria utilizzando sia dati simulati sia dati clinici. Da questa analisi comparata è emerso che nel caso di simulazioni prive di rumore quasi tutti i metodi sono risultati efficaci, seppur con tempi di calcolo diversi; mentre nel caso più realistico con la sovrapposizione del disturbo l’affidabilità ha subito un ridimensionamento notevole in quasi tutti i casi, fatta eccezione per il metodo Simplex Search (SSM) e il Metodo Integrale Iterativo (IIM). Entrambi hanno fornito approssimazioni soddisfacenti con errori minimi, ma la prestazione di IIM è stata decisamente superiore in termini di velocità (fino a 50 volte più rapido) e di indipendenza dai parametri iniziali. Il metodo SSM, infatti, per dare buoni risultati necessita di una stima iniziale dei parametri, dalla quale far partire l’iterazione. Data la sua natura iterativa, IIM ha invece dimostrato di poter arrivare a valori realistici dei parametri anche in caso di condizioni iniziali addirittura fuori dal range fisiologico. Per questo motivo il Metodo IIM si pone come un utile strumento di supporto alla ventilazione meccanica controllata.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questo lavoro di tesi viene presentata un’analisi di sostenibilità economica, ambientale e sociale di un sistema di cattura e purificazione della CO2 post-combustione. Al fine di ottenere i dati utili al calcolo di indici significativi di sostenibilità, si è scelto di modellare, attraverso il software Aspen Plus®, un processo di assorbimento chimico con ammine, tecnologia matura e spesso impiegata a questo scopo per settori industriali di taglie superiori. Al sistema di assorbimento viene poi fatta seguire un’unità di compressione e purificazione, finalizzata al raggiungimento di specifiche condizioni della corrente in uscita, legate alla successiva tipologia di trasporto considerata: gas pressurizzato via pipeline o gas liquefatto via nave. L’analisi economica si è basata sul calcolo di costi operativi, costi variabili, costo della CO2 evitata e consumo specifico di energia (SPECCA). La simulazione ha infatti consentito di ottenere un dimensionamento di massima delle apparecchiature e il consumo di utenze, valori necessari alla stima degli indici. Gli indici economici calcolati sono poi stati utilizzati per comprendere quale parte del processo fosse la più critica e che impatto avessero le unità di compressione e purificazione rispetto alla presenza del solo impianto di cattura. Analisi simili sono state svolte anche in termini di sostenibilità ambientale e sociale. La prima è stata svolta calcolando l’effettiva rimozione di CO2 del sistema, tenendo in considerazione le emissioni dirette e indirette connesse al funzionamento degli apparati. L’analisi sociale è stata ridotta a un’analisi qualitativa della sicurezza, attuata attraverso il calcolo dell’Indice di sicurezza intrinseca.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo dell’elaborato è quello di valutare una prima applicazione di intelligenza artificiale per svolgere manutenzione predittiva sui giunti installati nella rete di distribuzione, al fine di prevenirne i guasti. L’estensione delle reti in cavo è infatti in costante aumento per supportare lo sviluppo della rete elettrica e, per l’installazione di nuove linee o nella manutenzione di cavi, si fa uso di giunti, spesso soggetti a guasti e di difficile manutenzione. Risulta quindi importante svolgere manutenzione predittiva su questi componenti, al fine di prevenirne i guasti ed ottenere un risparmio in termini di tempo e denaro. A seguito un’attenta analisi della struttura dei giunti, dei loro modi di guasto e dei parametri caratteristici, si è proceduto alla generazione sintetica di un dataset contenente misure sui giunti e, sulla base di specifici criteri applicati a questi valori, l’informazione sulla presenza o sull’assenza di un guasto. Il dataset è stato poi utilizzato per la fase di apprendimento e di test di sei algoritmi di machine learning, selezionati a partire da considerazioni sullo stato dell’arte, valutato tramite una Revisione Sistematica della Letteratura (SLR). I risultati così ottenuti sono stati analizzati tramite specifiche metriche e da questo caso di studio sono emerse le elevate potenzialità delle tecnologie di intelligenza artificiale ai fini della prevenzione dei guasti nelle reti di distribuzione, soprattutto se considerata la semplicità implementativa degli algoritmi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'argomento della Tesi è lo studio delle serie trigonometriche e di Fourier: in particolare, il problema dello sviluppo in serie trigonometrica di una data funzione 2π-periodica e l'unicità di tale sviluppo, che si deduce dal Teorema di Lebesgue e Du Bois-Reymond. Nel Capitolo 1 sono stati richiamati alcune definizioni e risultati di base della teoria delle serie trigonometriche e di Fourier. Il Capitolo 2 è dedicato alla teoria della derivata seconda di Schwarz (una generalizzazione della derivata seconda classica) e delle cosidette funzioni 1/2-convesse: il culmine di questo capitolo è rappresentato dal Teorema di De la Vallée-Poussin, che viene applicato crucialmente nella prova del teorema centrale della tesi. Nel Capitolo 3 si torna alla teoria delle serie trigonometriche, applicando i risultati principali della teoria della derivata seconda di Schwarz e delle funzioni 1/2-convesse, visti nel capitolo precedente, per definire il concetto di funzione di Riemann e di somma nel senso di Riemann di una serie trigonometrica e vederne le principali proprietà. Conclude il Capitolo 3 la prova del Teorema di Lebesgue e Du Bois-Reymond, in cui vengono usate tutte le nozioni e i risultati del terzo capitolo e il Teorema di De la Vallée-Poussin. Infine, il Capitolo 4 è dedicato alle applicazione del Teorema di Lebesgue e Du Bois-Reymond. In una prima sezione del Capitolo 4 vi sono alcuni casi particolari del Teorema di Lebesgue e Du Bois-Reymond e in particolare viene dimostrata l'unicità dello sviluppo in serie trigonometrica per una funzione 2π-periodica e a valori finiti. Conclude la Tesi un'altra applicazione del Teorema di Lebesgue e Du Bois-Reymond: la prova dell'esistenza di funzioni continue e 2π-periodiche che non sono la somma puntuale di nessuna serie trigonometrica, con un notevole esempio di Lebesgue.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le avventure di Pinocchio. Storia di un burattino, il celebre romanzo di Collodi del 1883, è considerato essere la seconda opera più tradotta al mondo e la prima in Italia. Esistono, però, diverse versioni dello stesso racconto che non sono dovute soltanto alla traduzione interlinguistica, ma anche a quella intralinguistica, intesa come l’adattamento e la riscrittura a partire dalla stessa lingua. Questo fenomeno prende il nome di “pinocchiate”, termine che designa tutte quelle storie che traggono ispirazione dal romanzo di Collodi, adattandolo ad un diverso contesto socioculturale e non prettamente linguistico. In particolare, durante il Ventennio fascista, la storia di Pinocchio è stata rivisitata al fine di veicolare i valori morali e i modi di comportamento della propaganda del periodo in questione. Il presente elaborato si propone di analizzare l’adattamento della storia di Pinocchio nel fascismo come strumento di manipolazione ideologica. Partendo dalle caratteristiche del romanzo di Collodi, nel primo capitolo si analizzano gli elementi che hanno spinto gli autori nel fascismo a scegliere il personaggio di Pinocchio come veicolo della propaganda e si introduce anche il ruolo svolto dalla letteratura per l’infanzia nel Ventennio. Il secondo capitolo si concentra nel dettaglio sull’analisi delle quattro “pinocchiate” fasciste raccolte da Luciano Curreri in Pinocchio in camicia nera (2011): Avventure e spedizioni punitive di Pinocchio Fascista di Giuseppe Petrai (1923); Pinocchio fra i Balilla. Nuove monellerie del celebre burattino e suo ravvedimento di Cirillo Schizzo (1927); Pinocchio istruttore del Negus, anonimo (1939) e Il viaggio di Pinocchio di Ciapo (1944).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’obiettivo del lavoro di tesi è stato quello di valutare la sensitività dell’analisi quantitativa del rischio (QRA, Quantitative Risk Analysis) alla frequenza di accadimento degli scenari di rilascio delle sostanze pericolose ovvero dei top-events. L’analisi di rischio è stata condotta applicando, ad uno stabilimento a rischio di incidente rilevante della Catalogna, i passaggi procedurali previsti dall’istruzione 14/2008 SIE vigente in quella regione. L’applicazione di questa procedura ha permesso di ottenere le curve isorischio, che collegano i punti attorno allo stabilimento aventi lo stesso valore del rischio locale. Le frequenze base dei top-events sono state prese innanzitutto dalla linea guida BEVI, e successivamente ai fini dell’analisi di sensitività, sono stati considerati sia i valori forniti da altre 3 autorevoli linee guida sia i valori ottenuti considerando incrementi delle frequenze base del 20%, 30%, 50%, 70%, 200%, 300%, 500%, 700%, 1000%, 2000%, 3000%, 4000%, 5000%. L’analisi delle conseguenze è stata condotta tramite i software EFFECTS ed ALOHA, mentre ai fini della ricomposizione del rischio è stato utilizzato il codice RISKCURVES. La sensitività alle frequenze dei top-events è stata valutata in termini di variazione del diametro massimo delle curve isorischio, con particolare attenzione a quella corrispondente a 10-6 ev/anno, che rappresenta il limite di accettabilità del rischio per la pianificazione territoriale nell’intorno dello stabilimento. E’ stato così dimostrato che l’estensione delle curve isorischio dipende in maniera molto forte dalla frequenza dei top-events e che l’utilizzo di dati di frequenza provenienti da linee guida diverse porta a curve isorischio di dimensioni molto differenti. E’ dunque confermato che la scelta delle frequenze degli scenari incidentali rappresenta, nella conduzione dell’analisi di rischio, un passaggio delicato e cruciale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente elaborato finale ha lo scopo di illustrare tutti i parametri necessari alla progettazione di un “buon” impianto di illuminazione stradale, dotato di tutte le nuove tecnologie, per un maggior risparmio energetico incentrato alla valorizzazione e riqualificazione urbana. L’illuminazione pubblica negli ultimi decenni ha ricoperto un’importanza sempre maggiore all’interno della città e del territorio aumentando in modo esponenziale la presenza di corpi illuminanti e formando spesso una vera e propria macchia di luce durante la notte. L’implementazione degli apparecchi di illuminazione ha portato ad una maggiore sicurezza e, a volte, un maggiore comfort nelle zone cittadine, ma anche un notevole aumento di costi energetici a carico delle amministrazioni comunali. Pertanto, alla luce degli ultimi mesi, è necessario incrementare i servizi tecnologici basati sull’efficientamento energetico degli impianti, in particolare, adottando sempre di più la sorgente a LED e sistemi di riduzione del flusso luminoso, in sostituzione alle lampade obsolete esistenti con un basso rendimento energetico. Con lo sviluppo del traffico veicolare degli ultimi anni, l’illuminazione urbana ha modificato il suo aspetto nelle città, concentrandosi sul rispetto dei valori prescritti per consentire una maggiore sicurezza e scorrevolezza del traffico motorizzato durante le ore notturne a discapito della valorizzazione urbana. Infatti, le statistiche hanno mostrato che il tasso degli incidenti notturni, ossia il rapporto tra gli incidenti e il numero di veicoli in circolazione, è più elevato rispetto agli incidenti durante le ore diurne.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In Italia ci troviamo dinanzi a un panorama letterario molto limitato per quanto riguarda il superamento della concezione binaria dei generi e della visione eteronormativa della società. Attraverso una proposta di traduzione di un capitolo del romanzo per adolescenti "it" dell’autrice canadese Catherine Grive, il presente elaborato vuole aprire una finestra su questo universo poco esplorato. Le parole, e quindi la letteratura, hanno un fortissimo potere sulla società, e la letteratura per bambini.e e ragazzi.e ne ha ancora di più. Infatti, la letteratura per l’infanzia combina sapientemente aspetti ludici, letterari e pedagogici, offrendo intrattenimento, storie appassionanti, valori di inclusione e incoraggiamenti allo spirito critico. Tuttavia, rappresenta anche un ambito altamente suscettibile alla censura per tutto ciò che viene considerato tabù o potenzialmente dannoso per lo sviluppo dei più piccoli e delle più piccole. Di conseguenza la rappresentazione di identità LGBTQ+, specialmente di quelle transgender, è ancora poco sviluppata. In questo elaborato verranno affrontati i temi degli Studi di Genere e delle teorie Queer. Successivamente, attraverso una panoramica sugli studi sulla traduzione per l’infanzia, sia in chiave di genere che queer, andremo ad esporre le principali caratteristiche di questa letteratura e le varie sfide traduttive con cui si scontrano le traduttrici e i traduttori. Infine, attraverso la proposta di traduzione del romanzo per ragazze.i "it", verrà offerto un approccio più pragmatico riguardante le tematiche esposte in precedenza, attraverso un commento alle scelte traduttive ed un’analisi dell’opera nel suo insieme.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi riguarda il Teorema di Morse-Sard nella sua versione generale. Tale teorema afferma che l'immagine dei punti critici di una funzione di classe C^k da un aperto di R^m a R^n è un insieme di misura di Lebesgue nulla se k >= m-n+1 (se m >= n) o se k >= 1 (se m

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Presso il depuratore di Corporeno, Comune di Cento (FE), si sono verificati dei superamenti dei limiti di legge per l’Azoto totale, Nitrico e Ammoniacale nei campioni di reflui in uscita. La società di gestione del depuratore ha iniziato a regolare il tenore di ossigeno in vasca di ossinitrificazione mediante il monitoraggio del potenziale Redox. Dall’analisi dei dati di monitoraggio e dai risultati delle analisi chimiche sui reflui in ingresso e uscita dall’impianto, si è evidenziato che tale operazione ha consentito di migliorare le prestazioni dell’impianto, tuttavia la modalità di gestione delle soffianti in vasca di ossinitrificaizione non consente un pieno controllo delle concentrazioni in uscita. Lo studio di alcune pubblicazioni (in particolare Charpentier et al. 1998 e Hao e Huang, 1996) ha consentito di individuare una metodologia di controllo dei processi in vasca che si basa sia sul potenziale di ossidoriduzione che sul pH, oltre alla concentrazione di ossigeno. L’analisi di alcuni dati di monitoraggio in continuo ha evidenziato una crisi del processo di denitrificazione. Si sono individuate tre differenti strategie di mitigazione della problematica: uno studio e sperimentazione sia in laboratorio che in vera grandezza per definire un sistema di monitoraggio real time dell’accensione delle soffianti basato sulla curva di Hao e Huang (1996), una modifica all’impianto che preveda il corretto ricircolo dalla miscela areata alle vasche di predenitrificazione, che allo stato attuale non stanno funzionando a regime ed infine una valutazione rispetto alla necessità di integrazione con fonte di carbonio esterna, in quanto i valori di BOD in ingresso potrebbero essere limitanti per la denitrificazione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Relazione geologica tra Rio nell'Elba e Villaggio Togliatti con relativo Allegato Cartografico con sezione geologica in direzione W-NW/E-SE. Lo scopo è confermare i dati precedenti dell'areale. E' stato effettuato un inquadramento geologico-litostratigrafico per descrivere generalmente la geologia elbana per poi concentrarsi sulle unità viste, cioè le Liguridi e le unità Calcare Cavernoso e Marne a Posidonia del Complesso Superiore. Sono stati inseriti i dati ottenuti sul terreno, dal quale sono stati ottenuti delle considerazioni. E' stata effettuata un'analisi visiva degli affioramenti, partendo dalla struttura, dal colore fino ai contatti tra le unità. Attraverso l'utilizzo di strumenti (bussola) sono stati ottenuti informazioni specifiche come i valori di immersione che nella maggioranza dei casi è verso SW. Infine, è stata eseguita una discussione riguardo ai dati ottenuti ed è stata eseguita una considerazione finale riguardante il raggiungimento dell'obiettivo.