180 resultados para AFL-CIO.


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La conoscenza e la determinazione dell’equazione cinetica è indispensabile per lo studio, la progettazione e l’ottimizzazione di qualsiasi reattore chimico. Normalmente l’analisi cinetica viene eseguita con reattori che operano in maniera quanto più prossima a condizioni ideali in modo da rendere più facile e meno affetta da errori l’interpretazione dei risultati sperimentali. In fotocatalisi è invece di fatto impossibile realizzare, anche in presenza di una perfetta miscelazione, un sistema ideale in cui si abbia un’uniforme distribuzione di tutti i parametri che influenzano la velocità di reazione. Infatti in un reattore fotocatalitico il campo di radiazione è intrinsecamente non uniforme poiché l’assorbimento della radiazione e quindi la sua attenuazione sono necessari per l’attivazione della reazione. Pertanto l’impossibilità di realizzare un sistema fotocatalitico che operi in condizioni quanto più possibile prossime all’idealità e l’incapacità di misurare sperimentalmente i valori locali di velocità di reazione e di velocità di assorbimento dei fotoni possono rendere complessa una corretta analisi cinetica. In questo lavoro vengono studiate le modalità con cui condurre comunque una rigorosa analisi cinetica di un sistema fotocatalitico slurry, nel quale il fotocalizzatore è disperso come polvere fine in sospensione nella soluzione reagente. La reazione studiata è quella di mineralizzazione dell’acido formico. Sono stati impiegati due reattori con geometrie ed illuminazioni differenti: un reattore piano illuminato con luci LED ed un reattore anulare con lampada lineare fluorescente blacklight. È stata verificata la validità di una particolare equazione cinetica, che tiene conto dell’effetto non lineare della velocità specifica (cioè per unità di massa di catalizzatore) di assorbimento dei fotoni e delle concentrazioni del reagente, dell’ossigeno e del fotocatalizzatore. Sono state inoltre determinate le condizioni critiche che possono portare ad errori nell’analisi cinetica ed è stata dimostrata l’utilità di un modello matematico che tiene conto dei bilanci di energia raggiante, di materia nonché del campo di moto. Il modello matematico, in cui compare un solo parametro aggiustabile (il tempo caratteristico di reazione od equivalentemente la costante cinetica), è in grado di riprodurre molto soddisfacentemente i risultati sperimentali in tutte le diverse condizioni operative: diversa geometria di reattore, diversa illuminazione, differente spessore ottico, diverse contrazioni di substrato e di fotocatalizzatore. Infine è stato mostrato come l’equazione cinetica ad una sola costante cinetica, che è stata adottata, descriva meglio la cinetica della reazione fotocatalitica in esame di altre equazioni a due o più costanti cinetiche spesso utilizzate in fotocatalisi e basate sulla teoria di Langmuir-Hinshelwood, a dimostrazione di un diverso meccanismo di reazione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Una particella carica che si muove in un campo magnetico e` accelerata dalla forza di Lorentz, e di conseguenza emette della radiazione. Quindi si escludo- no a priori i neutroni, che sebbene siano formati da particelle cariche (i quarks) sono globalmente neutre. Per accelerazione, si intende anche solo un’acce- lerazione centripeta di cui risentono le particelle cariche nel campo, sebbene non vi sia una variazione nel modulo della velocita`. In base alla velocita` delle particelle cariche che si muovono nel campo magnetico si possono distinguere radiazione di ciclotrone e di sincrotrone. La radiazione di ciclotrone e` presente quando le particelle cariche hanno velocita` non relativistiche o relativistiche, invece la radiazione di sincrotrone e` presente quando le particelle hanno velo- cita` ultra-relativistiche. Entrambe sono radiazioni che non necessitano dell’equilibrio termico del mez- zo, e sono radiazioni impulsive. Cio` che le distingue, a parte la velocita`, e` la tipologia di impulsi che si misurano. Infatti nel caso del sincrotrone, ove le par- ticelle sono ultra-relativistiche, gli impulsi arrivano molto ravvicinati fra loro. Nel caso del ciclotrone arrivano impulsi meno ravvicinati che coincidono con la frequenza di rotazione nel campo magnetico. In questo elaborato ci si soffermera` esclusivamente sull’emissione di sincro- trone e su alcune applicazioni astrofisiche di questo processo, cercando di dare una trattazione sufficiente, seppur scarna, ai fini di capire un processo fisico molto importante negli ambienti astrofisici.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo lavoro di tesi è stato svolto nell'ambito del gruppo Nucl-ex di Bologna dell'INFN. L'esperimento specifico si inquadra nello studio di collisioni di nuclei con numero di neutroni N uguale al numero di protoni Z (nuclei pari-pari). In particolare si vuol analizzare una reazione centrale, cioè a piccoli parametri d'impatto, nella quale i nuclei del proiettile e del bersaglio fondono assieme formando un sistema unico eccitato (nucleo composto) che successivamente decade. Nel caso della misura descritta sono stati utilizzati un fascio di 16O ed un bersaglio di 12C ed il sistema fuso che si forma è 28Si. Per rivelare le particelle provenienti dal decadimento è stato impiegato l'apparato G.AR.F.I.E.L.D. (General Array for Fragment Identification and Emitted Light particles in Dissipative collisions) accoppiato al rivelatore denominato Ring Counter (RCo). La misura è stata realizzata presso i Laboratori Nazionali dell'INFN di Legnaro (Pd) in collaborazione tra le Università e le sezioni INFN di Bologna, Firenze, Napoli e Padova. Il fascio è stato accelerato mediante l'acceleratore elettrostatico Tandem XTU, mentre il bersaglio era fisso nel sistema di riferimento del laboratorio. La misura di collisione è stata realizzata per tre diverse energie cinetiche del fascio: 90.5 MeV, 110 MeV e 130 MeV. Il lavoro è consistito principalmente nella partecipazione a diverse fasi della misura, tra cui preparazione, presa dati ed alcune calibrazioni energetiche dei rivelatori, fino ad ottenere risultati preliminari sulle distribuzioni di frequenza dei frammenti rivelati, sulle molteplicità e sulle distribuzioni angolari di particelle leggere. L'analisi preliminare effettuata ha mostrato che il valore medio di carica del residuo di evaporazione {Definito come il frammento che rimane nello stato fondamentale alla fine della catena di decadimento.} diminuisce all'aumentare dell'energia a disposizione. In modo consistente aumenta, all'aumentare dell'energia, la molteplicità media delle delle particelle leggere. Le distribuzioni angolari di particelle leggere mostrano andamenti molto simili fra le diverse energie, ma poco compatibili con il fatto che, all'aumentare dell'energia del fascio, diminuisce il cono di emissione di particelle di decadimento, in quanto aumenta la velocità del sistema fuso.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il lavoro svolto si concentra sul trasporto di carica e spin in dispositivi trilayer La0.7Sr0.3MnO3/SrTiO3/Co multifunzionali. Questi dispositivi mostrano sia magnetoresistenza che resistive switching, con un'interessante interazione fra i due effetti. Le giunzioni SrTiO3 sono state scelte per questo lavoro sia per via dei precedenti studi su SrTiO3 come barriera in dispositivi spintronici (cioè dispositivi con magnetoresistenza), sia perché sono promettenti come materiale base per costruire memristor (cioè dispositivi con resistive switching). Il lavoro di tesi è stato svolto all'Istituto per lo studio dei materiali nanostrutturati (ISMN-CNR) a Bologna. Nella prima parte di questa tesi illustrerò la fisica dietro al resistive switching e alla magnetoresistenza di dispositivi trilayer, mostrando anche risultati di studi su dispositivi simili a quelli da me studiati. Nella seconda parte mostrerò la complessa fisica degli ossidi utilizzati nei nostri dispositivi e i possibili meccanismi di trasporto attraverso essi. Nell'ultima parte descriverò i risultati ottenuti. I dispositivi La0.7Sr0.3MnO3/SrTiO3/Co sono stati studiati tramite caratterizzazione elettrica, di magnetotrasporto e con spettroscopia di impedenza. Le misure ottenute hanno mostrato una fisica molto ricca dietro al trasporto di spin e carica in questi dispositivi, e la mutua interazione fra fenomeni spintronici e di resistive switching rappresenta una chiave per comprendere la fisica di questi fenomeni. Analisi dati della dipendenza della resistenza della temperature e caratteristiche corrente-tensioni saranno usati per quantificare e descrivere il trasporto in questi dispositivi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In una formulazione rigorosa della teoria quantistica, la definizione della varietà Riemanniana spaziale su cui il sistema è vincolato gioca un ruolo fondamentale. La presenza di un bordo sottolinea l'aspetto quantistico del sistema: l'imposizione di condizioni al contorno determina la discretizzazione degli autovalori del Laplaciano, come accade con condizioni note quali quelle periodiche, di Neumann o di Dirichlet. Tuttavia, non sono le uniche possibili. Qualsiasi condizione al bordo che garantisca l'autoaggiunzione dell' operatore Hamiltoniano è ammissibile. Tutte le possibili boundary conditions possono essere catalogate a partire dalla richiesta di conservazione del flusso al bordo della varietà. Alcune possibili condizioni al contorno, permettono l'esistenza di stati legati al bordo, cioè autostati dell' Hamiltoniana con autovalori negativi, detti edge states. Lo scopo di questa tesi è quello di investigare gli effetti di bordo in sistemi unidimensionali implementati su un reticolo discreto, nella prospettiva di capire come simulare proprietà di edge in un reticolo ottico. Il primo caso considerato è un sistema di elettroni liberi. La presenza di edge states è completamente determinata dai parametri di bordo del Laplaciano discreto. Al massimo due edge states emergono, e possono essere legati all' estremità destra o sinistra della catena a seconda delle condizioni al contorno. Anche il modo in cui decadono dal bordo al bulk e completamente determinato dalla scelta delle condizioni. Ammettendo un' interazione quadratica tra siti primi vicini, un secondo tipo di stati emerge in relazione sia alle condizioni al contorno che ai parametri del bulk. Questi stati sono chiamati zero modes, in quanto esiste la possibilità che siano degeneri con lo stato fondamentale. Per implementare le più generali condizioni al contorno, specialmente nel caso interagente, è necessario utilizzare un metodo generale per la diagonalizzazione, che estende la tecnica di Lieb-Shultz-Mattis per Hamiltoniane quadratiche a matrici complesse.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’installazione di smorzatori viscosi sulle strutture permette di dissipare l’energia che il sisma trasmette, senza provocare danni o rotture degli elementi strutturali principali. Questi dispositivi sono stati l'oggetto di numerosi lavori di ricerca dal 1980 fino ad oggi e l'efficacia nel mitigare gli effetti dell’azione sismica su strutture edilizie è stata ampiamente dimostrata. La maggior parte delle teorie scientifiche per la progettazione e l'ottimizzazione degli smorzatori si basano sofisticati algoritmi, portando talvolta a complessi procedure. L'applicazione di tali algoritmi richiede spesso competenze computazionali e di tempo eccessive. Il fine della tesi è quello di proporre un metodo pratico, cioè diretto e immediato per aiutare gli ingegneri per effettuare analisi sismiche su strutture intelaiate dotate di smorzatori viscosi e di dimensionare tali dispositivi. Tale metodo è stato l’oggetto del lavoro di ricerca scientifica trattato nell’articolo: “Equivalent Static Analyses of framed structures with added viscous dampers” di Palermo et al., 2015. Si riesce così ad estendere così il concetto di analisi statica equivalente anche per strutture dotate di smorzatori viscosi, definendo in maniera intuitiva sia le configurazioni di idealizzazione della strutture durante il sisma sia l’ idealizzazione dell’effetto del sisma sulla struttura. In questi anni di lavoro di ricerca, sono stati proposti vari metodi per il dimensionamento degli smorzatori viscosi. Tra questi, il prof. Ing. Silvestri (Silvestri et al., 2010) ha proposto un approccio progettuale diretto, chiamato "five step procedure” che mira a guidare l'ingegnere professionista, dalla scelta del target di prestazioni alle identificazioni della caratteristiche meccaniche di smorzatori viscosi trovabili in commercio. La procedura originale (Silvestri et al., 2010, Silvestri et al., 2011, Palermo et al., 2013), anche se per lo più basata su espressioni analitiche, richiede ancora lo sviluppo di analisi numeriche Time-History di modelli FEM, al fine di valutare le forze massime negli smorzatori aggiunti. Verrà spiegato e proposto un metodo semplificato (“Direct five step procedure for the dimensioning of added viscous dampers” Palermo et al., 2015) che consente ottenere direttamente, tramite una semplice formula, le forze massime degli smorzatori (spesso un parametro chiave della valutazione del costo degli smorzatori), senza eseguire simulazioni numeriche. Infine, si è applicato il metodo semplificato proposto di analisi statica equivalente per strutture equipaggiate di smorzatori viscosi ad un edificio reale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Negli ultimi quindici anni il traffico aereo passeggeri in Italia è stato interessato da un cospicuo incremento: si è passati dai 91 milioni di passeggeri nel 2000 ai 150 milioni nel 2014. Le previsioni di crescita per il Paese indicano il possibile raddoppio del traffico entro il 2030, quando si dovrebbe raggiungere la soglia dei 300 milioni di passeggeri, con un aumento soprattutto della quota parte internazionale. Non vi può essere sviluppo economico di uno Stato senza crescita del traffico aereo, la quale si può realizzare solo con un adeguamento e un potenziamento delle capacità delle infrastrutture aeroportuali compatibile con le condizioni ambientali e un’efficace interconnessione degli scali con gli altri modi di trasporto. Infatti la pianificazione e la progettazione degli aeroporti non può prescindere da un’analisi approfondita sugli impatti ambientali prodotti dalle attività svolte all’interno degli scali. Inoltre l’incremento del numero medio di passeggeri per movimento (dal 75 pax/mov nel 2000 a 106 pax/mov nel 2011, dato riferito al traffico nazionale) rappresenta un dato positivo dal punto di vista ambientale: nei cieli vola un minor numero di aeromobili, ma in grado di trasportare un maggior numero di passeggeri, con conseguente diminuzione del numero dei movimenti, quindi del rumore, delle emissioni e dell’inquinamento ambientale provocato dalle operazioni necessarie a garantire l’operatività di ciascun volo. La salvaguardia dell’ambiente per un aeroporto è un compito difficile e oneroso, poiché può creare problemi ambientali come inquinamento acustico, dell’aria, delle acque fondiarie e trattamento dei rifiuti. In particolare, scopo di questo elaborato è studiare l’impatto che le operazioni svolte in air-side provocano sulla qualità delle acque di dilavamento, osservando e analizzando le attività che avvengono presso l’Aeroporto G. Marconi di Bologna. Si intende svolgere un censimento delle operazioni che influenzano la qualità delle acque (sia direttamente sia a seguito del dilavamento delle pavimentazioni aeroportuali), indagando quali siano i soggetti coinvolti, le procedure da eseguire, la frequenza e gli eventuali mezzi impiegati. Poi si vogliono eseguire analisi chimiche e granulometriche con un duplice obiettivo: conoscere la qualità delle acque raccolte dalle caditoie presenti nel piazzale e a bordo pista e verificare l’efficacia delle operazioni eseguite anche per ridurre il build up, cioè il tasso di accumulo in tempo secco e, di conseguenza, l’apporto di inquinanti riversato nelle acque di dilavamento. Infine si propongono interventi volti a incrementare la sostenibilità ambientale dell’infrastruttura aeroportuale, con particolare attenzione alla riduzione dell’inquinamento idrico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le infrastrutture portuali rappresentano un elemento chiave come motore di crescita per l’economia globale. Il 74% delle merci importate ed esportate dall’UE transitano per porti. Per questo motivo sono necessari investimenti in infrastrutture e attrezzature portuali per far fronte alle previsioni di crescita del trasporto merci nel prossimo decennio. La crescita del transhipment, quindi di grossi scali chiamati hub, ha rivoluzionato la scelta delle tratte principali e la scelta degli scali. Nel corso del seguente elaborato ci si è concentrati sulla situazione dell’Alto Adriatico, analizzando lo stato attuale dei principali porti e i possibili sviluppi futuri. La situazione dell’Alto Adriatico è particolare, questi porti si trovano sulle rotte principali del trasporto globale ma vista la crescita di scambi commerciali con la Cina e l’estremo Oriente, per via dello spostamento verso Est del baricentro dell’economia, si trovano in posizione ottimale per diventare un grosso gateway. Questo è l’obbiettivo che si sono prefissati i porti del Nord Adriatico cioè far capire che risalire l’Adriatico, anche se fuori dalle rotte può risultare conveniente visto il risparmio di cinque giorni di navigazione, rispetto ai porti del Nord Europa, che si traduce in un risparmio di tempo e di costi. Per creare attrattiva sono stati svolti, e continuano, numerosi investimenti per lo sviluppo dei fondali e del retroporto, nel tentativo di potersi affermare all’interno del mercato europeo e globale. Nel corso dell’elaborato saranno analizzati i grossi vantaggi di cui godono i porti del Nord Adriatico grazie alla loro posizione geografica, e alcune delle problematiche che ostacolano la crescita.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questo lavoro vengono analizzate due sottovarietà notevoli di P^5 legate allo studio delle ipersuperfici quadriche: la quadrica di Klein e la superficie di Veronese. La quadrica di Klein è una ipersuperficie di grado 2 di P^5 in corrispondenza biunivoca con l'insieme delle rette di P^3. Riguardando P^5 come lo spazio delle coniche di P^2, la superficie di Veronese corrisponde alle coniche di rango 1, cioè alle rette doppie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi affronta la tematica dei problemi cardiaci riscontrati in alcuni pazienti, a seguito del trattamento sanitario con procedure chemioterapiche. In particolar modo si concentra sugli effetti collaterali derivanti dalle cure somministrate ad individui affetti da tumori mammari, che, a causa di questa condizione, subiscono terapie mirate a livello del torace. La cardiotossicità che si presenta nei casi precedentemente indicati è di tipo acuto, o cronico. Il lavoro si prefigge lo scopo di analizzare una metodologia che identifichi e riscontri in tempo il manifestarsi della cardiotossicità, basandosi su alcuni sintomi e segnali, per evitare il manifestarsi del tipo cronico. Per raggiungere questo obiettivo si è studiato l'utilizzo di apparecchiature per l’ecocardiografia, che sono poco invasive e presentano una quantità di effetti collaterali estremamente ridotta. L’elaborato è suddiviso in quattro capitoli: 1. Il primo capitolo è dedicato al "Cuore". Nei diversi sottocapitoli ci si concentra sulla parte anatomica e sulla fisiologia dello stesso. Il sottocapitolo più importante è quello sulla "Cardiotossicità", tema centrale del lavoro, in cui sono spiegati i meccanismi con cui si manifesta, quali farmaci la causano e per quali motivi. 2. Il secondo capitolo si occupa dell’apparecchiatura usata durante lo studio del cuore, cioè l'ecografo. Dopo una breve introduzione sulle proprietà fisiche degli ultrasuoni, ci si concentra sulla struttura dell’apparecchiatura. In particolare ci si focalizza sugli strumenti per ecografie cardiache volumetriche. 3. Il terzo capitolo è dedicato al software TOMTEC. Si descrive in quali modalità si utilizza, in che maniera, e quali parametri identifica per l'eventuale riscontro di episodi di cardiotossicità. In uno dei sottocapitoli è descritto nel dettaglio il database creato dall’autrice per la raccolta dei dati relativi ai pazienti trattati. 4. L'ultimo capitolo è dedicato alla conclusioni, in cui si sottolinea l'importanza della ricerca di meccanismi per prevenire l'insorgere di malattie cardiache in pazienti già sottoposti a pesanti cicli di terapia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il lavoro svolto in questa tesi è legato allo studio ed alla formulazione di metodi computazionali volti all’eliminazione del noise (rumore) presente nelle immagini, cioè il processo di “denoising” che è quello di ricostruire un’immagine corrotta da rumore avendo a disposizione una conoscenza a priori del fenomeno di degrado. Il problema del denoising è formulato come un problema di minimo di un funzionale dato dalla somma di una funzione che rappresenta l’adattamento dei dati e la Variazione Totale. I metodi di denoising di immagini saranno affrontati attraverso tecniche basate sullo split Bregman e la Total Variation (TV) pesata che è un problema mal condizionato, cioè un problema sensibile a piccole perturbazioni sui dati. Queste tecniche permettono di ottimizzare dal punto di vista della visualizzazione le immagini in esame.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nell'era genomica moderna, la mole di dati generata dal sequenziamento genetico è diventata estremamente elevata. L’analisi di dati genomici richiede l’utilizzo di metodi di significatività statistica per quantificare la robustezza delle correlazioni individuate nei dati. La significatività statistica ci permette di capire se le relazioni nei dati che stiamo analizzando abbiano effettivamente un peso statistico, cioè se l’evento che stiamo analizzando è successo “per caso” o è effettivamente corretto pensare che avvenga con una probabilità utile. Indipendentemente dal test statistico utilizzato, in presenza di test multipli di verifica (“Multiple Testing Hypothesis”) è necessario utilizzare metodi per la correzione della significatività statistica (“Multiple Testing Correction”). Lo scopo di questa tesi è quello di rendere disponibili le implementazioni dei più noti metodi di correzione della significatività statistica. È stata creata una raccolta di questi metodi, sottoforma di libreria, proprio perché nel panorama bioinformatico moderno non è stato trovato nulla del genere.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La simulazione di un sistema quantistico complesso rappresenta ancora oggi una sfida estremamente impegnativa a causa degli elevati costi computazionali. La dimensione dello spazio di Hilbert cresce solitamente in modo esponenziale all'aumentare della taglia, rendendo di fatto impossibile una implementazione esatta anche sui più potenti calcolatori. Nel tentativo di superare queste difficoltà, sono stati sviluppati metodi stocastici classici, i quali tuttavia non garantiscono precisione per sistemi fermionici fortemente interagenti o teorie di campo in regimi di densità finita. Di qui, la necessità di un nuovo metodo di simulazione, ovvero la simulazione quantistica. L'idea di base è molto semplice: utilizzare un sistema completamente controllabile, chiamato simulatore quantistico, per analizzarne un altro meno accessibile. Seguendo tale idea, in questo lavoro di tesi si è utilizzata una teoria di gauge discreta con simmetria Zn per una simulazione dell'elettrodinamica quantistica in (1+1)D, studiando alcuni fenomeni di attivo interesse di ricerca, come il diagramma di fase o la dinamica di string-breaking, che generalmente non sono accessibili mediante simulazioni classiche. Si propone un diagramma di fase del modello caratterizzato dalla presenza di una fase confinata, in cui emergono eccitazioni mesoniche ed antimesoniche, cioè stati legati particella-antiparticella, ed una fase deconfinata.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'accrescimento è un processo fondamentale in astrofisica data la sua grandissima efficienza. Nel 1959 venne individuato il primo Quasar (pur non sapendo realmente di cosa si trattasse) e nel 1963 l'astronomo tedesco Maarten Schmidt scoprì che tale oggetto, di magnitudine apparente 13 (si credeva fosse una stella), aveva un redshift z = 0:37. Stelle di magnitudine 13 non dovrebbero avere un redshift così grande. Tale oggetto doveva trovarsi a grande distanza ed emettere una luminosità molto alta, superiore anche a quella di un'intera galassia. Processi termonucleari non erano sufficientemente efficienti per spiegare un'emissione di questo tipo: si capì presto che tale emissione dovesse avere origine gravitazionale, fosse cioè dovuta all'accrescimento di materia su un buco nero. In questa tesi, dopo aver spiegato come l'accrescimento rappresenti un'importante fonte di energia in astrofisica, presenterò, nel Capitolo 1, il modello di Bondi, presentato nel 1952 da Hermann Bondi. Tale modello è il più semplice modello di accrescimento e, pur essendo basato su ipotesi (che vedremo) che trascurano diversi aspetti importanti, risulta comunque un modello fondamentale, perché permette di ricavare quantità rilevanti in astrofisica. Successivamente, nel Capitolo 2, ricaverò il valore della Luminosità di Eddington, che esprime la massima luminosità che può emettere un corpo in simmetria sferica. Anche questo risultato verrà ricavato imponendo ipotesi abbastanza restrittive, quindi non andrà interpretato come un limite invalicabile. Nel Capitolo 3 parlerò (più qualitativamente, e senza la pretesa di entrare nei dettagli) di come si formano i dischi di accrescimento, che si originano quando la materia che va ad accrescere ha un momento angolare non nullo: quindi non siamo più nel caso di accrescimento a simmetria sferica. Infine, parlerò dei processi che originano gli spettri osservati degli AGN, riferendomi prevalentemente a quei processi che originano il continuo dello spettro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'obiettivo della tesi è progettare un'architettura abilitante per scenari smart health, concentrandosi sulla parte end-user (non sulla parte server-cloud), ossia sperimentando l'ambito dei wearable devices e facendo riferimento al binomio fitness-Apple Watch, comodo perchè presente nell'azienda FitStadium che ci fornisce motivazioni, requisiti e goals. Nel primo capitolo si analizzeranno le soluzioni offerte attualmente dal mercato per la realizzazione di servizi legati al fitness, focalizzandosi in particolare sulle architetture proposte e come quest'ultime possano convivere con l'ecosistema FitStadium. Il secondo capitolo è riservato invece all'approfondimento delle tecnologie Apple, che verranno utilizzate concretamente per la realizzazione del caso di studio. Ancora una volta si farà attenzione alle possibilità architetturali offerte da queste tecnologie. Nel terzo capitolo viene trattato nella sua interezza il caso di studio, analizzandone in particolare lo stato pre e post tesi. Verrà cioè descritta l'applicazione implementata insieme alla presentazione di un'architettura abilitante anche per gli scenari smart health. Infine, all'interno del capito 4 viene descritto più precisamente il concetto di smart health e il percorso che ha condotto alla sua definizione.