987 resultados para Continuo.


Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi viene presentato un bioreattore in grado di mantenere nel tempo condizioni biologiche tali che consentano di massimizzare i cicli di evoluzione molecolare di vettori di clonazione fagici: litico (T7) o lisogeno (M13). Verranno quindi introdtti concetti legati alla Teoria della Quasispecie e alla relazione tra errori di autoreplicazione e pressioni selettive naturali o artificiali su popolazioni di virus: il modello naturale del sistema evolutivo. Tuttavia, mantenere delle popolazioni di virus significa formire loro un substrato dove replicare. Per fare ciò, altri gruppi di ricerca hanno giá sviluppato complessi e costosi prototipi di macchinari per la crescita continua di popolazioni batteriche: i compartimenti dei sistemi evolutivi. Il bioreattore, oggetto di questo lavoro, fa parte del progetto europeo Evoprog: general purpose programmable machine evolution on a chip (Jaramillo’s Lab, University of Warwick) che, utilizzando tecnologie fagiche e regolazioni sintetiche esistenti, sará in grado di produrre funzionalità biocomputazionali di due ordini di grandezza più veloci rispetto alle tecniche convenzionali, riducendo allo stesso tempo i costi complessivi. Il primo prototipo consiste in uno o piú fermentatori, dove viene fatta crescere la cultura batterica in condizioni ottimizzate di coltivazione continua, e in un cellstat, un volume separato, dove avviene solo la replicazione dei virus. Entrambi i volumi sono di pochi millilitri e appropriatamente interconnessi per consentire una sorta di screening continuo delle biomolecole prodotte all’uscita. Nella parte finale verranno presentati i risultati degli esperimenti preliminari, a dimostrazione dell’affidabilità del prototipo costruito e dei protocolli seguiti per la sterilizzazione e l’assemblaggio del bioreattore. Gli esperimenti effettuati dimostrano il successo di due coltivazioni virali continue e una ricombinazione in vivo di batteriofagi litici o lisogeni ingegnerizzati. La tesi si conclude valutando i futuri sviluppi e i limiti del sistema, tenendo in considerazione, in particolare, alcune applicazioni rivolte agli studi di una terapia batteriofagica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi il Gruppo di Rinormalizzazione non-perturbativo (FRG) viene applicato ad una particolare classe di modelli rilevanti in Gravit`a quantistica, conosciuti come Tensorial Group Field Theories (TGFT). Le TGFT sono teorie di campo quantistiche definite sulla variet`a di un gruppo G. In ogni dimensione esse possono essere espanse in grafici di Feynman duali a com- plessi simpliciali casuali e sono caratterizzate da interazioni che implementano una non-localit`a combinatoriale. Le TGFT aspirano a generare uno spaziotempo in un contesto background independent e precisamente ad ottenere una descrizione con- tinua della sua geometria attraverso meccanismi fisici come le transizioni di fase. Tra i metodi che meglio affrontano il problema di estrarre le transizioni di fase e un associato limite del continuo, uno dei pi` u efficaci `e il Gruppo di Rinormalizzazione non-perturbativo. In questo elaborato ci concentriamo su TGFT definite sulla variet`a di un gruppo non-compatto (G = R) e studiamo il loro flusso di Rinormalizzazione. Identifichiamo con successo punti fissi del flusso di tipo IR, e una superficie critica che suggerisce la presenza di transizioni di fase in regime Infrarosso. Ci`o spinge ad uno stu- dio per approfondire la comprensione di queste transizioni di fase e della fisica continua che vi `e associata. Affrontiamo inoltre il problema delle divergenze Infrarosse, tramite un processo di regolarizzazione che definisce il limite termodinamico appropriato per le TGFT. Infine, applichiamo i metodi precedentementi sviluppati ad un modello dotato di proiezione sull’insieme dei campi gauge invarianti. L’analisi, simile a quella applicata al modello precedente, conduce nuovamente all’identificazione di punti fissi (sia IR che UV) e di una superficie critica. La presenza di transizioni di fasi `e, dunque, evidente ancora una volta ed `e possibile confrontare il risultato col modello senza proiezione sulla dinamica gauge invariante.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi si pone l'obiettivo di presentare la teoria dei giochi, in particolare di quelli cooperativi, insieme alla teoria delle decisioni, inquadrandole formalmente in termini di matematica discreta. Si tratta di due campi dove l'indagine si origina idealmente da questioni applicative, e dove tuttavia sono sorti e sorgono problemi più tipicamente teorici che hanno interessato e interessano gli ambienti matematico e informatico. Anche se i contributi iniziali sono stati spesso formulati in ambito continuo e utilizzando strumenti tipici di teoria della misura, tuttavia oggi la scelta di modelli e metodi discreti appare la più idonea. L'idea generale è quindi quella di guardare fin da subito al complesso dei modelli e dei risultati che si intendono presentare attraverso la lente della teoria dei reticoli. Ciò consente di avere una visione globale più nitida e di riuscire agilmente ad intrecciare il discorso considerando congiuntamente la teoria dei giochi e quella delle decisioni. Quindi, dopo avere introdotto gli strumenti necessari, si considerano modelli e problemi con il fine preciso di analizzare dapprima risultati storici e solidi, proseguendo poi verso situazioni più recenti, più complesse e nelle quali i risultati raggiunti possono suscitare perplessità. Da ultimo, vengono presentate alcune questioni aperte ed associati spunti per la ricerca.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le galassie spirali hanno la forma di un disco, con un nucleo globulare più o meno prominente detto bulge e alcune braccia a spirale che si avvolgono attorno ad esso. Il tutto è in rotazione attorno all'asse del disco, con una velocità angolare che varia dal centro alla periferia. Le spirali vengono designate con la lettera S, seguita da una lettera (a, b o c) a seconda dell'importanza dei bracci. Nelle spirali di tipo Sa, i bracci sono piuttosto stretti e il nucleo è preponderante, nelle Sb invece i bracci sono più prominenti e nelle Sc sono ancora più importanti rispetto al nucleo e hanno anche un aspetto piu' "diffuso". Le spirali barrate, che si indicano con la notazione SB seguita dalle lettere a, b o c, sono identiche alle precedenti, salvo per il fatto che le braccia partono dalle estremità di una barra di stelle e gas che attraversa diametralmente il bulge, anziché direttamente da questo. Il contenuto di queste galassie a spirale è piuttosto disomogeneo; la densità della materia diminuisce dal centro verso la periferia. Inoltre possiedono una grande quantità di gas mischiato a polvere, dal quale si formano tutt'ora molte nuove stelle. Le stelle sono concentrate nel nucleo, nei bracci e in un alone di ammassi globulari disposti intorno alla galassia. Inoltre, questo gas è soggetto a processi violenti come l'esplosione di supernoavae, che vi immettono grandi quantità di energia e altro materiale, perciò la materia interstellare è disposta in modo piuttosto irregolare, concentrata in nubi di varie dimensioni. E da queste nubi si formano le stelle. Nella prima parte dell'elaborato ci occuperemo del mezzo interstellare: temperatura e densità differenziano le fasi dell' ISM, da qui discendono i vari processi di emissione/assorbimento che vedremo nella seconda parte. Principalmente andremo ad analizzare cinque bande di emissione (banda X, ottica, radio, gamma e infrarossa) e vedremo come appaiono tipicamente le galassie a spirale a lunghezze d'onda differenti, quali sono i processi in gioco e come il mezzo interstellare sia fondamentale in quasi ogni tipo di processo. A temperature elevate, esso è responsabile dell'emissione X della galassia, mentre regioni più fredde, formate da idrogeno ionizzato, sono responsabili delle righe di emissione presenti nello spettro ottico. Il campo magnetico, tramite le sue interazioni con elettroni relativistici è la principale fonte dell'emissione radio nel continuo di una galassia a spirale, mentre quella in riga è dovuta a idrogeno atomico o a gas freddo. Vedremo infine come raggi cosmici e polvere, che fanno sempre parte del mezzo interstellare, siano rispettivamente la causa principale dell'emissione gamma e infrarossa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'informatica, assieme alle sue innovazioni tecnologiche, offre al mondo d'oggi uno scenario in continuo sviluppo evolutivo che permette di facilitare alcune necessità dell'essere umano. Con la nascita di internet e dei nuovi dispositivi cellulari, la comunicazione è stata resa più malleabile e immediata. Tuttavia, le nuove tecnologie utilizzano infrastrutture complesse che non sempre sono ampiamente sfruttate a causa delle loro esigenze quali scalabilità, risposte in tempo reale, o tolleranza. Per far fronte a queste caratteristiche, una nuova tendenza del software è quella di fornire autonomia e pro-attività alle entità nel sistema in modo da incrementare la loro interazione. Queste caratteristiche permettono di responsabilizzare i soggetti rendendo il sistema auto-organizzato, con una migliore scalabilità,robustezza, e quindi riducendo le esigenze di calcolo di ciascuna entità. Lo studio dei sistemi auto-organizzanti è stato ispirato alla natura, e in particolare, ai sistemi biologici. Questi sistemi mostrano le caratteristiche interessanti per gli scenari pervasivi, poichè sono robusti e resistenti, in grado di adattarsi al contesto ambientale e quindi reagiscono a determinate modifiche che si verificano nell'ambiente comportandosi di conseguenza. L'ingegneria dell'auto-organizzazione ha il compito di simulare e testare questi comportamenti presentando uno schema progettuale completo che permetta di presentare soluzioni ricorrenti a problemi noti. Tale schema è definito in termini informatici design pattern. Le entità, definite agenti, per interagire e comunicare tra di loro hanno bisogno di coordinarsi tramite un modello specifico. Nel nostro caso è stato scelto TuCSoN, poichè riesce a separare uno spazio dedicato allo scambio di informazioni da uno spazio dedicato alle specifiche che permette di descrivere delle politiche di comportamento per sistemi MAS implementati nell'opportuno linguaggio di programmazione ReSpecT.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il lavoro di questa tesi riguarda principalmente l'upgrade, la simulazione e il test di schede VME chiamate ReadOut Driver (ROD), che sono parte della catena di elaborazione ed acquisizione dati di IBL (Insertable B-Layer). IBL è il nuovo componente del Pixel Detector dell'esperimento ATLAS al Cern che è stato inserito nel detector durante lo shut down di LHC; fino al 2012 infatti il Pixel Detector era costituito da tre layer, chiamati (partendo dal più interno): Barrel Layer 0, Layer 1 e Layer 2. Tuttavia, l'aumento di luminosità di LHC, l'invecchiamento dei pixel e la richiesta di avere misure sempre più precise, portarono alla necessità di migliorare il rivelatore. Così, a partire dall'inizio del 2013, IBL (che fino a quel momento era stato un progetto sviluppato e finanziato separatamente dal Pixel Detector) è diventato parte del Pixel Detector di ATLAS ed è stato installato tra la beam-pipe e il layer B0. Questa tesi fornirà innanzitutto una panoramica generale dell'esperimento ATLAS al CERN, includendo aspetti sia fisici sia tecnici, poi tratterà in dettaglio le varie parti del rivelatore, con particolare attenzione su Insertable B-Layer. Su quest'ultimo punto la tesi si focalizzerà sui motivi che ne hanno portato alla costruzione, sugli aspetti di design, sulle tecnologie utilizzate (volte a rendere nel miglior modo possibile compatibili IBL e il resto del Pixel Detector) e sulle scelte di sviluppo e fabbricazione. La tesi tratterà poi la catena di read-out dei dati, descrivendo le tecniche di interfacciamento con i chip di front-end, ed in particolare si concentrerà sul lavoro svolto per l'upgrade e lo sviluppo delle schede ReadOut Drivers (ROD) introducendo le migliorie da me apportate, volte a eliminare eventuali difetti, migliorare le prestazioni ed a predisporre il sistema ad una analisi prestazionale del rivelatore. Allo stato attuale le schede sono state prodotte e montate e sono già parte del sistema di acquisizione dati del Pixel Detector di ATLAS, ma il firmware è in continuo aggiornamento. Il mio lavoro si è principalmente focalizzato sul debugging e il miglioramento delle schede ROD; in particolare ho aggiunto due features: - programmazione parallela delle FPGA} delle ROD via VME. IBL richiede l'utilizzo di 15 schede ROD e programmandole tutte insieme (invece che una alla volta) porta ad un sensibile guadagno nei tempi di programmazione. Questo è utile soprattutto in fase di test; - reset del Phase-Locked Loop (PLL)} tramite VME. Il PLL è un chip presente nelle ROD che distribuisce il clock a tutte le componenti della scheda. Avere la possibilità di resettare questo chip da remoto permette di risolvere problemi di sincronizzazione. Le ReadOut Driver saranno inoltre utilizzate da più layer del Pixel Detector. Infatti oltre ad IBL anche i dati provenienti dai layer 1 e 2 dei sensori a pixel dell’esperimento ATLAS verranno acquisiti sfruttando la catena hardware progettata, realizzata e testata a Bologna.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il lavoro svolto per questa tesi è stato effettuato presso il reparto di Fisica Medica dell’Ospedale Bellaria di Bologna, e ha lo scopo di mettere in evidenza l’efficacia dell’utilizzo di pellicole Gafchromic EBT3 nei controlli di qualità effettuati sull’acceleratore lineare LINAC SynergyS per radioterapia a fasci esterni. L’utilizzo continuo e prolungato dell’acceleratore durante i trattamenti radianti può causare nel tempo una perdita della calibrazione iniziale dei suoi componenti meccanici e dosimetrici: per questo è necessario controllarne periodicamente lo stato di funzionamento. Lo scopo dei controlli di qualità è quindi quello di verificare che tale fenomeno non sia avvenuto, per garantire precisione e sicurezza durante l’irradiazione del paziente (essenziale per i trattamenti ad alta precisione come l’IMRT e il VMAT), richiedendo che il fascio erogato colpisca il tessuto malato e riducendo al minimo l’errore per evitare il danneggiamento dei tessuti sani circostanti. I test effettuati sull’acceleratore lineare rientrano nel programma di assicurazione di qualità elaborato ed implementato a cura dei reparti di Fisica Medica e Radioterapia dell' Ospedale Bellaria di Bologna. Tale programma di assicurazione di qualità, è attuato per garantire che i risultati dei test rientrino nelle tolleranze meccaniche e dosimetriche previste dal protocollo dei controlli di qualità per le prove di stato e periodiche sull’acceleratore lineare in vigore all' AUSL di Bologna. In particolare in questo lavoro di tesi sono state effettuate prove dosimetriche, quali la verifica dell’omogeneità e della simmetria del fascio radiante, e prove meccaniche quali la verifica della corrispondenza tra isocentro meccanico ed isocentro radiante. Per queste verifiche sperimentali sono state utilizzate le pellicole radiocromiche Gafchromic EBT3; si tratta di dosimetri bidimensionali particolarmente adatti alla verifica dei trattamenti ad intensità modulata (IMRT, VMAT) che consentono un’accurata stima della distribuzione e dei gradienti di dose assorbita. L'utilizzo delle pellicole Gafchromic EBT3 insieme al software FilmQA Pro si è rivelato uno strumento dosimetrico preciso, accurato e pratico per effettuare i controlli di qualità di base su un acceleratore lineare per radioterapia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Per il presente lavoro, sono state seguite due perforazioni a carotaggio continuo, eseguite ai piedi di un versante potenzialmente instabile attraversato dalla linea ferroviaria Bologna-Pistoia. In primo luogo è stata interpretata la stratigrafia del sito in esame su base della descrizione delle carote di sondaggio, e successivamente sono stati caratterizzati dal punto di vista geologico-tecnico alcuni campioni di terreno prelevati a diverse profondità. Sono state definite le caratteristiche granulometriche e i limiti di plasticità dei campioni, ed è stata condotta una prova di taglio anulare su uno di essi. Si è posta l'attenzione, in modo particolare, sull'interpretazione dei parametri di resistenza residua ottenuti in relazione alle proprietà indice del terreno.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’ obiettivo della tesi proposta è volto ad illustrare come la malattia diabetica può essere gestita a livello domiciliare attraverso dispositivi di monitoraggio della glicemia sempre più innovativi. La malattia diabetica è un disturbo metabolico che ha come manifestazione principale un aumento del livello di zucchero nel sangue (glicemia) dovuto ad una ridotta produzione di insulina, l’ormone secreto dal pancreas per utilizzare gli zuccheri e gli altri componenti del cibo e trasformarli in energia. È una delle patologie croniche a più ampia diffusione nel mondo, in particolare nei Paesi industrializzati, e costituisce una delle più rilevanti e costose malattie sociali della nostra epoca, soprattutto per il suo carattere di cronicità, per la tendenza a determinare complicanze nel lungo periodo e per il progressivo spostamento dell’insorgenza verso età giovanili. Le tecnologie applicate alla terapia del diabete hanno consentito negli ultimi vent’anni di raggiungere traguardi molto importanti, soprattutto per quanto riguarda l’ottimizzazione del controllo assiduo dei valori glicemici cercando di mantenerli il più costante possibile e ad un livello simile a quello fisiologico. La comunicazione medico-paziente è stata rivoluzionata dalla telemedicina che, offrendo la possibilità di una comunicazione agevole, permette di ottimizzare l’utilizzo dei dati raccolti attraverso l’automonitoraggio glicemico e di facilitare gli interventi educativi. I glucometri, che misurano la glicemia ‘capillare’, insieme ai microinfusori, sistemi di erogazione dell’insulina sia in maniera continua (fabbisogno basale), che ‘a domanda’ (boli prandiali), hanno sostanzialmente modificato l’approccio e la gestione del diabete da parte del medico, ma soprattutto hanno favorito al paziente diabetico un progressivo superamento delle limitazioni alle normali attività della vita imposte dalla malattia. Con il monitoraggio continuo della glicemia 24 ore su 24 infatti, si ha avuto il vantaggio di avere a disposizione un elevato numero di misurazioni puntiformi nell’arco della giornata attraverso sensori glicemici, che applicati sulla pelle sono in grado di ‘rilevare’ il valore di glucosio a livello interstiziale, per diversi giorni consecutivi e per mezzo di un trasmettitore wireless, inviano le informazioni al ricevitore che visualizza le letture ottenute dal sensore. In anni recenti, il concetto di SAP (Sensor-Augmented Insulin Pump) Therapy, è stato introdotto a seguito di studi che hanno valutato l’efficacia dell’utilizzo della pompa ad infusione continua di insulina (CSII, continuous subcutaneous insulin infusion) associato ai sistemi di monitoraggio in continuo della glicemia (CGM, continuous glucose monitoring) per un significativo miglioramento del controllo glicemico e degli episodi sia di ipoglicemia sia di iperglicemia prolungata. Oggi, grazie ad una nuova funzione è possibile interrompere automaticamente l’erogazione di insulina da parte del microinfusore quando la glicemia, rilevata dal sensore, scende troppo velocemente e raggiunge un limite di allarme. Integrare lettura della glicemia, infusione e sospensione automatica dell’erogazione di insulina in caso di ipoglicemia ha ovviamente aperto la porta al pancreas artificiale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'accrescimento è un processo fondamentale in astrofisica data la sua grandissima efficienza. Nel 1959 venne individuato il primo Quasar (pur non sapendo realmente di cosa si trattasse) e nel 1963 l'astronomo tedesco Maarten Schmidt scoprì che tale oggetto, di magnitudine apparente 13 (si credeva fosse una stella), aveva un redshift z = 0:37. Stelle di magnitudine 13 non dovrebbero avere un redshift così grande. Tale oggetto doveva trovarsi a grande distanza ed emettere una luminosità molto alta, superiore anche a quella di un'intera galassia. Processi termonucleari non erano sufficientemente efficienti per spiegare un'emissione di questo tipo: si capì presto che tale emissione dovesse avere origine gravitazionale, fosse cioè dovuta all'accrescimento di materia su un buco nero. In questa tesi, dopo aver spiegato come l'accrescimento rappresenti un'importante fonte di energia in astrofisica, presenterò, nel Capitolo 1, il modello di Bondi, presentato nel 1952 da Hermann Bondi. Tale modello è il più semplice modello di accrescimento e, pur essendo basato su ipotesi (che vedremo) che trascurano diversi aspetti importanti, risulta comunque un modello fondamentale, perché permette di ricavare quantità rilevanti in astrofisica. Successivamente, nel Capitolo 2, ricaverò il valore della Luminosità di Eddington, che esprime la massima luminosità che può emettere un corpo in simmetria sferica. Anche questo risultato verrà ricavato imponendo ipotesi abbastanza restrittive, quindi non andrà interpretato come un limite invalicabile. Nel Capitolo 3 parlerò (più qualitativamente, e senza la pretesa di entrare nei dettagli) di come si formano i dischi di accrescimento, che si originano quando la materia che va ad accrescere ha un momento angolare non nullo: quindi non siamo più nel caso di accrescimento a simmetria sferica. Infine, parlerò dei processi che originano gli spettri osservati degli AGN, riferendomi prevalentemente a quei processi che originano il continuo dello spettro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il Massiccio del Cansiglio-Monte Cavallo costituisce uno dei maggiori complessi carsici italiani; con questo lavoro si cerca di fornirne una caratterizzazione idrogeologica sulla quale poter basare una futura prova di tracciamento multiplo, al fine di definirne con precisione la configurazione interna. Lo studio è incentrato sul monitoraggio in continuo di portate, temperature e conducibilità elettrica compensata a 25 °C delle tre sorgenti maggiori del fiume Livenza, che sgorgano alla base del Massiccio, e su un monitoraggio idrochimico discontinuo di nove sorgenti (tra cui figurano anche le tre principali) e di quattro grotte rappresentanti le aree di infiltrazione concentrata. L’enorme volume d’acqua contenuto in questo grande acquifero carsico sembra riversarsi quasi completamente nelle aree sorgive situate al margine occidentale della pianura friulana, che cinge il lato orientale del Massiccio. In linea generale, queste acque, tipicamente carbonatiche, non hanno tempi di residenza lunghi all’interno del bacino di provenienza e fluiscono con portate elevate (> 1 m3/s) da ognuna delle tre sorgenti maggiori; nel periodo estivo (luglio-agosto) si registra una fase di svuotamento, assai accentuata al Gorgazzo, sorgente, tra le tre, posta più a nord. Molinetto, situata più a sud, pare differenziarsi maggiormente dalle altre due grandi sorgenti, Santissima e Gorgazzo, mentre le sorgenti minori sembrano, al di là di alcune caratteristiche peculiari, abbastanza simili tra loro. In particolare, il Molinetto mostra, in risposta agli eventi meteorici intensi, un incremento di portata meno netto, accompagnato da un evidente fenomeno di pistonaggio, almeno durante il periodo di morbida. Al contrario, il Gorgazzo risponde immediatamente alle forti precipitazioni piovose e le acque di pioggia viaggiano rapidamente dalla zona di infiltrazione alla sorgente stessa. La Santissima, sorgente con valori medi di portata maggiori e valori di conducibilità elettrica e temperatura mediamente inferiori alle altre, sembra dipendere da un sistema con caratteristiche intermedie tra quelle delle due sorgenti adiacenti. Emerge la complessità di questo vasto sistema carsico che sembra mostrare un grado di carsificazione in aumento da sud-ovest a nord-est. Sulla base dei dati raccolti si suppone che al suo interno possano svilupparsi due sottosistemi: il primo sembra che riversi la sua riserva idrica nelle sorgenti Molinetto e Santissima, il secondo accomuna invece la Santissima con il Gorgazzo, il quale ne costituisce un “troppo pieno”.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il problema dell'acidificazione degli oceani, conseguente ai cambiamenti climatici, è un processo ancora poco conosciuto. Per comprendere questo fenomeno, possono essere utilizzati degli ambienti naturalmente acidificati, considerati laboratori a cielo aperto. Lo scopo di questo lavoro di tesi è stato quello di utilizzare le fumarole presenti nell'isola di Ischia, per approfondire le dinamiche dei processi di acidificazione e per analizzare l'eventuale interazione tra pH e condizioni meteorologiche. I dati utilizzati, forniti dalla Stazione Zoologica “Anton Dohrn” di Napoli, erano serie di pH e di vento rilevate in continuo, in due aree, nord e sud rispetto all'isolotto del Castello Aragonese, e in tre stazioni lungo un gradiente di acidificazione. Tutto il lavoro è stato svolto a step, dove il risultato di un'analisi suggeriva il tipo e il metodo analitico da utilizzare nelle analisi successive. Inizialmente i dati delle due serie sono stati analizzati singolarmente per ottenere i parametri più salienti delle due serie. In seguito i dati sono stati correlati fra loro per stimare l'influenza del vento sul pH. Globalmente è stato possibile evidenziare come il fenomeno dell'acidificazione sia correlato con il vento, ma la risposta sembra essere sito-specifica, essendo risultato dipendente da altri fattori interagenti a scala locale, come la geomorfologia del territorio, le correnti marine e la batimetria del fondale. È però emersa anche la difficoltà nel trovare chiare correlazioni fra le due serie indagate, perché molto complesse, a causa sia della numerosa quantità di zeri nella serie del vento, sia da una forte variabilità naturale del pH, nelle varie stazioni esaminate. In generale, con questo lavoro si è dimostrato come utilizzare tecniche di analisi delle serie storiche, e come poter utilizzare metodi di regressione, autocorrelazione, cross-correlation e smoothing che possono integrare i modelli che prendono in considerazione variabili esogene rispetto alla variabile di interesse.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Scopo di questo lavoro di tesi è la revisione della legislazione in materia di dispositivi medici nel mercato europeo, facendone un confronto con la normativa extra-europea. In particolare si sono studiate ed analizzate anche le regolamentazioni degli Stati Uniti e del Giappone, che insieme a quella dell’Unione Europea, rappresentano attualmente i tre maggiori mercati mondiali di dispositivi medici. L’obiettivo quindi è stato la ricerca, lo studio e l’analisi critica dei vari sistemi legislativi in vigore, la loro evoluzione e le prospettive future. Considerando il punto di vista del fabbricante di dispositivi medici, si sono illustrati percorsi normativi per poter immettere sul mercato un nuovo dispositivo medico nell’Unione Europea, negli Stati Uniti e in Giappone, evidenziando le procedure da seguire, le modalità di commercializzazione nei tre mercati, le certificazioni richieste, facendone un’analisi comparativa di un mercato rispetto agli altri. Sempre nella stessa ottica, si è inoltre effettuata una sintetica analisi del mercato dei dispositivi medici nei paesi emergenti, in quanto sono già, e lo diventeranno sempre più, una risorsa importante per una azienda con una visione internazionale del mercato. In questo elaborato di tesi sono stati ampiamente descritti ed analizzati i diversi sistemi di regolamentazione dei dispositivi medici e si è effettuata una valutazione comparativa tra i diversi sistemi legislativi e normativi che condizionano il mercato dei dispositivi medici. Un fabbricante con una visione internazionale della propria azienda deve conoscere perfettamente le legislazioni vigenti in materia di dispositivi medici. Per l'impresa, la conoscenza e la pratica della norma è indispensabile ma, ancor più, l'informazione e la consapevolezza dell'evoluzione della norma è determinante per la crescita competitiva. Il business mondiale dei dispositivi medici infatti ha subito profondi cambiamenti, con l'introduzione nei diversi paesi di complesse procedure di certificazione e autorizzazione, che sono in continua evoluzione. Tutto questo richiede una dimestichezza con le norme di settore e un continuo aggiornamento tecnico-normativo: sono indispensabili per le imprese competenze adeguate, in grado di affrontare tematiche tecnico-scientifiche e di adempiere a quanto prevedono le norme nazionali ed internazionali. Comprendere le opportunità, conoscere le regole e le barriere per l'ingresso in un determinato mercato, è sempre più importante per le imprese interessate ai processi di internazionalizzazione. Per meglio comprendere un mercato/paese, occorre la conoscenza dei peculiari aspetti regolatori, ma anche la conoscenza della specifica cultura, tradizione, società. In questo quadro, conoscere e praticare le norme non è sufficiente, sapere come evolvono le norme e le regole è per le imprese un fattore determinante per la competitività.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Per molto tempo le risorse di acque sotterranee e quelle di acque superficiali sono state considerate e gestite come due entità a sé stanti; in realtà questi due corpi d’acqua rappresentano le componenti di un’unica risorsa: qualsiasi genere di impatto su una delle due andrà ad influire inevitabilmente sulla quantità o sulla qualità dell’altra. Lo scopo di questa tesi è quello di comprendere che grado di interazione esiste tra i Fiumi Uniti e l’acquifero costiero ravennate mediante due approcci distinti: (1) con l’analisi di profili termici teorici e ottenuti dal monitoraggio di misure termometriche in quattro piezometri, si intende ottenere informazioni riguardanti i flussi idrici sotterranei, (2) con la modellazione numerica dell’area nei pressi dei Fiumi Uniti (mediante Processing Modflow) è possibile ottenere una stima dei flussi sotterranei dal fiume verso l’acquifero nella zona di riferimento. Inoltre durante il monitoraggio del mese di settembre 2015 è stato installato un diver, ad una profondità di -7,4 m, in uno dei piezometri per ottenere un monitoraggio continuo per tutto il mese di ottobre. I dati termici rilevati in campo hanno permesso di confermare l’esistenza di un’importante interazione tra i corsi d’acqua presi in esame e l’acquifero costiero ravennate, testimoniato dall’ampia variazione di temperatura negli strati più superficiali. Inoltre tra il 10 e l’11 ottobre è stata registrata un’anomalia termica causata da un flusso orizzontale di acqua più calda in prossimità del piezometro proveniente dai Fiumi Uniti mediante trasporto per avvezione: tale anomalia viene registrata circa 2 giorni dopo una piena dei Fiumi Uniti. Grazie alla modellazione numerica è stato possibile confermare le tempistiche con cui l’acqua percorre la distanza tra il fiume e il piezometro preso in considerazione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Progettazione e dimensionamento di un inversore di marcia in una macchina agricola ibrida di piccola potenza dotata di cambio a uso continuo.