899 resultados para cuore modello matematico biologia dei sistemi


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il BPA è un composto aromatico precursore di materiali plastici e additivi chimici, ed è entrato a far parte della categoria dei contaminanti che alterano il sistema endocrino con molteplici effetti negativi sulla salute umana (azione di mimesi estrogenica, alterazioni della funzione tiroidea e dei sistemi riproduttivo, nervoso ed immunitario). Nella fase produttiva industriale si hanno emissioni accidentali di BPA durante il trattamento e la lavorazione dei monomeri plastici. Piccole frazioni di BPA possono essere ingerite dall’uomo poiché la sostanza migra nel tempo dal contenitore alimentare al contenuto (es. bevanda in lattina o contenitore per microonde) soprattutto se esposto ad alte temperature. Anche il contatto con composti acidi o basici, la presenza di elevati livelli di cloruro di sodio o di oli vegetali, è in grado di provocare un incremento del rilascio di BPA dai materiali polimerici. Il BPA viene rilasciato dai biberon in policarbonato, che in molti Paesi sono stati ritirati dal commercio nel 2011, e da bottiglie di acqua riutilizzabili. Infine, la carta termica degli scontrini e delle fotocopie rilasciano BPA. Nell’adulto la tossicità del BPA sembra modesta, tuttavia l'esposizione nel feto e nel neonato può risultare deleteria. Al di là della tossicità, l'aspetto che al momento preoccupa maggiormente è l'effetto che il BPA ha anche a basse dosi sul metabolismo: diversi studi in tutto il mondo correlano questa sostanza all'incidenza di diabete, ipertensione, obesità e problemi cardiaci. L’attenzione per il BPA è piuttosto recente a livello umano, mentre è assai ridotta per la salute dell’ecosistema. Tuttavia è noto che il BPA è presente anche come contaminante dei suoli, e pur essendo stato documentato il suo bioaccumulo negli organismi vegetali, non sono disponibili informazioni precedenti relativi agli effetti del BPA sugli organismi animali del suolo, in linea con il fatto che il suolo è stato una matrice ambientale molto trascurata. Il presente lavoro di tesi quindi si pone come uno studio pilota per valutare la possibile tossicità del BPA su organismi modello che vivono in questa matrice. In questo studio è stato scelto come bioindicatore “sentinella” il lombrico Eisenia andrei, il comune verme rosso, come suggeriscono le linee guida internazionali (OECD, OCSE). I possibili effetti biologici del Bisfenolo A nei lombrichi sono stati indagati sia attraverso endpoint del ciclo vitale (accrescimento, riproduzione e mortalità), sia attraverso una batteria di biomarker (generali e specifici). Data la mancanza di osservazioni precedenti si è scelto un approccio integrato tra i parametri del ciclo vitale, in genere meno sensibili ma ecologicamente più rilevanti, e i biomarker, risposte più sensibili che possono rappresentare segnali precoci di allarme inerenti l’esposizione a contaminanti ambientali o l’effetto di questi ultimi sugli organismi indagati, ma non necessariamente predittivi sulla salute della comunità. Al momento non esistono batterie di biomarker specifiche per questa sostanza, quindi un ulteriore scopo della ricerca è stato quello di evidenziare biomarker utili ad indagare eventuali alterazioni biochimiche e funzionali nei lombrichi in risposta all’esposizione a dosi crescenti di bisfenolo A. Le risposte biologiche indagate sono: - la diminuzione della stabilità delle membrane lisosomiali, che indica una riduzione dello stato di salute generale degli organismi; - l’alterazione dell’attività degli enzimi catalasi e glutatione-S-trasferasi, indice di stress ossidativo o induzione di meccanismi di detossificazione; - la diminuzione dell’attività dell’enzima acetilcolinesterasi, la quale indica neurotossicità; - l’accumulo di lipofuscine o lipidi neutri, che è sintomo rispettivamente di stress ossidativo o alterazioni del metabolismo; - la variazione della malondialdeide, composto intermedio della perossidazione lipidica, indica un stress ossidativo in corso. Sulla base dei dati ottenuti possiamo dire che il BPA, alle concentrazioni ambientali, non costituisce un elemento di rischio ecologico per gli organismi sentinella Eisenia andrei. Alle concentrazioni più elevate (che superano quelle ambientali di almeno 10 volte) si osservano delle alterazioni sui livelli di lipidi neutri e lipofuscine che pur non essendo preoccupanti dal punto di vista ecologico sono indice di vulnerabilità, dato che si tratta di alterazioni del metabolismo in conseguenza delle quali gli animali accumulano residui normalmente degradati a livello lisosomiale. Questo accumulo nei lisosomi delle cellule del tessuto cloragogeno dei vermi, che rivestono il tubo digerente, sembrano indicare una esposizione attraverso la dieta a seguito della ingestione del terreno. E’interessante il fatto che l’accumulo di lipidi è in linea con le caratteristiche obesogene del BPA, ben manifestate nei mammiferi, uomo compreso. Tuttavia non ci sono ancora conoscenze sufficienti per stabilire se questo accumulo nei vermi sia dovuto ad una specifica alterazione degli enzimi di sintesi dei lipidi oppure più genericamente ad un aumento dello stress ossidativo. Molti studi stanno valutando la capacità del BPA di alterare la sintesi e il rilascio di lipidi in cellule umane e di ratto, ma non ci sono ancora studi di questo tipo per gli organismi edafici. E’ auspicabile che questo aspetto venga approfondito, ed eventualmente venga identificato un nuovo biomarker specifico dell’azione del BPA sull’accumulo di lipidi. Un altro aspetto che sarà interessante approfondire è il bioaccumulo: la valutazione del rischio ecotossicologico di una sostanza si basa anche sul potenziale di BCF che può essere pericoloso per il biota (incluso l’uomo) per trasferimento nella catena trofica. Considerando che non esistono ancora studi specifici del bioaccumulo del BPA in organismi del suolo, ed avendo messo in luce che l’assunzione della sostanza è avvenuta (probabilmente per via alimentare) ci si pone l’obiettivo futuro di valutare questo parametro nei lombrichi, in modo da avere un quadro più ampio degli effetti associati a questo interferente endocrino nei suoli.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Oncolytic virotherapy exploits the ability of viruses to infect and kill cells. It is suitable as treatment for tumors that are not accessible by surgery and/or respond poorly to the current therapeutic approach. HSV is a promising oncolytic agent. It has a large genome size able to accommodate large transgenes and some attenuated oncolytic HSVs (oHSV) are already in clinical trials phase I and II. The aim of this thesis was the generation of HSV-1 retargeted to tumor-specific receptors and detargeted from HSV natural receptors, HVEM and Nectin-1. The retargeting was achieved by inserting a specific single chain antibody (scFv) for the tumor receptor selected inside the HSV glycoprotein gD. In this research three tumor receptors were considered: epidermal growth factor receptor 2 (HER2) overexpressed in 25-30% of breast and ovarian cancers and gliomas, prostate specific membrane antigen (PSMA) expressed in prostate carcinomas and in neovascolature of solid tumors; and epidermal growth factor receptor variant III (EGFRvIII). In vivo studies on HER2 retargeted viruses R-LM113 and R-LM249 have demonstrated their high safety profile. For R-LM249 the antitumor efficacy has been highlighted by target-specific inhibition of the growth of human tumors in models of HER2-positive breast and ovarian cancer in nude mice. In a murine model of HER2-positive glioma in nude mice, R-LM113 was able to significantly increase the survival time of treated mice compared to control. Up to now, PSMA and EGFRvIII viruses (R-LM593 and R-LM613) are only characterized in vitro, confirming the specific retargeting to selected targets. This strategy has proved to be generally applicable to a broad spectrum of receptors for which a single chain antibody is available.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Si mostrano i passi seguiti nello sviluppo di un modello matematico e simulativo che mira a ricostruire il campo di flusso veicolare della rete stradale della regione Emilia Romagna. Si descrivono le fonti di dati utilizzate per la ricostruzione: dispositivi GPS a bassa capillarità e spire induttive su strada; si discute delle caratteristiche dei dati e dei problemi intrinseci e contingenti da cui sono affetti, nonché delle metodologie adottate nel tentativo di risolvere questi problemi. Si illustra l’idea centrale alla base delle ricostruzioni, e si descrive un criterio di validazione del modello. Si mostrano i risultati dei vari algoritmi ideati, ognuno affiancato dal parametro di validità, evidenziando quale metodo produca risultati migliori. Si conclude discutendo delle potenzialità del modello in termini di applicabilità in altre regioni o zone geografiche.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo studio ci siamo proposti di investigare i sistemi di modulazione automatica della dose sui sistemi TC Multislice (Automatic Exposure Control – AEC) da tre diversi produttori, aventi differenti indicatori di qualità delle immagini. Il presente lavoro è stato svolto presso il Servizio di Fisica Sanitaria dell’Azienda Ospedaliera Universitaria - Policlinico Sant’Orsola-Malpighi di Bologna e consiste in un’analisi quantitativa della dose impiegata durante esami di Tomografia Computerizzata Multi-Slice (TCMS) e delle rispettive immagini radiologiche. Le immagini sono state acquisite con : GE LightSpeed VCT 64 e GE LightSpeed 16 (AEC AutomA 3D longitudinale e angolare), Siemens Sensation 16 (AEC CARE Dose 4D combinato), Philips Brilliance 16 e iCT 64 (separati in AEC ZDOM longitudinale e AEC DDOM angolare). Le acquisizioni TCMS sono state effettuate a differenti kV e mA di riferimento, al fine di investigarne gli effetti sulla modulazione, impiegando algoritmi di ricostruzione standard presenti su ogni macchina. Due fantocci antropomorfi simulanti la zona del torace e dell’addome sono stati utilizzati per simulare un paziente standard posizionato come in un esame clinico di routine ; a questo proposito, sono stati impiegati protocolli elicoidali standard con e senza modulazione. Sono inoltre stati testati differenti valori di indice di qualità delle immagini. Il profilo dei mA lungo la lunghezza è stato ottenuto utilizzando ImageJ, un programma open source comunemente utilizzato per l’elaborazione di immagini; i mAs sono stati normalizzati ad un fattore che tiene conto delle differenti geometrie e delle filtrazioni dei diversi scanner tomografici analizzati nell’esperienza. Il rumore è stato valutato tramite la scelta di determinate ROI (Region Of Interest) localizzate in aree il più possibili uniformi disponibili lungo i fantocci. Abbiamo registrato che una variazione del Noise Index o dei mAs di riferimento a seconda della tipologia di macchina analizzata risulta in uno shift dei profili di dose; lo stesso si è verificato quando sono stati cambiato kV o mA nella scout di acquisizione. Sistemi AEC longitudinali e combinati hanno mostrato profili di mAs normalizzati simili tra loro, con valori elevati evidenziati nella zona delle spalle e zona pelvi; sono state osservate differenze del 30-40% tra i differenti scanner tomografici. Solo in un caso di macchina analizzata si è verificato un comportamento opposto rispetto alle altre due tipologie di macchina in esame. A dispetto della differente natura dei sistemi AEC, i risultati ottenuti dai protocolli combinati e longitudinali sono simili tra loro. Il rumore presente nelle immagini è aumentato ad un livello accettabile e la sua uniformità lungo la direzione di scan è migliorata.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi proposta tratta dei sistemi di telemedicina territoriale, ed in particolare dell’integrazione dei dati raccolti tramite un sistema home-care da un paziente domiciliare e dell’analisi di rischio sui sistemi coinvolti. Con il forte sviluppo tecnologico degli ultimi anni, si è diffusa anche la telemedicina, portando con sé numerosi vantaggi nell’ambito della sanità attraverso servizi come il telemonitoraggio, la teleconsultazione e la telechirurgia. In questa tesi ci si concentra soprattutto sull’aspetto del telemonitoraggio di pazienti domiciliari. A causa dell’invecchiamento della popolazione e del conseguente aumento delle malattie croniche, le spese sanitarie sono infatti destinate ad aumentare nel tempo: da una spesa pari al 7,1% del PIL nel 2011 è previsto si arriverà ad un 8,8% del PIL nel 2060. Risulta quindi necessario migliorare la produttività, l’efficienza e la sostenibilità finanziaria del sistema sanitario con un utilizzo sempre maggiore della telemedicina e in particolare dell’assistenza territoriale, ovvero il trasferimento di risorse dall'ospedale al territorio, che promuove quindi la domiciliarità.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo elaborato ha avuto come obiettivo la modifica di un modello matematico di potenziale d’azione ventricolare umano per migliorare la relazione che lega la durata del potenziale d’azione all’incremento degli intervalli diastolici, al fine di riprodurre correttamente i risultati sperimentali noti in letteratura. Ruolo principe nell’analisi e nell’implementazione di tale modello è stato quello dello ione calcio, coinvolto in numerosi processi chimici all’interno della cellula cardiaca, e responsabile anche della sua contrazione. Tutte le modifiche effettuate sono state fatte preservando la dipendenza inversa tra la durata del potenziale d’azione e le variazioni di calcio extracellulare, che costituiva il punto di forza del modello considerato rispetto alla sua versione originale. Le modifiche effettuate hanno riguardato in parte la struttura del modello (compartimenti, volumi) e in parte il calcium handling, ovvero la gestione del Ca2+ all’interno della cellula, in termini di flussi e correnti. Il modello così ottenuto, denominato “newORk”, è stato validato rispetto a numerosi protocolli sperimentali (sia di voltage-clamp, sia di current-clamp) presenti in letteratura e i risultati di simulazione hanno dimostrato un comportamento coerente con i risultati in vitro. In particolare la risposta del modello al protocollo S1S2, che non era fisiologica nel modello precedente, viene adesso riprodotta correttamente dal nuovo modello, presentando un aumento dell’APD all’aumentare dell’intervallo diastolico considerato. Il modello qui descritto può quindi essere ritenuto un importante, per quanto specifico, miglioramento nella descrizione matematica della elettrofisiologia cardiaca umana e potrà essere utilizzato per esplorare contesti clinici in cui le concentrazioni di calcio nel sistema cardiocircolatorio si modificano, come per esempio la terapia dialitica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il bisogno di creare dei metodi per l’identificazione delle performance e strumenti di diagnosi è sempre maggiore nelle turbomacchine. Le case costruttrici di motori, in generale, sono guidate dalle richieste del mercato e da normative sempre più severe, e ricercano quindi da un lato, sempre migliori prestazioni come ad esempio la diminuzione dei consumi e, dall’altro, l’abbattimento degli agenti inquinanti. In ambito industriale si ha l’esigenza di rendere più rapidi i tempi di progettazione e sviluppo dei motori per l’abbattimento dei costi di progettazione e per minimizzare il tempo di commercializzazione. Ecco perché entra in gioco, ed assume importanza, l’uso della simulazione numerica che fornisce informazioni utili sia in fase di verifica, che in fase di progetto di tutti i componenti del motore, anche quelli che sarebbero difficilmente accessibili per misure sperimentali. Al contempo i calcolatori moderni diventano facilmente e rapidamente sempre più potenti riducendo così i tempi di calcolo, e ciò ha consentito l’uso di tecniche numeriche che prima sarebbero risultate impensabili da utilizzare. Per mezzo dell’uso di codici di tipo bi o tri-dimensionale è possibile conoscere e valutare i valori delle grandezze termodinamiche del fluido che attraversa il motore punto per punto. Questi metodi presentano un elevata accuratezza ma hanno anche lo svantaggio di richiedere un elevato costo computazionale con conseguente aumento dei tempi di calcolo. In più hanno bisogno di molti dati di input per il modello matematico, e dipendono fortemente dalle condizioni iniziali e dalle condizioni al contorno. Nasce quindi l'esigenza di un ambiente di sviluppo che consenta una modellazione semplificata degli elementi costituenti il motore, ed un rapido interfacciamento con modelli locali più sofisticati. Inoltre, se si vogliono ottimizzare dei parametri relativi all’impianto globale oppure se si desidera avere un quadro generale delle prestazioni del motore è sufficiente usare modelli 0-D e 1-D per i vari componenti del motore. Sono stati svolti molti studi concentrati sullo sviluppo di strumenti capaci di supportare operazioni di pianificazione e/o per validare analisi di diagnosi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'elaborato si pone l'obiettivo di sviluppare un controllo sensorless di posizione per un attuatore tubolare pentafase anisotropo a magneti permanenti. Le peculiarità degli attuatori tubolari sono molteplici: assenza di organi di trasmissione del moto; compattezza; elevate densità di forza e prestazioni nella dinamica, con una più ampia banda passante per il sistema di controllo; maggiore precisione, risoluzione, ripetibilità ed affidabilità. Tale tipologia di macchina è pertanto molto interessante in diverse applicazioni quali robotica, automazione, packaging, sistemi di posizionamento ecc., ed è altresì promettente nei settori aerospaziale e automotive. L'azionamento in studio è inoltre di tipo multifase. In tal caso si ottengono diversi vantaggi: possibilità di suddividere la potenza su un numero elevato di rami del convertitore; capacità di lavorare in condizioni di guasto; incremento della densità di coppia della macchina; possibilità di controllare in modo indipendente e con un solo inverter più macchine collegate in serie. Prestazioni migliori della macchina si possono ottenere con un opportuno sistema di controllo. Nel caso di azionamenti a magneti permanenti risulta particolarmente attraente il controllo di tipo sensorless della posizione rotorica, in alternativa ad un encoder o un resolver. Questo aumenta l'affidabilità, riduce i costi e diminuisce l'ingombro complessivo dell'azionamento. Appare molto interessante l'utilizzo di un azionamento tubolare di tipo multifase, e ancor più lo sviluppo di un apposito controllo di posizione di tipo sensorless. L’algoritmo sensorless di stima della posizione dell’attuatore può essere sviluppato partendo dall’anisotropia di macchina, sfruttando la possibilità peculiare delle macchine multifase di estrarre informazioni sullo stato attraverso i molteplici gradi di libertà presenti. Nel caso in questione si tratta del controllo della terza armonica spaziale del campo magnetico al traferro. Fondamentale è la definizione di un modello matematico in grado di rappresentare in modo opportuno l’anisotropia di macchina. In letteratura non sono ancora presenti modelli adatti a descrivere il dispositivo in questione; pertanto una parte essenziale della tesi è stata dedicata a definire tale modello e a verificarne la validità. Partendo dal modello è possibile dunque sviluppare un appropriato algoritmo di controllo sensorless e rappresentare in simulink l'intero azionamento. Nella parte conclusiva del lavoro di tesi vengono presentate le prove sperimentali, finalizzate alla determinazione dei parametri di macchina e alla verifica del funzionamento del sistema di controllo. Infine sono confrontati i risultati ottenuti rispetto a quelli realizzati con controlli di tipo tradizionale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il lavoro di tesi svolto si colloca nell’ambito dei sistemi di determinazione del centro di massa di una specifica classe di satelliti definiti, in gergo, microsatelliti. Il metodo concepito è basato su un simulatore di calcolo del centro di gravità, implementato in ambiente MATLAB. Attraverso l’astrazione matematica del modello fisico, di cui si propone un primo concept anch’esso modellato mediante software CAD durante lo svolgimento della tesi, è possibile determinare il centro di massa del corpo in esame. Esso è stato definito come il punto medio del segmento di minima distanza tra due particolari rette. Gli obiettivi fissati presupponevano che tale dispositivo avesse una buona affidabilità, risultasse di semplice realizzazione e di facile utilizzo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La congestione del traffico è un fenomeno molto familiare, con il quale si ha a che fare nelle più svariate occasioni. Dal punto di vista fisico, il flusso del traffico rappresenta un sistema di particelle interagenti (i ve- icoli) in condizione di non equilibrio. L’effetto complessivo di un sistema composto da molte particelle interagenti è la creazione di una instabil- ità, osservata empiricamente, nello stato di free flow (scorrimento libero), causata dall’aumentare delle fluttuazioni. In questi casi di parla di phan- tom traffic jam, ovvero una congestione che ha origine senza cause appar- enti, come incidenti o lavori in corso. Sarà dimostrato come la condizione di stop & go si verifichi spontaneamente se la densità media dei veicoli eccede un certo valore critico. L’importanza di poter predire una congestione stradale non è un problema puramente matematico, ma ha risvolti socio-economici non indifferenti. Infatti, le caratteristiche della mobilità e dei sistemi di trasporto sono strettamente legate alla struttura della comunità e alla qualità della vita. Con il seguente studio si cercherà di trovare un osservabile facilmente calcolabile, che potrebbe essere un predittore della formazione di uno stato congestionato con un intervallo di tempo sufficientemente adeguato. A tal fine sono state prese in considerazione misure relative alle condizioni del traffico su strade provinciali dell’Emilia-Romagna, tramite un sistema MTS composto da 3509 spire che registra i passaggi delle macchine; in seguito, per poter avere una comprensione maggiore dei fenomeni che si manifestano durante la transizione a stato congestionato, si è provveduto a creare un modello matematico utilizzato per le simulazioni al computer. I risultati ottenuti dalle simulazioni, poi, sono stati utilizzati per trovare l’osservabile cercato nei dati pervenuti dalle strade campione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa Tesi si occupa di una derivazione di un meccanismo con amplificazione inerziale per lo smorzamento delle vibrazioni, il quale è stato usato come un meccanismo costituente di un oscillatore semplice, ovvero di un modello matematico fondamentale su cui è basata la dinamica strutturale, aumentandogli notevolmente la sua complessità geometrica. Viene studiata la risposta dinamica ottenuta dall’analisi armonica, in quanto lo stesso è soggetto alla forzante passiva. Lo studio del comportamento dinamico ingloba un percorso, il quale parte dalla descrizione matematica dell’equilibrio dinamico, nonché delle condizioni al contorno, tramite l’uso di analisi matriciale delle strutture e del calcolo complesso, e si conclude, derivando le grandezze cinematiche e dinamiche, necessarie affinché si possa determinare, in un modo chiaro e privo di ambiguità, lo stato del sistema dinamico. Il passo successivo risiede nell’analisi analitica e numerica dei risultati ottenuti e anche della visualizzazione grafica ed interpretazione degli stessi. Affinché i risultati possano essere considerati validi, occorre che gli stessi passino la procedura di validazione tramite l’uso degli esempi numerici. Successivamente, i risultati validati vengono confrontati con la stessa tipologia dei risultati derivati per gli oscillatori classici o gli oscillatori di riferimento, il quale comportamento è già noto nell’ambito della dinamica strutturale. La Tesi procede con l’applicazione pratica degli oscillatori per lo smorzamento delle vibrazioni. In particolare si studia la loro capacità di alterare la risposta dinamica complessiva del sistema di cui fanno parte, rispetto al caso in cui la stessa struttura è priva di essi. In fine la Tesi si conclude, mettendo in evidenza i vantaggi e gli svantaggi dell’oscillatore dotato di un meccanismo con amplificazione inerziale rispetto agli altri oscillatori classici.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nel corso degli anni le fonti rinnovabili e in particolare il fotovoltaico hanno assunto un ruolo sempre più importante nel panorama energetico italiano. Si è effettuata un’analisi della tecnologia fotovoltaica illustrandone il funzionamento, le tipologie di pannelli, il calcolo dell’energia elettrica producibile e le curve caratteristiche. Dal momento che la maggior parte delle rinnovabili presenta il problema della non programmabilità dovuta alla produzione intermittente, è necessario adottare dei sistemi di accumulo. Tali sistemi vengono mostrati, con particolare riguardo per le batterie al piombo acido e per l’idrogeno immagazzinato in idruri metallici, spiegando nel dettaglio l’elettrolisi e gli elettrolizzatori PEM. Dopo questa panoramica iniziale, si è illustrato l’impianto oggetto di questa tesi, composto principalmente da due pannelli fotovoltaici, un simulatore solare, due batterie al Piombo, un elettrolizzatore, un carico e un alimentatore. In seguito viene spiegata l’attività sperimentale, svolta sulle prove di laboratorio ai fini di ottenere le curve di funzionamento dei vari componenti, tramite due approcci diversi: per il sistema atto all’elettrolisi e per tutti i suoi componenti si è usato un modello black-box, per i pannelli fotovoltaici si è usato un approccio fisico-matematico partendo dalle equazioni del simulatore solare applicandovi i dati dei pannelli del laboratorio. Una volta ottenute queste curve, si è creato un modello completo del laboratorio per simularne il funzionamento al variare dell’irraggiamento. Si è testato prima il modello su un’utenza da 3 kW, poi, dopo aver confrontato gli andamenti reali con quelli ottenuti, si sono simulate varie configurazioni per trovare quella che permette al sistema di produrre idrogeno alla potenza nominale di 250 W in una giornata senza supplemento della rete elettrica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La riduzione dei consumi di combustibili fossili e lo sviluppo di tecnologie per il risparmio energetico sono una questione di centrale importanza sia per l’industria che per la ricerca, a causa dei drastici effetti che le emissioni di inquinanti antropogenici stanno avendo sull’ambiente. Mentre un crescente numero di normative e regolamenti vengono emessi per far fronte a questi problemi, la necessità di sviluppare tecnologie a basse emissioni sta guidando la ricerca in numerosi settori industriali. Nonostante la realizzazione di fonti energetiche rinnovabili sia vista come la soluzione più promettente nel lungo periodo, un’efficace e completa integrazione di tali tecnologie risulta ad oggi impraticabile, a causa sia di vincoli tecnici che della vastità della quota di energia prodotta, attualmente soddisfatta da fonti fossili, che le tecnologie alternative dovrebbero andare a coprire. L’ottimizzazione della produzione e della gestione energetica d’altra parte, associata allo sviluppo di tecnologie per la riduzione dei consumi energetici, rappresenta una soluzione adeguata al problema, che può al contempo essere integrata all’interno di orizzonti temporali più brevi. L’obiettivo della presente tesi è quello di investigare, sviluppare ed applicare un insieme di strumenti numerici per ottimizzare la progettazione e la gestione di processi energetici che possa essere usato per ottenere una riduzione dei consumi di combustibile ed un’ottimizzazione dell’efficienza energetica. La metodologia sviluppata si appoggia su un approccio basato sulla modellazione numerica dei sistemi, che sfrutta le capacità predittive, derivanti da una rappresentazione matematica dei processi, per sviluppare delle strategie di ottimizzazione degli stessi, a fronte di condizioni di impiego realistiche. Nello sviluppo di queste procedure, particolare enfasi viene data alla necessità di derivare delle corrette strategie di gestione, che tengano conto delle dinamiche degli impianti analizzati, per poter ottenere le migliori prestazioni durante l’effettiva fase operativa. Durante lo sviluppo della tesi il problema dell’ottimizzazione energetica è stato affrontato in riferimento a tre diverse applicazioni tecnologiche. Nella prima di queste è stato considerato un impianto multi-fonte per la soddisfazione della domanda energetica di un edificio ad uso commerciale. Poiché tale sistema utilizza una serie di molteplici tecnologie per la produzione dell’energia termica ed elettrica richiesta dalle utenze, è necessario identificare la corretta strategia di ripartizione dei carichi, in grado di garantire la massima efficienza energetica dell’impianto. Basandosi su un modello semplificato dell’impianto, il problema è stato risolto applicando un algoritmo di Programmazione Dinamica deterministico, e i risultati ottenuti sono stati comparati con quelli derivanti dall’adozione di una più semplice strategia a regole, provando in tal modo i vantaggi connessi all’adozione di una strategia di controllo ottimale. Nella seconda applicazione è stata investigata la progettazione di una soluzione ibrida per il recupero energetico da uno scavatore idraulico. Poiché diversi layout tecnologici per implementare questa soluzione possono essere concepiti e l’introduzione di componenti aggiuntivi necessita di un corretto dimensionamento, è necessario lo sviluppo di una metodologia che permetta di valutare le massime prestazioni ottenibili da ognuna di tali soluzioni alternative. Il confronto fra i diversi layout è stato perciò condotto sulla base delle prestazioni energetiche del macchinario durante un ciclo di scavo standardizzato, stimate grazie all’ausilio di un dettagliato modello dell’impianto. Poiché l’aggiunta di dispositivi per il recupero energetico introduce gradi di libertà addizionali nel sistema, è stato inoltre necessario determinare la strategia di controllo ottimale dei medesimi, al fine di poter valutare le massime prestazioni ottenibili da ciascun layout. Tale problema è stato di nuovo risolto grazie all’ausilio di un algoritmo di Programmazione Dinamica, che sfrutta un modello semplificato del sistema, ideato per lo scopo. Una volta che le prestazioni ottimali per ogni soluzione progettuale sono state determinate, è stato possibile effettuare un equo confronto fra le diverse alternative. Nella terza ed ultima applicazione è stato analizzato un impianto a ciclo Rankine organico (ORC) per il recupero di cascami termici dai gas di scarico di autovetture. Nonostante gli impianti ORC siano potenzialmente in grado di produrre rilevanti incrementi nel risparmio di combustibile di un veicolo, è necessario per il loro corretto funzionamento lo sviluppo di complesse strategie di controllo, che siano in grado di far fronte alla variabilità della fonte di calore per il processo; inoltre, contemporaneamente alla massimizzazione dei risparmi di combustibile, il sistema deve essere mantenuto in condizioni di funzionamento sicure. Per far fronte al problema, un robusto ed efficace modello dell’impianto è stato realizzato, basandosi sulla Moving Boundary Methodology, per la simulazione delle dinamiche di cambio di fase del fluido organico e la stima delle prestazioni dell’impianto. Tale modello è stato in seguito utilizzato per progettare un controllore predittivo (MPC) in grado di stimare i parametri di controllo ottimali per la gestione del sistema durante il funzionamento transitorio. Per la soluzione del corrispondente problema di ottimizzazione dinamica non lineare, un algoritmo basato sulla Particle Swarm Optimization è stato sviluppato. I risultati ottenuti con l’adozione di tale controllore sono stati confrontati con quelli ottenibili da un classico controllore proporzionale integrale (PI), mostrando nuovamente i vantaggi, da un punto di vista energetico, derivanti dall’adozione di una strategia di controllo ottima.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I Gangli della Base svolgono un ruolo molto importante nel movimento volontario, ovvero nel meccanismo di azione-selezione, e la loro influenza è evidente soprattutto in alcune patologie che ancora ad oggi sono in fase di studio: una di queste è il Morbo di Parkinson. I Gangli della Base comprendono quattro formazioni nervose: lo striato, il globus pallidus, la substantia nigra e il nucleo subtalamico: essi ricevono le principali afferenze dalla corteccia cerebrale ed inviano le principali efferenze al tronco dell’encefalo, e, per mezzo del talamo, alle corteccia prefrontale, premotoria e motrice. A differenza della maggior parte delle altre componenti dei sistemi motori, i Gangli della Base non stabiliscono direttamente né connessioni afferenti, né efferenti con il midollo spinale. Il compito principale svolto dai Gangli dDella Base è la selezione di un’azione: esso permette ad un’azione di essere selezionata rispetto ad un’altra, che in questo modo viene inibita. La descrizione dell’anatomia, dei meccanismi fisiologici e del Morbo di Parkinson è trattata nel Capitolo 1. In questo elaborato è utilizzato il modello computazionale di Mauro Ursino e Chiara Baston, che sarà illustrato dettagliatamente nel Capitolo 2, riguardante il meccanismo di azione-selezione svolto dai Gangli della Base. E’ descritto un sistema di valutazione di un paziente parkinsoniano, il tapping test: esso consiste in un movimento alternato del dito e ad oggi risulta essere uno dei metodi più semplici per ottenere informazioni sulla gravità della bradicinesia. L’obiettivo di questo lavoro è quello di comprendere, tramite l’analisi di simulazioni effettuate per mezzo del modello computazionale di Mauro Ursino e Chiara Baston, come la frequenza di tapping dipenda dal variare di alcuni parametri delle equazioni del modello: gli effetti dovuti alla variazione di un singolo parametro o più di uno, saranno mostrati nel Capitolo 3.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il lavoro presentato in questa tesi è stato svolto presso il Department of Computer Science, University of Oxford, durante il mio periodo all’estero nel Computational Biology Group. Scopo del presente lavoro è stato lo sviluppo di un modello matematico del potenziale d’azione per cellule umane cardiache di Purkinje. Tali cellule appartengono al sistema di conduzione elettrico del cuore, e sono considerate molto importanti nella genesi di aritmie. Il modello, elaborato in linguaggio Matlab, è stato progettato utilizzando la tecnica delle Popolazione di Modelli, un innovativo approccio alla modellazione cellulare sviluppato recentemente proprio dal Computational Biology Group. Tale modello è stato sviluppato in 3 fasi: • Inizialmente è stato sviluppato un nuovo modello matematico di cellula umana del Purkinje cardiaco, tenendo in considerazione i modelli precedenti disponibili in letteratura e le più recenti pubblicazioni in merito alle caratteristiche elettrofisiologiche proprie della cellula cardiaca umana di Purkinje. Tale modello è stato costruito a partire dall’attuale gold standard della modellazione cardiaca ventricolare umana, il modello pubblicato da T. O’Hara e Y. Rudy nel 2011, modificandone sia le specifiche correnti ioniche che la struttura interna cellulare. • Il modello così progettato è stato, poi, utilizzato come “modello di base” per la costruzione di una popolazione di 3000 modelli, tramite la variazione di alcuni parametri del modello all’interno di uno specifico range. La popolazione così generata è stata calibrata sui dati sperimentali di cellule umane del Purkinje. A valle del processo di calibrazione si è ottenuta una popolazione di 76 modelli. • A partire dalla popolazione rimanente, è stato ricavato un nuovo modello ai valori medi, che riproduce le principali caratteristiche del potenziale d’azione di una cellula di Purkinje cardiaca umana, e che rappresenta il dataset sperimentale utilizzato nel processo di calibrazione.