903 resultados para sistemi non lineari metodo di Newton metodo di Broyden analisi di convergenza implementazione Matlab


Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'elaborato si propone di costituire una guida per la verifica e i test di volo su satelliti o lanciatori, prendendo come riferimento la normativa europea ECSS (European Cooperation for Space Standardization). È riportata la procedura di test, in particolare la fase di test in volo, con particolare attenzione alla pianificazione e allo svolgimento, fino a giungere alla fase di verifica dei risultati. I principali sensori utilizzati per effettuare le misurazioni sono descritti soffermandosi anche sulla telemetria, attraverso la quale è possibile ottenere informazioni dettagliate a terra sullo stato del satellite ed inviare comandi attraverso un telecomando. Al termine informazioni sulla modalità di redazione di un test report.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

"I computer del nuovo millennio saranno sempre più invisibili, o meglio embedded, incorporati agli oggetti, ai mobili, anche al nostro corpo. L'intelligenza elettronica sviluppata su silicio diventerà sempre più diffusa e ubiqua. Sarà come un'orchestra di oggetti interattivi, non invasivi e dalla presenza discreta, ovunque". [Mark Weiser, 1991] La visione dell'ubiquitous computing, prevista da Weiser, è ormai molto vicina alla realtà e anticipa una rivoluzione tecnologica nella quale l'elaborazione di dati ha assunto un ruolo sempre più dominante nella nostra vita quotidiana. La rivoluzione porta non solo a vedere l'elaborazione di dati come un'operazione che si può compiere attraverso un computer desktop, legato quindi ad una postazione fissa, ma soprattutto a considerare l'uso della tecnologia come qualcosa di necessario in ogni occasione, in ogni luogo e la diffusione della miniaturizzazione dei dispositivi elettronici e delle tecnologie di comunicazione wireless ha contribuito notevolmente alla realizzazione di questo scenario. La possibilità di avere a disposizione nei luoghi più impensabili sistemi elettronici di piccole dimensioni e autoalimentati ha contribuito allo sviluppo di nuove applicazioni, tra le quali troviamo le WSN (Wireless Sensor Network), ovvero reti formate da dispositivi in grado di monitorare qualsiasi grandezza naturale misurabile e inviare i dati verso sistemi in grado di elaborare e immagazzinare le informazioni raccolte. La novità introdotta dalle reti WSN è rappresentata dalla possibilità di effettuare monitoraggi con continuità delle più diverse grandezze fisiche, il che ha consentito a questa nuova tecnologia l'accesso ad un mercato che prevede una vastità di scenari indefinita. Osservazioni estese sia nello spazio che nel tempo possono essere inoltre utili per poter ricavare informazioni sull'andamento di fenomeni naturali che, se monitorati saltuariamente, non fornirebbero alcuna informazione interessante. Tra i casi d'interesse più rilevanti si possono evidenziare: - segnalazione di emergenze (terremoti, inondazioni) - monitoraggio di parametri difficilmente accessibili all'uomo (frane, ghiacciai) - smart cities (analisi e controllo di illuminazione pubblica, traffico, inquinamento, contatori gas e luce) - monitoraggio di parametri utili al miglioramento di attività produttive (agricoltura intelligente, monitoraggio consumi) - sorveglianza (controllo accessi ad aree riservate, rilevamento della presenza dell'uomo) Il vantaggio rappresentato da un basso consumo energetico, e di conseguenza un tempo di vita della rete elevato, ha come controparte il non elevato range di copertura wireless, valutato nell'ordine delle decine di metri secondo lo standard IEEE 802.15.4. Il monitoraggio di un'area di grandi dimensioni richiede quindi la disposizione di nodi intermedi aventi le funzioni di un router, il cui compito sarà quello di inoltrare i dati ricevuti verso il coordinatore della rete. Il tempo di vita dei nodi intermedi è di notevole importanza perché, in caso di spegnimento, parte delle informazioni raccolte non raggiungerebbero il coordinatore e quindi non verrebbero immagazzinate e analizzate dall'uomo o dai sistemi di controllo. Lo scopo di questa trattazione è la creazione di un protocollo di comunicazione che preveda meccanismi di routing orientati alla ricerca del massimo tempo di vita della rete. Nel capitolo 1 vengono introdotte le WSN descrivendo caratteristiche generali, applicazioni, struttura della rete e architettura hardware richiesta. Nel capitolo 2 viene illustrato l'ambiente di sviluppo del progetto, analizzando le piattaforme hardware, firmware e software sulle quali ci appoggeremo per realizzare il progetto. Verranno descritti anche alcuni strumenti utili per effettuare la programmazione e il debug della rete. Nel capitolo 3 si descrivono i requisiti di progetto e si realizza una mappatura dell'architettura finale. Nel capitolo 4 si sviluppa il protocollo di routing, analizzando i consumi e motivando le scelte progettuali. Nel capitolo 5 vengono presentate le interfacce grafiche utilizzate utili per l'analisi dei dati. Nel capitolo 6 vengono esposti i risultati sperimentali dell'implementazione fissando come obiettivo il massimo lifetime della rete.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Background: l’epilessia è una malattia cerebrale che colpisce oggigiorno circa l’1% della popolazione mondiale e causa, a chi ne soffre, convulsioni ricorrenti e improvvise che danneggiano la vita quotidiana del paziente. Le convulsioni sono degli eventi che bloccano istantaneamente la normale attività cerebrale; inoltre differiscono tra i pazienti e, perciò, non esiste un trattamento comune generalizzato. Solitamente, medici neurologi somministrano farmaci, e, in rari casi, l’epilessia è trattata con operazioni neurochirurgiche. Tuttavia, le operazioni hanno effetti positivi nel ridurre le crisi, ma raramente riescono a eliminarle del tutto. Negli ultimi anni, nel campo della ricerca scientifica è stato provato che il segnale EEG contiene informazioni utili per diagnosticare l'arrivo di un attacco epilettico. Inoltre, diversi algoritmi automatici sono stati sviluppati per rilevare automaticamente le crisi epilettiche. Scopo: lo scopo finale di questa ricerca è l'applicabilità e l'affidabilità di un dispositivo automatico portatile in grado di rilevare le convulsioni e utilizzabile come sistema di monitoraggio. L’analisi condotta in questo progetto, è eseguita con tecniche di misure classiche e avanzate, in modo tale da provare tecnicamente l’affidabilità di un tale sistema. La comparazione è stata eseguita sui segnali elettroencefalografici utilizzando due diversi sistemi di acquisizione EEG: il metodo standard utilizzato nelle cliniche e il nuovo dispositivo portatile. Metodi: è necessaria una solida validazione dei segnali EEG registrati con il nuovo dispositivo. I segnali saranno trattati con tecniche classiche e avanzate. Dopo le operazioni di pulizia e allineamento, verrà utilizzato un nuovo metodo di rappresentazione e confronto di segnali : Bump model. In questa tesi il metodo citato verrà ampiamente descritto, testato, validato e adattato alle esigenze del progetto. Questo modello è definito come un approccio economico per la mappatura spazio-frequenziale di wavelet; in particolare, saranno presenti solo gli eventi con un’alta quantità di energia. Risultati: il modello Bump è stato implementato come toolbox su MATLAB dallo sviluppatore F. Vialatte, e migliorato dall’Autore per l’utilizzo di registrazioni EEG da sistemi diversi. Il metodo è validato con segnali artificiali al fine di garantire l’affidabilità, inoltre, è utilizzato su segnali EEG processati e allineati, che contengono eventi epilettici. Questo serve per rilevare la somiglianza dei due sistemi di acquisizione. Conclusioni: i risultati visivi garantiscono la somiglianza tra i due sistemi, questa differenza la si può notare specialmente comparando i grafici di attività background EEG e quelli di artefatti o eventi epilettici. Bump model è uno strumento affidabile per questa applicazione, e potrebbe essere utilizzato anche per lavori futuri (ad esempio utilizzare il metodo di Sincronicità Eventi Stocas- tici SES) o differenti applicazioni, così come le informazioni estratte dai Bump model potrebbero servire come input per misure di sincronicità, dalle quali estrarre utili risultati.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il campo della coordinazione può beneficiare di nuovi strumenti e tecnologie per il proprio sviluppo o per rendere accessibili le sue funzionalità ad un pubblico più vasto. Il progetto TuCSoN, in particolare, include lo strumento Inspector tramite il quale è possibile monitorare ed interagire con l'intero spazio di coordinazione. Al fine di rendere disponibili queste funzionalità anche al mondo mobile è necessario eseguire il porting dell'applicazione. In questa tesi, perciò, verranno prima di tutto analizzate le caratteristiche principali dei modelli di coordinazione e, in particolare, del modello TuCSoN. In seguito eseguiremo un'introduzione sulla tecnologia Android, che ci fornirà gli strumenti necessari per la creazione di un framework mobile equivalente all'Inspector. Infine verranno affrontate le problematiche principali per eseguire con successo il porting, come ad esempio la necessità di ridefinire l'intera interfaccia grafica o l'utilizzo di nuovi componenti quali i service e le activity. Questa operazione, quindi, dimostrerà l'esigenza di adattare l'Inspector ai meccanismi appartenenti al nuovo ambiente di esecuzione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

È stata studiata la reattività di sistemi catalitici a base di ossidi misti di V e Fe per la reazione di metilazione del fenolo in fase gas con metanolo. Questi sistemi promuovono efficacemente la deidrogenazione del metanolo a formaldeide, ciò conferisce loro una grande attività e non è stata osservata alcuna disattivazione nei tempi di reazione tenuti. I principali prodotti ottenuti sono 2,6-xilenolo e o-cresolo. Il catalizzatore, inizialmente costituito da FeVO4 subisce, durante le prime fasi di reazione, una progressiva riduzione, fino all’ottenimento di una fase spinello stabile costituita da coulsonite FeV2O4 e magnetite.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In un'epoca storica nella quale si va incontro ad un tasso di guasto sempre maggiore a causa dell'invecchiamento, diventa necessaria l'adozione di sistemi diagnostici in grado di stimare e prolungare l'esatto istante in cui si avrà il guasto. Per fare questo generalmente si valuta l'attività di scariche parziali in un sistema isolante e si cerca di frenarla. In questo lavoro innovativo però, la scelta di base non è quella di frenare l'attività di scariche, ma di limitarla alla base, agendo sulla natura fisica dei processi associati alle scariche.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’organizzazione mondiale della sanità stima che il 10% della popolazione nel mondo presenta una malattia epatica cronica. L’insufficienza epatica fulminante porta alla morte entro novantasei ore in assenza di trapianto. Questa patologia colpisce circa 2500 persone l’anno e il trapianto di fegato è l’unico trattamento efficiente, ma la mancanza di donatori ha causato un elevato tasso di mortalità in pazienti in lista di attesa per l’organo compatibile. Negli ultimi anni è cresciuta sempre più la lista d’attesa per il trapianto, mentre il numero degli innesti disponibili rimane ridotto. Non tutti i pazienti sono candidati al trapianto. Questo tipo di intervento è rischioso e richiede un trattamento d’immunosoppressione per tutta la vita. Si cercano quindi soluzioni sostitutive, ma lo sviluppo di dispositivi efficaci di assistenza epatica rimane uno dei più alti sforzi dell’ingegneria biomedica. Il fegato, infatti, svolge più di 500 funzioni diverse che sono difficili da riprodurre artificialmente. Un dispositivo di assistenza epatica deve sostituire o integrare la funzione epatica quando scende al di sotto della soglia critica del 30% del normale funzionamento. Per garantire il normale funzionamento dell’organismo, la massa di epatociti disponibile in un paziente adulto deve essere approssimativamente di circa 400g. Se questa massa è disponibile si può avere rigenerazione epatica spontanea. Questo spiega la necessità di raggiungere e garantire, comunque, un livello minimo di funzionalità epatica, al di sotto del quale non si ha né rigenerazione di epatociti (impossibilità di ripristinare l’attività metabolica del fegato), né funzionamento di altri organi del corpo, che dipendono dall’attività epatica. La ricerca e lo sviluppo di dispositivi di assistenza epatica è tesa al raggiungimento e al mantenimento della soglia minima di funzionalità; in questo modo si permette al paziente di sopravvivere fino al trapianto, quando questo è l’unica terapia possibile, oppure di poter raggiungere le condizioni di autorigenerazione spontanea nelle patologie meno gravi. La ricerca sui dispositivi di assistenza epatica risale agli anni 50, e sin da allora sono state sviluppate diverse soluzioni, che possiamo distinguere in sistemi meccanici (sistemi non biologici) e sistemi biochimici o biomeccanici (sistemi biologici). I sistemi non biologici possono avere un ruolo nel trattamento di forme specifiche d’insufficienza epatica. L’obiettivo è di fornire purificazione del sangue, ossia rimuovere tutte le sostanze che si accumulano nel sangue durante la disfunzione epatica, causando anomalie neurologiche, lesioni del fegato e di altri organi e inibizione della rigenerazione epatica. I sistemi biologici possono essere utili nel trattamento d’insufficienza epatica, in cui l’obiettivo primario è quello di fornire tutte le funzioni del fegato che sono state compromesse o perse.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi viene presentata una scelta dei passaggi fondamentali per arrivare alla dimostrazione della congettura della double bubble, dovuta ad Hutchings, Morgan, Ritoré e Ros. Questa dimostrazione assicura l'esistenza e l'unicità della superficie minima che permette di racchiudere due volumi nello spazio reale tridimensionale; si tratta quindi di un caso particolare del problema delle bolle di sapone, che ha richiesto la messa a punto di strumenti sofisticati di teoria geometrica della misura, calcolo delle variazioni ed equazioni differenziali non lineari.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La regolazione dei sistemi di propulsione a razzo a propellente solido (Solid Rocket Motors) ha da sempre rappresentato una delle principali problematiche legate a questa tipologia di motori. L’assenza di un qualsiasi genere di controllo diretto del processo di combustione del grano solido, fa si che la previsione della balistica interna rappresenti da sempre il principale strumento utilizzato sia per definire in fase di progetto la configurazione ottimale del motore, sia per analizzare le eventuali anomalie riscontrate in ambito sperimentale. Variazioni locali nella struttura del propellente, difettosità interne o eterogeneità nelle condizioni di camera posso dare origine ad alterazioni del rateo locale di combustione del propellente e conseguentemente a profili di pressione e di spinta sperimentali differenti da quelli previsti per via teorica. Molti dei codici attualmente in uso offrono un approccio piuttosto semplificato al problema, facendo per lo più ricorso a fattori correttivi (fattori HUMP) semi-empirici, senza tuttavia andare a ricostruire in maniera più realistica le eterogeneità di prestazione del propellente. Questo lavoro di tesi vuole dunque proporre un nuovo approccio alla previsione numerica delle prestazioni dei sistemi a propellente solido, attraverso la realizzazione di un nuovo codice di simulazione, denominato ROBOOST (ROcket BOOst Simulation Tool). Richiamando concetti e techiche proprie della Computer Grafica, questo nuovo codice è in grado di ricostruire in processo di regressione superficiale del grano in maniera puntuale, attraverso l’utilizzo di una mesh triangolare mobile. Variazioni locali del rateo di combustione posso quindi essere facilmente riprodotte ed il calcolo della balistica interna avviene mediante l’accoppiamento di un modello 0D non-stazionario e di uno 1D quasi-stazionario. L’attività è stata svolta in collaborazione con l’azienda Avio Space Division e il nuovo codice è stato implementato con successo sul motore Zefiro 9.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi nasce come risultato di un'esperienza di stage svolta presso l'ufficio Pianificazione e Risk Management in Cassa di Risparmio di Cento; l'obiettivo di questo lavoro è la descrizione dell'analisi da me svolta per la ricostruzione del metodo di determinazione del tasso interno di trasferimento adottato in questa banca. A questo studio è stata aggiunta una sezione legata all'analisi e all'implementazione di due modelli stocastici per l'evoluzione dei tassi di interesse (modello di Vasicek e modello CIR).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Studio e sistemi per la realizzazione di fotografie aeree tramite un velivolo comandato da pilota remoto

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Si è scelto di analizzare in modo approfondito tecniche di copertura radio e di trasmissione basate sull’uso di array di antenne ( facenti parte della famiglia Multiple Input Multiple Output, MIMO) in alcune tipologie tipiche di scenari indoor, come ad esempio ambienti commerciali o uffici in strutture multipiano. Si è studiato l’utilizzo di array di antenne di varie tipologie e a varie frequenze per implementare tecniche di diversità oppure tecniche a divisione di spazio (beam-switching, beamforming) per servire contemporaneamente utenti in diverse celle o in diversi settori senza ricorrere ad altre tecniche di divisione (di frequenza, tempo o codice), che invece verranno utilizzate in conbinazione combinate in sistemi di futura generazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Negli ultimi anni sono stati sintetizzati numerosi oligomeri e polimeri del tiofene che, grazie alle loro proprietà di semiconduttori, hanno trovano largo impiego in molti campi di interesse tecnologico come, ad esempio, transistor ad effetto di campo, diodi elettroluminescenti, dispositivi ottici non lineari e celle fotovoltaiche. Più recentemente, oligomeri tiofenici ossidati allo zolfo hanno trovato applicazione sia in campo elettronico, come materiali accettori in blenda con il poli(3-esiltiofene) (P3HT) usato come materiale donatore, in celle solari di tipo Bulk Hetero Junction (BHJ), ma anche in campo biologico come marcatori fluorescenti di proteine e oligonucleotidi. Tuttavia la sintesi di queste specie richiede condizioni di reazione spinte e al contempo rischiose dovute all’utilizzo in largo eccesso di agenti ossidanti molto forti. Uno degli obiettivi di questa tesi è stato lo sviluppo di metodi più versatili per la mono e di-ossidazione selettiva allo zolfo del tiofene di building-blocks dibromurati di diversa natura. Successivamente i building-blocks S-monossido e S,S-diossido derivati sono stati impiegati per la sintesi di oligomeri e polimeri tramite reazioni di cross-coupling Palladio catalizzate. I composti finali sono stati caratterizzati sia dal punto di vista spettroscopico UV-Vis che elettrochimico, mettendo in evidenza le relazioni che esistono fra gli andamenti dei dati sperimentali ottenuti con il diverso stato di ossidazione dei composti tiofenici diversamente sostituiti. Infine i composti finali sono stati testati sia in campo fotovoltaico che biologico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Testing e Analisi di problemi di usabilità che potrebbero sorgere se due sistemi venissero integrati in un unico nuovo sistema.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi proposta tratta dei sistemi di telemedicina territoriale, ed in particolare dell’integrazione dei dati raccolti tramite un sistema home-care da un paziente domiciliare e dell’analisi di rischio sui sistemi coinvolti. Con il forte sviluppo tecnologico degli ultimi anni, si è diffusa anche la telemedicina, portando con sé numerosi vantaggi nell’ambito della sanità attraverso servizi come il telemonitoraggio, la teleconsultazione e la telechirurgia. In questa tesi ci si concentra soprattutto sull’aspetto del telemonitoraggio di pazienti domiciliari. A causa dell’invecchiamento della popolazione e del conseguente aumento delle malattie croniche, le spese sanitarie sono infatti destinate ad aumentare nel tempo: da una spesa pari al 7,1% del PIL nel 2011 è previsto si arriverà ad un 8,8% del PIL nel 2060. Risulta quindi necessario migliorare la produttività, l’efficienza e la sostenibilità finanziaria del sistema sanitario con un utilizzo sempre maggiore della telemedicina e in particolare dell’assistenza territoriale, ovvero il trasferimento di risorse dall'ospedale al territorio, che promuove quindi la domiciliarità.