790 resultados para pacemaker,sistema di conduzione,pacemaker elettronico,biopacemaker


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo di questa Tesi di Laurea è quello di dimostrare il Teorema di Connettività per un sistema di Hörmander di campi vettoriali, il quale ci fornisce una condizione sufficiente alla connessione di un aperto di R^N tramite curve integrali a tratti dei campi vettoriali stessi e dei loro opposti, e presentarne alcune applicazioni. Nel primo Capitolo daremo i prerequisiti necessari alla trattazione degli altri tre, con particolare attenzione ad un Lemma che mette in relazione le curve integrali del commutatore di m campi vettoriali con la composizione di un opportuno numero di mappe flusso dei campi vettoriali che costituiscono il commutatore. Il secondo Capitolo è interamente dedicato alla dimostrazione del Teorema di Connettività e all'analisi della definizione delle curve subunitarie in un aperto rispetto ad una famiglia di campi vettoriali X, dette curve X-subunitarie. Nel terzo Capitolo forniremo una introduzione alla distanza di Carnot-Carathéodory, detta anche distanza di X-controllo, arrivando a dimostrare il notevolissimo Teorema di Chow-Rashewskii, il quale ci fornisce, sotto le ipotesi del Teorema di Connettività, una stima tra la metrica Euclidea e la distanza di X-controllo, mediante due disuguaglianze. Queste ultime implicano anche una equivalenza tra la topologia indotta dalla distanza di X-controllo e la topologia Euclidea. Nel quarto e ultimo Capitolo, indagheremo gli insiemi di propagazione tramite curve integrali dei campi vettoriali in X e tramite curve X-subunitarie. Utilizzando la definizione di invarianza di un insieme rispetto ad un campo vettoriale e avvalendosi del Teorema di Nagumo-Bony, dimostreremo che: la chiusura dei punti raggiungibili, partendo da un punto P in un aperto fissato, tramite curve integrali a tratti dei campi vettoriali in X e dei loro opposti, è uguale alla chiusura dei punti raggiungibili, sempre partendo da P, tramite un particolare sottoinsieme di curve X-subunitarie C^1 a tratti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo lavoro di tesi viene presentata un’analisi di sostenibilità economica, ambientale e sociale di un sistema di cattura e purificazione della CO2 post-combustione. Al fine di ottenere i dati utili al calcolo di indici significativi di sostenibilità, si è scelto di modellare, attraverso il software Aspen Plus®, un processo di assorbimento chimico con ammine, tecnologia matura e spesso impiegata a questo scopo per settori industriali di taglie superiori. Al sistema di assorbimento viene poi fatta seguire un’unità di compressione e purificazione, finalizzata al raggiungimento di specifiche condizioni della corrente in uscita, legate alla successiva tipologia di trasporto considerata: gas pressurizzato via pipeline o gas liquefatto via nave. L’analisi economica si è basata sul calcolo di costi operativi, costi variabili, costo della CO2 evitata e consumo specifico di energia (SPECCA). La simulazione ha infatti consentito di ottenere un dimensionamento di massima delle apparecchiature e il consumo di utenze, valori necessari alla stima degli indici. Gli indici economici calcolati sono poi stati utilizzati per comprendere quale parte del processo fosse la più critica e che impatto avessero le unità di compressione e purificazione rispetto alla presenza del solo impianto di cattura. Analisi simili sono state svolte anche in termini di sostenibilità ambientale e sociale. La prima è stata svolta calcolando l’effettiva rimozione di CO2 del sistema, tenendo in considerazione le emissioni dirette e indirette connesse al funzionamento degli apparati. L’analisi sociale è stata ridotta a un’analisi qualitativa della sicurezza, attuata attraverso il calcolo dell’Indice di sicurezza intrinseca.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Log4Shell è una vulnerabilità scoperta nel 2021 che affliggeva il popolare sistema di log Log4J. Permetteva di utilizzare le richieste verso Log4J per eseguire codice arbitrario su un dispositivo che lo utilizza permettendo di accedere a dati riservati. A questa vulnerabilità è stato assegnato un punteggio CVSS di 10 (il massimo). Questa tesi è il completamento di un progetto di tirocinio svolto presso il CINECA in cui si sfrutta il SIEM IBM QRadar per tracciare i log, a cui si accede tramite le sue API da uno script scritto in Phyton per rilevare i tentativi di sfruttamento di questa vulnerabilità e tra questi quale è andato a buon fine.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La prima parte della seguente tesi intende studiare lo stato dell’arte in ambito delle principali tecnologie di smaltimento e di recupero dei rifiuti da costruzione, per poi analizzare le metodologie di analisi del sistema di decostruzione, basate su processi di calcolo semplificati. La seconda parte si concentra invece sul confronto tra due ipotesi di intervento differenti: uno scenario di riqualificazione energetica e uno di demolizione e ricostruzione. L’obiettivo della ricerca è indagare quale dei due interventi sia il più circolare e sostenibile, dal punto di vista ambientale ed economico. Questo obiettivo si concretizza mediante lo svolgimento di una analisi LCA attraverso l’utilizzo del software OneClick LCA. Il caso di studio sul quale viene svolta tale indagine consiste nella villa realizzata agli inizi del Novecento, appartenente al complesso “Corte Palazzo” sito ad Argelato (Bologna). Per lo scenario di demolizione, dopo una prima analisi iniziale delle tecniche circolari da poter applicare più adeguate al contesto esistente, è stato sviluppato un progetto che rispettasse le stesse caratteristiche dimensionali (in termini di sagoma) e le stesse prestazioni dell’involucro (in termini di trasmittanza termica) dell’edificio riqualificato. Il metodo di analisi proposto, reiterabile e proposto ad altri casi di studio, eventualmente implementato per includere tutti i materiali che compongono il sistema costruttivo e non soltanto quelli dell’involucro, rappresenta un efficace strumento di valutazione dell’impatto ambientale ed economico degli interventi, per consentire ai progettisti e ai committenti di compiere scelte più consapevoli.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’utilizzo di informazioni di profondità è oggi di fondamentale utilità per molteplici settori applicativi come la robotica, la guida autonoma o assistita, la realtà aumentata e il monitoraggio ambientale. I sensori di profondidisponibili possono essere divisi in attivi e passivi, dove i sensori passivi ricavano le informazioni di profondità dall'ambiente senza emettere segnali, bensì utilizzando i segnali provenienti dall'ambiente (e.g., luce solare). Nei sensori depth passivi stereo è richiesto un algoritmo per elaborare le immagini delle due camere: la tecnica di stereo matching viene utilizzata appunto per stimare la profondidi una scena. Di recente la ricerca si è occupata anche della sinergia con sensori attivi al fine di migliorare la stima della depth ottenuta da un sensore stereo: si utilizzano i punti affidabili generati dal sensore attivo per guidare l'algoritmo di stereo matching verso la soluzione corretta. In questa tesi si è deciso di affrontare questa tematica da un punto di vista nuovo, utilizzando un sistema di proiezione virtuale di punti corrispondenti in immagini stereo: i pixel delle immagini vengono alterati per guidare l'algoritmo ottimizzando i costi. Un altro vantaggio della strategia proposta è la possibilità di iterare il processo, andando a cambiare il pattern in ogni passo: aggregando i passi in un unico risultato, è possibile migliorare il risultato finale. I punti affidabili sono ottenuti mediante sensori attivi (e.g. LiDAR, ToF), oppure direttamente dalle immagini, stimando la confidenza delle mappe prodotte dal medesimo sistema stereo: la confidenza permette di classificare la bontà di un punto fornito dall'algoritmo di matching. Nel corso della tesi sono stati utilizzati sensori attivi per verificare l'efficacia della proiezione virtuale, ma sono state anche effettuate analisi sulle misure di confidenza: lo scopo è verificare se le misure di confidenza possono rimpiazzare o assistere i sensori attivi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi ha come proposito esplorare le architetture che integrano i Digital Twins in applicazioni di Mixed Reality. L’obiettivo cardine è quello di mostrare una possibile realizzazione di un sistema di questo tipo. Per raggiungere l’obiettivo posto si è scelto di progettare un sistema che sia realizzabile come soluzione in un contesto reale. La tesi è strutturata in modo tale da offrire al lettore una presentazione generale delle tecnologie utilizzate mantenendole ben distinte. Successivamente viene analizzata la possibilità di unire queste tecnologie presentando quindi delle possibili implementazioni. Come Caso di Studio si è scelto di realizzare un’applicazione a supporto dei medici che offrisse, durante un’operazione chirurgica, la possibilità di visualizzare il monitor dei parametri vitali tramite ologramma. L’architettura presentata viene suddivisa in tre sottosistemi indipendenti in base alla tecnologia presa di riferimento. Le macro sezioni presentate sono: Physical Asset, Digital Twins e Hologram. Questi sottosistemi vengono analizzati uno per volta e successivamente viene realizzata l’architettura inerente. Terminata la realizzazione del sistema, vengono presentate al lettore delle alternative architetturali con annesse le possibili implementazioni.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’avvento dell’Internet of Things, in parallelo con il sempre più diffuso fenomeno della sensorizzazione, ha aperto la strada allo sviluppo di numerose tecnologie, tra le quali sono presenti anche i Digital Twin. Se inizialmente l’idea di Digital Twin era limitata a mantenere una copia virtuale di un oggetto fisico, con il passare del tempo questa visione si è ampliata, permettendo di riprodurre in un ambiente virtuale interi sistemi, come ad esempio città ed ospedali. Questi sistemi sono costituiti da vere e proprie reti di Digital Twin, tra loro connessi attraverso l’uso di relazioni. A questo proposito le sfide sono presenti e numerose: quel che manca è una visione unica e condivisa riguardante l’organizzazione di tali sistemi. Sotto questo aspetto, una delle proposte è il Web of Digital Twin, di cui verrà discusso all’intero della tesi. L’obiettivo di questa tesi è quello di capire come è possibile realizzare ecosistemi di Digital Twin coerenti con i principi del WoDT, attraverso la piattaforma Azure Digital Twin. A tale scopo è anche esposto un caso di studio pratico che comprende la prototipazione di un sistema di questo tipo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Negli ultimi anni, a causa degli enormi progressi dell’informatica e della sempre crescente quantità di dati generati, si è sentito sempre più il bisogno di trovare nuove tecniche, approcci e algoritmi per la ricerca dei dati. Infatti, la quantità di informazioni da memorizzare è diventata tale che ormai si sente sempre più spesso parlare di "Big Data". Questo nuovo scenario ha reso sempre più inefficaci gli approcci tradizionali alla ricerca di dati. Recentemente sono state quindi proposte nuove tecniche di ricerca, come ad esempio le ricerche Nearest Neighbor. In questo elaborato sono analizzate le prestazioni della ricerca di vicini in uno spazio vettoriale utilizzando come sistema di data storage Elasticsearch su un’infrastruttura cloud. In particolare, sono stati analizzati e messi a confronto i tempi di ricerca delle ricerche Nearest Neighbor esatte e approssimate, valutando anche la perdita di precisione nel caso di ricerche approssimate, utilizzando due diverse metriche di distanza: la similarità coseno e il prodotto scalare.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’affidabilità e la diagnostica sono tematiche che hanno sempre ricoperto un ruolo di fondamentale importanza in ambito elettrico. Il frenetico sviluppo che sta vivendo il settore della trazione elettrica dovuto alle restrizioni introdotte dall’UE sulle emissioni di CO2 ha ulteriormente incrementato la necessità di avere componenti sempre più performanti e affidabili. Questa tesi si concentra su una delle problematiche che interessano un motore elettrico: le scariche parziali. L’obiettivo di questo progetto è proporre un metodo innovativo per la rilevazione di scariche parziali che sfrutta le emissioni elettromagnetiche prodotte dalle scariche stesse. La novità rispetto ai tradizionali metodi è la possibilità di eseguire misure anche mentre il motore è in funzione. Il caso di riferimento è quello di un banco motore ma il metodo proposto, se correttamente validato potrà essere impiegato a bordo veicolo in un contesto di normale funzionamento. I principali dispositivi che compongono il sistema di misura presentato sono: un’antenna log-periodica con banda di lavoro 500MHz a 3GHz, un rilevatore di picco LTC5564 adatto per lavorare a radio frequenze ed un oscilloscopio USB. L’antenna rileva le onde elettromagnetiche prodotte dalle scariche parziali. Il rilevatore di picco, dispositivo la cui uscita è proporzionale all’ampiezza del segnale d’ingresso, fornisce un segnale con spettro in frequenza ridotto rispetto all’originale. L’ oscilloscopio digitale (Picoscope), più economico rispetto ai tradizionali oscilloscopi, consente infine l’acquisizione dei segnali. Le principali “tappe” dello sviluppo del nuovo sistema sono state: la caratterizzazione delle onde elettromagnetiche emesse dalle scariche parziali; il miglioramento del rapporto segnale/rumore; la programmazione di un’interfaccia utente.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Software bot per l’automatizzazione dell’acquisto su piattaforme retail (tech). Un sistema scritto interamente in Python riguardante web scraping, richieste HTTP, l’utilizzo di Cookie per il processo di checkout, sistemi di sicurezza, captcha, acquisto di un articolo in maniera autonoma, un sistema di autenticazione per la commercializzazione, sistema di log degli errori, sistema di notifiche. Il tutto sulla base di un cambiamento sociale che ha portato sempre più prodotti ad essere limitati rendendo difficile all’acquisto.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il lavoro di tesi si pone l'obiettivo di valorizzare la cinta muraria medievale della città di Rimini attraverso la progettazione di un sistema di percorsi archeologici, analizzando le criticità e sviluppando linee guida per il restauro e la riqualificazione dell’ambiente circostante. Il lavoro è diviso in fasi: 1-Ricerca storica di tipo archivistico e iconografico per indagare l’evoluzione del sistema difensivo partendo dalle origini fino alle recenti demolizioni. 2-Sulla base delle trilaterazioni in possesso, si è proceduto al rilievo diretto della cinta muraria di San Giuliano con l’obiettivo di comprendere la fabbrica delle mura e restituire graficamente lo stato dell’opera nelle parti che la compongono, in particolare della torre malatestiana e la scala riportandole informazioni necessarie al restauro. Si sono poi rilevate le criticità dell’area circostante le mura. 3-Si è elaborata una proposta progettuale di restauro in merito: -alla riqualificazione del parco con un progetto di restauro urbano degli spazi verdi e dei percorsi ciclo-pedonali per facilitare la lettura del tracciato storico e favorire la fruizione ai cittadini creando punti di ritrovo e di sosta; -alle mura, fondata sui principi di reversibilità, distinguibilità e minimo intervento restituendo un’idea volumetrica dell'immagine interrotta del monumento, minimi interventi di ripristino, la chiusura del varco incongruo della torre; -ai percorsi archeologici per facilitare la lettura della cinta muraria creando un sistema circolare sia interno che esterno tramite l’installazione di segnaletica sia orizzontale che verticale e la realizzazione di nuovi percorsi ciclo-pedonali collegati a quelli già esistenti. Nell’iter progettuale si sono voluti raggiungere il recupero e la valorizzazione dell’intera cinta muraria riminese collegando diversi interventi puntuali realizzati nel recente passato tramite un sistema organico di opere atte a fornire un’unità di linguaggio facilmente riconoscibile.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I dati sono una risorsa di valore inestimabile per tutte le organizzazioni. Queste informazioni vanno da una parte gestite tramite i classici sistemi operazionali, dall’altra parte analizzate per ottenere approfondimenti che possano guidare le scelte di business. Uno degli strumenti fondamentali a supporto delle scelte di business è il data warehouse. Questo elaborato è il frutto di un percorso di tirocinio svolto con l'azienda Injenia S.r.l. Il focus del percorso era rivolto all'ottimizzazione di un data warehouse che l'azienda vende come modulo aggiuntivo di un software di nome Interacta. Questo data warehouse, Interacta Analytics, ha espresso nel tempo notevoli criticità architetturali e di performance. L’architettura attualmente usata per la creazione e la gestione dei dati all'interno di Interacta Analytics utilizza un approccio batch, pertanto, l’obiettivo cardine dello studio è quello di trovare soluzioni alternative batch che garantiscano un risparmio sia in termini economici che di tempo, esplorando anche la possibilità di una transizione ad un’architettura streaming. Gli strumenti da utilizzare in questa ricerca dovevano inoltre mantenersi in linea con le tecnologie utilizzate per Interacta, ossia i servizi della Google Cloud Platform. Dopo una breve dissertazione sul background teorico di questa area tematica, l'elaborato si concentra sul funzionamento del software principale e sulla struttura logica del modulo di analisi. Infine, si espone il lavoro sperimentale, innanzitutto proponendo un'analisi delle criticità principali del sistema as-is, dopodiché ipotizzando e valutando quattro ipotesi migliorative batch e due streaming. Queste, come viene espresso nelle conclusioni della ricerca, migliorano di molto le performance del sistema di analisi in termini di tempistiche di elaborazione, di costo totale e di semplicità dell'architettura, in particolare grazie all'utilizzo dei servizi serverless con container e FaaS della piattaforma cloud di Google.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Presso il depuratore di Corporeno, Comune di Cento (FE), si sono verificati dei superamenti dei limiti di legge per l’Azoto totale, Nitrico e Ammoniacale nei campioni di reflui in uscita. La società di gestione del depuratore ha iniziato a regolare il tenore di ossigeno in vasca di ossinitrificazione mediante il monitoraggio del potenziale Redox. Dall’analisi dei dati di monitoraggio e dai risultati delle analisi chimiche sui reflui in ingresso e uscita dall’impianto, si è evidenziato che tale operazione ha consentito di migliorare le prestazioni dell’impianto, tuttavia la modalità di gestione delle soffianti in vasca di ossinitrificaizione non consente un pieno controllo delle concentrazioni in uscita. Lo studio di alcune pubblicazioni (in particolare Charpentier et al. 1998 e Hao e Huang, 1996) ha consentito di individuare una metodologia di controllo dei processi in vasca che si basa sia sul potenziale di ossidoriduzione che sul pH, oltre alla concentrazione di ossigeno. L’analisi di alcuni dati di monitoraggio in continuo ha evidenziato una crisi del processo di denitrificazione. Si sono individuate tre differenti strategie di mitigazione della problematica: uno studio e sperimentazione sia in laboratorio che in vera grandezza per definire un sistema di monitoraggio real time dell’accensione delle soffianti basato sulla curva di Hao e Huang (1996), una modifica all’impianto che preveda il corretto ricircolo dalla miscela areata alle vasche di predenitrificazione, che allo stato attuale non stanno funzionando a regime ed infine una valutazione rispetto alla necessità di integrazione con fonte di carbonio esterna, in quanto i valori di BOD in ingresso potrebbero essere limitanti per la denitrificazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Di fronte alla concorrenza globale, la sopravvivenza di un'azienda manifatturiera dipende sempre più da come essa può progettare, gestire e strutturare al meglio il proprio sistema di produzione per far fronte alla diversità dei prodotti, per migliorare l'affidabilità di consegna e anche per ridurre i costi. In questo contesto, le aziende manifatturiere utilizzano spesso sistemi di produzione diversi, in base a ciò che richiede il mercato. Molto in generale, i sistemi produttivi possono essere classificati in due categorie principali: make-to-stock (MTS) e make-to-order (MTO), in base alla politica di risposta alla domanda del mercato. Nel nuovo contesto competitivo le aziende si sono trovate a dover produrre costantemente prodotti specifici e di alta qualità con costi unitari bassi e livelli di servizio elevati (ossia, tempi di consegna brevi). È chiaro, dunque, che una delle principali decisioni strategiche da prendere da parte delle aziende sia quella relativa alla ripartizione dei prodotti in MTS/MTO, ovvero quale prodotto o famiglia di prodotti può essere fabbricato per essere stoccato a magazzino (MTS), quale può essere prodotto su ordinazione (MTO) e quale dovrebbe essere fabbricato in base alla politica di produzione ibrida MTS/MTO. Gli ultimi anni hanno mostrato una serie di cambiamenti nella politica di produzione delle aziende, che si stanno gradualmente spostando sempre più verso la modalità̀ di produzione ibrida MTS/MTO. In particolare, questo elaborato si concentrerà sul delayed product differentiation (DPD), una particolare strategia produttiva ibrida, e ne verrà proposto un modello decisionale basato sul funzionamento dell’Analytic Network Process (ANP) implementato attraverso il software Superdecisions.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Molti edifici realizzati negli anni ‘80-‘90 sono caratterizzati da impianti con caldaie autonome e nell’ambito degli interventi di riqualificazione energetica solo raramente vengono inserite delle pompe di calore a causa della temperatura di funzionamento dell’impianto, che spesso deve essere mantenuta elevata per i sistemi di emissione a radiatori. Tuttavia la riduzione dei carichi termici dovuti all'isolamento degli edifici consente di utilizzare i terminali esistenti facendoli lavorare a bassa temperatura, con temperature medie di 45-50°C. Obiettivo principale della tesi è quindi la valutazione della fattibilità e dei vantaggi energetici nell’ambito della sostituzione di un sistema di riscaldamento autonomo a gas con un sistema a pompa di calore. Viene preso in esame un edificio condominiale formato da 47 alloggi sito a San Lazzaro di Savena e in particolare verrà valutata la fattibilità di inserire un impianto centralizzato a pompa di calore per ogni corpo scala di cui è composto l’edificio, alimentando l’impianto con pannelli fotovoltaici installati in copertura. Per valutare i vantaggi energetici è stato utilizzato il software di simulazione dinamica Design Builder che consente di analizzare i fabbisogni energetici e la produzione di energia con step orario. Il modello dinamico permette anche di studiare le strategie d’involucro più opportune per diminuire il fabbisogno energetico e poter far lavorare la pompa di calore con i radiatori esistenti a bassa temperatura. I risultati attesi dal lavoro sono molteplici: in primo luogo verificare che la scelta dell’introduzione della pompa di calore consenta all'edificio di ridurre i consumi di energia primaria da fonti non rinnovabili, con lo scopo di portare l’edificio ad una richiesta di quasi zero energia (NZEB) in linea con le nuove normative europee e nazionali; in secondo luogo che l’utilizzo della simulazione oraria consenta di valutare il matching reale tra produzione e consumo di energia.