625 resultados para pacemaker, defibrillatore, cuore, evoluzione, dispositivi
Resumo:
Le ex Officine Reggiane si trovano nell’Area Nord di Reggio Emilia e si inseriscono all’interno del progetto di riqualificazione indetto dall’Amministrazione Comunale e descritto nel Piano Strutturale Comunale 2011. Il tema affrontato in questa tesi, elaborato all’interno del Laboratorio di laurea in Architettura sostenibile, si sviluppa su due scale: quella urbana e quella architettonica. In primo luogo il progetto definisce delle strategie di intervento per la riqualificazione della ‘area Reggiane, esplicitate attraverso un masterplan; poi approfondisce parte di un fabbricato e lo spazio aperto adiacente. Attività svolte e risultati conseguiti. Per prima cosa si sono svolte delle analisi morfologiche e geografiche di Reggio Emilia e una lettura approfondita del PSC 2011 al fine di comprendere le strategie dell’Amministrazione e le principali linee di sviluppo della città. In un secondo momento si è passati all’analisi diretta dell’area ex Officine Reggiane, acquisendo informazioni sulla sua storia e sulla sua conformazione. Questo è stato possibile attraverso la lettura di documenti e alle visite in loco. Sulla base dei dati ottenuti e constatata la vocazione dell’area è stato possibile formulare un’idea di masterplan. Successivamente abbiamo approfondito parte del fabbricato 15 a, uno degli edifici a sud-ovest dell’area. Il progetto vero e proprio è stato proceduto da una fase di rilievo ed è sfociato nell’ideazione di una biblioteca e di spazi di coworking inseriti all’interno del fabbricato esistente; parallelamente abbiamo dato una possibile configurazione allo spazio aperto ad est del blocco analizzato. L’edificio della biblioteca è stato approfondito al dettaglio. In ogni fase siamo state supportate da strumenti per la valutazione del comfort indoor e outdoor.
Resumo:
In questa tesi descrive un modello per l'estrazione di modelli estrinseci "Parassiti" di dispositivi attivi per l'elettronica delle telecomunicazione. Trovare un modello accurato di un transistore implementabile in un CAD di simulazione. Inoltre ho descritto il comportamento del dispositivo intrinseco.
Resumo:
La brain computer interface sono state create per sopperire ai problemi motori e di linguistica nei pazienti che, a causa di malattie neurodegenerative o in seguito a traumi, sono paralizzate o non riescono a parlare. Vengono prese in questione le caratteristiche di un sistema per le BCI analizzando ogni blocco funzionale del sistema. Si fa visione delle applicazioni tra le quali la possibilità di far muovere un arto bionico a una donna tetraplegica e la possibilità di far scrivere una parola su uno schermo a un paziente non in grado di comunicare verbalmente. Si mettono in luce i problemi annessi a questo campo e i possibili sviluppi.
Resumo:
Dall'inizio del nuovo millennio lo sviluppo di tecnologie nel campo del mobile computing, della rete internet, lo sviluppo dell'Internet of things e pure il cloud computing hanno reso possibile l'innovazione dei metodi di lavoro e collaborazione. L'evoluzione del mobile computing e della realtà aumentata che sta avvenendo in tempi più recenti apre potenzialmente nuovi orizzonti nello sviluppo di sistemi distribuiti collaborativi. Esistono oggi diversi framework a supporto della realtà aumentata, Wikitude, Metaio, Layar, ma l'interesse primario di queste librerie è quello di fornire una serie di API fondamentali per il rendering di immagini 3D attraverso i dispositivi, per lo studio dello spazio in cui inserire queste immagini e per il riconoscimento di marker. Questo tipo di funzionalità sono state un grande passo per quanto riguarda la Computer Graphics e la realtà aumentata chiaramente, però aprono la strada ad una Augmented Reality(AR) ancora più aumentata. Questa tesi si propone proprio di presentare l'ideazione, l'analisi, la progettazione e la prototipazione di un sistema distribuito situato a supporto della collaborazione basato su realtà aumentata. Lo studio di questa applicazione vuole mettere in luce molti aspetti innovativi e che ancora oggi non sono stati approfonditi né tanto meno sviluppati come API o forniti da librerie riguardo alla realtà aumentata e alle sue possibili applicazioni.
Resumo:
Questa tesi si pone come obiettivo quello di esplorare la possibilità di evolvere automi cellulari utilizzando algoritmi genetici al fine di trovare delle regole evolutive che permettano di generare un'immagine binaria qualunque a partire da una configurazione iniziale fissata.
Resumo:
Per lo sviluppo di un modello realistico di formazione ed evoluzione delle galassie è necessario un confronto sistematico con le osservazioni in modo da verificare che i dati vengano ben riprodotti.
Lo scopo che si prefigge questo lavoro di Tesi è un confronto tra le caratteristiche delle galassie presenti nei cataloghi simulati (mock), costruiti sulla base di alcuni modelli, e quelle evinte dai dati osservativi di campioni di galassie (surveys) con l'obbiettivo di far luce su quali siano le maggiori discrepanze e quindi sulla direzione in cui i modelli andrebbero perfezionati.
Per far questo, si è scelto di far uso della funzione di massa stellare delle galassie (MF), in quanto strumento statistico più indicativo di una popolazione di galassie, considerando sia la totalità delle galassie, sia separatamente le star-forming e le quiescenti.
Questo lavoro di Tesi attua un confronto tra le MF a 0
Proposta metodologica per acquisizione e verificabilita di dati in rete trasmessi in maniera cifrata
Resumo:
Lo sviluppo di tecnologie informatiche e telematiche comporta di pari passo l’aumento di dispositivi informatici e di conseguenza la commissione di illeciti che richiedono l’uso di tecniche dell’informatica forense. Infatti, l'evoluzione della tecnologia ha permesso la diffusione di sistemi informatici connessi alla rete Internet sia negli uffici che nelle case di molte famiglie: il miglioramento notevole della velocità di connessione e della potenza dei dispositivi comporta l’uso di un numero sempre maggiore di applicazioni basate sul web 2.0, modificando lo schema classico d’uso del mezzo e passando da utente “lettore” a utente “produttore”: si potrebbe quasi porre la domanda “Chi non ha mai scritto un commento su un social network? Chi non ha mai caricato un video su una piattaforma di video sharing? Chi non ha mai condiviso un file su un sito?”. Il presente lavoro si propone di illustrare le problematiche dell’acquisizione del traffico di rete con particolare focus sui dati che transitano attraverso protocolli cifrati: infatti, l’acquisizione di traffico di rete si rende necessaria al fine di verificare il contenuto della comunicazione, con la conseguenza che diventa impossibile leggere il contenuto transitato in rete in caso di traffico cifrato e in assenza della chiave di decifratura. Per cui, operazioni banali nei casi di traffico in chiaro (come la ricostruzione di pagine html o fotografie) possono diventare estremamente impegnative, se non addirittura impossibile, quando non si sono previsti appositi accorgimenti e in assenza di idonei strumenti. Alla luce di tali osservazioni, il presente lavoro intende proporre una metodologia completa di acquisizione e uno strumento software che agevoli il lavoro di ricostruzione, e quindi verifica, dei dati contenuti nel traffico catturato, anche cifrato. Infine, verranno mostrati dei casi esemplificativi nei quali tale metodologia si rende opportuna (o meglio, necessaria) con test di ricostruzione dei dati eseguiti con il tool SSLTrafficReader.
Resumo:
In questo elaborato verranno presentati le finalità, gli sviluppi e le prospettive future di una tipologia di coltura cellulare, ovvero dei microphysiological systems - MPS (o organs-on-chips), nuovi microdispositivi atti a riprodorre il più fedelmente possibile le condizioni fisiologiche adatte per la crescita e il mantenimento di strutture cellulari complesse. Verranno quindi inizialmente descritte le specifiche di base di questi dispositivi, sottolineandone l'innovatività dal punto di vista tecnologico e funzionale. Grazie agli MPS è infatti stato possibile intraprendere studi per una migliore comprensione del comportamento in condizioni dinamiche di una vasta gamma di tessuti, e la risposta di questi a stimoli chimici e fisici, rappresentativi di condizioni fisiologiche o patologiche, aprendo così le porte a nuovi standard per la sperimentazione clinica. Verrà quindi proposto un caso di studio, che riguarda l'applicazione di quanto sopra all'ambito cardiocircolatorio, prendendo in esame un modello di heart-on-a-chip, descrivendolo in tutte le fasi della sua realizzazione e infine discutendo uno studio riguardante la risposta delle cellule del muscolo cardiaco a un trattamento farmacologico.
Resumo:
Nell'elaborato è stato svolto uno studio su più livelli degli elementi essenziali del pacemaker asincrono secondo la realizzazione circuitale proposta da Wilson Greatbatch nel 1960. Un primo livello ha riguardato l’analisi teorica del circuito. Un secondo livello ha riguardato un’analisi svolta con LTSPICE. Con questo stesso programma, si è analizzato il segnale di temporizzazione e la forma d’onda sul carico al variare del valore di alcuni componenti chiave del circuito. Infine, si è proceduto alla sua realizzazione su breadboard.
Resumo:
Progettazione, realizzazione e sperimentazione di un filtro per il particolato da piccole caldaie a biomassa, che deve avere efficienza maggiore del 99,9% e consumi energetici specifici minori di 10 Wh/Nm3.
Resumo:
Lo studio ha lo scopo di valutare e confrontare l'efficienza del packaging in “LID” con atmosfera modificata a confronto con il confezionamento più tradizionale in “stretch” con atmosfera ordinaria, sulla shelf-life di diversi prodotti avicoli quali petti e sovracosce di pollo e fese di tacchino. A tal fine sui prodotti diversamente confezionati sono state valutate le variazioni di alcuni parametri qualitativi analizzando e confrontando alcuni aspetti tecnologici (pH, colore, texture, capacità di ritenzione idrica) durante un periodo di stoccaggio di 15 giorni in diverse condizioni di refrigerazione: durante i primi 3 giorni a 0-2°C, dal terzo al quindicesimo giorno a 6-8°C, al fine di simulare condizioni di abuso termico ed accelerare i fenomeni di deterioramento.
Resumo:
L’ obiettivo della tesi proposta è volto ad illustrare come la malattia diabetica può essere gestita a livello domiciliare attraverso dispositivi di monitoraggio della glicemia sempre più innovativi. La malattia diabetica è un disturbo metabolico che ha come manifestazione principale un aumento del livello di zucchero nel sangue (glicemia) dovuto ad una ridotta produzione di insulina, l’ormone secreto dal pancreas per utilizzare gli zuccheri e gli altri componenti del cibo e trasformarli in energia. È una delle patologie croniche a più ampia diffusione nel mondo, in particolare nei Paesi industrializzati, e costituisce una delle più rilevanti e costose malattie sociali della nostra epoca, soprattutto per il suo carattere di cronicità, per la tendenza a determinare complicanze nel lungo periodo e per il progressivo spostamento dell’insorgenza verso età giovanili. Le tecnologie applicate alla terapia del diabete hanno consentito negli ultimi vent’anni di raggiungere traguardi molto importanti, soprattutto per quanto riguarda l’ottimizzazione del controllo assiduo dei valori glicemici cercando di mantenerli il più costante possibile e ad un livello simile a quello fisiologico. La comunicazione medico-paziente è stata rivoluzionata dalla telemedicina che, offrendo la possibilità di una comunicazione agevole, permette di ottimizzare l’utilizzo dei dati raccolti attraverso l’automonitoraggio glicemico e di facilitare gli interventi educativi. I glucometri, che misurano la glicemia ‘capillare’, insieme ai microinfusori, sistemi di erogazione dell’insulina sia in maniera continua (fabbisogno basale), che ‘a domanda’ (boli prandiali), hanno sostanzialmente modificato l’approccio e la gestione del diabete da parte del medico, ma soprattutto hanno favorito al paziente diabetico un progressivo superamento delle limitazioni alle normali attività della vita imposte dalla malattia. Con il monitoraggio continuo della glicemia 24 ore su 24 infatti, si ha avuto il vantaggio di avere a disposizione un elevato numero di misurazioni puntiformi nell’arco della giornata attraverso sensori glicemici, che applicati sulla pelle sono in grado di ‘rilevare’ il valore di glucosio a livello interstiziale, per diversi giorni consecutivi e per mezzo di un trasmettitore wireless, inviano le informazioni al ricevitore che visualizza le letture ottenute dal sensore. In anni recenti, il concetto di SAP (Sensor-Augmented Insulin Pump) Therapy, è stato introdotto a seguito di studi che hanno valutato l’efficacia dell’utilizzo della pompa ad infusione continua di insulina (CSII, continuous subcutaneous insulin infusion) associato ai sistemi di monitoraggio in continuo della glicemia (CGM, continuous glucose monitoring) per un significativo miglioramento del controllo glicemico e degli episodi sia di ipoglicemia sia di iperglicemia prolungata. Oggi, grazie ad una nuova funzione è possibile interrompere automaticamente l’erogazione di insulina da parte del microinfusore quando la glicemia, rilevata dal sensore, scende troppo velocemente e raggiunge un limite di allarme. Integrare lettura della glicemia, infusione e sospensione automatica dell’erogazione di insulina in caso di ipoglicemia ha ovviamente aperto la porta al pancreas artificiale.
Resumo:
La tesi si concentra sull’infrastruttura di coordinazione TuCSoN on Android, realizzando il refactoring del servizio di geolocalizzazione platform-independent (lato infrastruttura) e platform-dependent (lato mobile device), nonché l’integrazione del modello event-driven con la proprietà di situatedness.
Resumo:
L'elaborato si pone come obiettivo l'analisi del mercato degli smartphone, considerandone l'evoluzione negli anni dalla nascita ad oggi, ed esaminando come i competitor già presenti sul mercato dei telefoni cellulari si sono evoluti a seguito dell'introduzione di nuove tecnologie; e come i competitor interessati all'ingresso nel mercato abbiano sfruttato l'introduzione delle nuove tecnologie.
Resumo:
Ai nostri giorni le aree costiere risultano particolarmente sensibili perché sottoposte ad alcune fonti di stress, quali la salinizzazione degli acquiferi e la naturale ed antropica modificazione del territorio costiero. Questo lavoro indaga gli effetti dell’incendio del 2012 nella Pineta costiera di Lido di Dante (Ravenna) sull’acquifero costiero superficiale. Sono stati effettuati i rilievi in campo della tavola d’acqua, della conduttitivà elettrica e del pH nei mesi di novembre 2014 e luglio 2015. I campioni di acqua sono stati prelevati grazie alla tecnologia dei minifiltri, un sistema di campionamento multilivello molto preciso e rapido. Il campionamento comprende 3 transetti di minifiltri ubicati nella zona bruciata della pineta e un transetto di controllo nella zona verde della pineta, dove la vegetazione è intatta. Dall’elaborazione grafica di questi valori sono state ottenute delle isolinee rappresentative di valori soglia per le acque dolci, salmastre, salate, a pH 7.5 tipico delle acque meteoriche e a pH 8 tipico dell’acqua di mare. I valori di conduttività elettrica rapportati alla topografia e alla tavola d’acqua mostrano la formazione di lenti di acqua dolce nella zona dove la vegetazione è scomparsa a causa dell’incendio. Acque dolci assenti nella zona verde a causa della vegetazione e della sua attività evapotraspirativa. Le isolinee ottenute dal pH spiegano invece l’effetto delle ceneri dell’incendio dilavate dalle acque meteoriche e le differenze con la zona ancora ricoperta da vegetazione. I parametri analizzati risultano determinanti nella valutazione dello stato di salute della risorsa acquifera della costiera romagnola minacciata dalla salinizzazione e dalla modificazione del pH.