995 resultados para pacemaker, defibrillatore, cuore, evoluzione, dispositivi
Resumo:
The discovery of the neutrino mass is a direct evidence of new physics. Several questions arise from this observation, regarding the mechanism originating the neutrino masses and their hierarchy, the violation of lepton number conservation and the generation of the baryon asymmetry. These questions can be addressed by the experimental search for neutrinoless double beta (0\nu\beta\beta) decay, a nuclear decay consisting of two simultaneous beta emissions without the emission of two antineutrinos. 0\nu\beta\beta decay is possible only if neutrinos are identical to antineutrinos, namely if they are Majorana particles. Several experiments are searching for 0\nu\beta\beta decay. Among these, CUORE is employing 130Te embedded in TeO_2 bolometric crystals. It needs to have an accurate understanding of the background contribution in the energy region around the Q-value of 130Te. One of the main contributions is given by particles from the decay chains of contaminating nuclei (232Th, 235-238U) present in the active crystals or in the support structure. This thesis uses the 1 ton yr CUORE data to study these contamination by looking for events belonging to sub-chains of the Th and U decay chains and reconstructing their energy and time difference distributions in a delayed coincidence analysis. These results in combination with studies on the simulated data are then used to evaluate the contaminations. This is the first time this analysis is applied to the CUORE data and this thesis highlights the feasibility of it while providing a starting point for further studies. A part of the obtained results agrees with ones from previous analysis, demonstrating that delayed coincidence searches might improve the understanding of the CUORE experiment background. This kind of delayed coincidence analysis can also be reused in the future once the, CUORE upgrade, CUPID data will be ready to be analyzed, with the aim of improving the sensitivity to the 0\nu\beta\beta decay of 100Mo.
Resumo:
Tutti sono a conoscenza degli innumerevoli conflitti che, negli ultimi trent’anni, hanno interessato diverse aree del mondo, coinvolgendo Occidente e Oriente, a partire dalla guerra del Golfo, nel 1991, passando per la guerra nei Balcani, per arrivare alla guerra civile siriana e alla recentissima occupazione russa in Ucraina. Ciò che tende a rimanere nascosto è che, di fianco alle forze militari e para-militari, come personale sanitario e scienziati specializzati in vari ambiti, in ognuna di queste situazioni hanno operato e operano tutt’oggi figure che sono tendenzialmente invisibili, almeno sotto il punto di vista della copertura mediatica: gli interpreti. La loro invisibilità, tuttavia, ha iniziato a venire meno a partire dai primi anni del XXI secolo per merito di alcuni studiosi di linguistica e sociologia che, mossi da svariate motivazioni, hanno analizzato e approfondito diversi aspetti e sfaccettature proprie di questo ruolo. Questo elaborato si propone di analizzare i progressi fatti in campo dello studio del fenomeno dell’interpretazione (e della mediazione) in zone di conflitto. In primo luogo, sarà necessario definire chi effettivamente siano gli interpreti nelle aree di guerra, come e quando nascono e per quale motivo. A questo punto, saranno approfondite le responsabilità proprie di queste figure, ma anche le questioni etiche e morali affrontate sia dai mediatori, sia dalle istituzioni per cui lavorano, comprese quelle dell’identità e della fiducia. In seguito, il focus dell’elaborato si sposterà sui cosiddetti “non-professional interpreters”, sul loro reclutamento nella storia recente e sulle conseguenze causate da tali incarichi negli interpreti stessi. Infine, si prenderanno in analisi alcuni casi studio, in particolare quelli dell’Afghanistan e dell’Iraq, per cercare di capire in che modo e in quale misura gli interpreti in zone di conflitto siano tutelati da un punto di vista giuridico.
Resumo:
Il continuo aumento del consumo energetico e l’aggravarsi delle condizioni climatiche hanno incrementato la necessità di una produzione più intensa e meno inquinante. Tra le numerose alternative energetiche che si possono annoverare, quella di particolare interesse `e la fusione nucleare. Nello specifico si analizzerà una ben determinata tipologia di prototipi di reattori, la configurazione Tokamak a confinamento elettromagnetico del plasma.
Resumo:
La malattia di Parkinson, seconda tra le malattie degenerative più comuni, ha basato per anni la diagnosi e le valutazioni terapeutiche su scale di misura soggettive, di modesta accuratezza e limitate all’utilizzo clinico. Per questo motivo, alla luce di nuove tecnologie emergenti ed efficaci, questa tesi si propone di analizzare lo stato dell’arte dei dispositivi indossabili per la ricerca sul Parkinson e i suoi disturbi. Dopo una breve introduzione, la narrazione prende avvio, nel primo capitolo, con la descrizione della malattia seguita dai trattamenti curativi più utilizzati. Nel secondo capitolo verranno trattati i metodi di diagnosi, a partire dalle scale di valutazione qualitative per poi proseguire con una breve rassegna dei componenti e dei nuovi sensori utilizzabili per ottenere misurazioni quantitative. Questa descrizione sarà fondamentale per poter comprendere il funzionamento dei dispositivi che verranno successivamente citati. Il terzo capitolo si focalizza sulla sintomatologia del Parkinson e sulla rassegna dei dispositivi innovativi destinati alla diagnosi, al monitoraggio e alla cura, partendo dai sintomi motori più comuni ed evidenti, fino ad arrivare alle manifestazioni non motorie silenziose e subdole. Infine, la tesi si focalizzerà in particolar modo sul sonno. Dopo un’analisi della struttura del sonno, si tratteranno le metodiche più utilizzate fino ad oggi per lo studio dei disturbi notturni. Successivamente si proporranno alcuni nuovi dispositivi indossabili innovativi e li si metterà a confronto con i metodi tradizionali per analizzarne le potenzialità, gli svantaggi e i possibili sviluppi futuri. La tesi, nel suo complesso, si pone l’obiettivo di illustrare come, nella ricerca sul Parkinson, lo sviluppo di nuove tecnologie indossabili possa rappresentare un punto di svolta e di sostegno per la valutazione, la diagnosi, la cura della malattia per i clinici, i pazienti e chi se ne prende cura.
Resumo:
L'incidenza complessiva dell'insufficienza cardiaca a livello globale sta aumentando, sia a causa della crescente aspettativa di vita per i pazienti che ricevono una diagnosi, sia per un progressivo invecchiamento della popolazione. Nonostante i continui progressi clinici, questa patologia continua ad avere una alta mortalità e a causare una forte sintomatologia nei pazienti che ne sono affetti. Per questo motivo e per il forte peso che questa patologia ha sulla sanità si è reso necessario cercare di prevenire eventi di scompenso cardiaco o di peggioramento della condizione di insufficienza cardiaca. Questo elaborato si sofferma inizialmente sull'insufficienza cardiaca, sulla sua patologia, le sue classificazioni, la sua epidemiologia e sui dispostivi impiantabili utilizzati nel trattamento di quest'ultima. Successivamente sono stati analizzati cinque studi clinici longitudinali, di cui uno monoparametrico e gli altri multiparametrici, caratterizzati dal monitoraggio remoto di alcuni parametri vitali con l'obiettivo di individuare, e quindi prevenire, eventi avversi o un peggioramento della condizione di insufficienza cardiaca.
Resumo:
L’intelligenza artificiale è senza dubbio uno degli argomenti attualmente più in voga nel mondo dell’informatica, sempre in costante evoluzione ed espansione in nuovi settori. In questa elaborato progettuale viene combinato l’argomento sopracitato con il mondo dei social network, che ormai sono parte integrante della quotidianità di tutti. Viene infatti analizzato lo stato dell’arte attuale delle reti neurali, in particolare delle reti generative avversarie, e vengono esaminate le principali tipologie di social network. Su questa base, infatti, verrà realizzato un sistema di rete sociale completo nel quale una GAN sarà proprio la protagonista, sfruttando le più interessanti tecnologie attualmente disponibili. Il sistema sarà disponibile sia come applicativo per dispositivi mobile che come sito web e introdurrà elementi di gamification per aumentare l’interazione con l’utente.
Resumo:
I contenuti e i servizi offerti dal Web hanno subito negli anni una costante e continua evoluzione, dovuti alla maggiore disponibilità di dispositivi in grado di navigarlo. Oggi i requisiti e le aspettative che gli utenti hanno nei confronti delle applicazioni Web sono sempre maggiori, desiderano un accesso ai contenuti sempre più rapido, interfacce semplici e facili da usare, oltre che reattive, e che tali contenuti siano accessibili da una vasta gamma di dispositivi che presentino sempre più funzionalità. Le aziende devono essere pronte a rispondere a queste esigenze e a fornire agli utenti finali la miglior esperienza possibile, rimanendo aggiornati sulle tecnologie per la creazione di applicazioni Web. Questo è ancora più importante per un'azienda possiede più prodotti, sviluppati da team diversi che usano tecnologie diverse. Per alcune aziende è importante che i propri prodotti, sebbene trattino tematiche differenti, si presentino con interfacce che rimandino al proprio marchio, non solo grazie al nome o al logo, quanto più nei componenti utilizzati per creare le interfacce. Succede così che i vari team devono progettare e sviluppare i componenti nella propria tecnologia, in modo che abbiano le stesse funzionalità, stesso stile e stesso comportamento in ogni situazione. Il più delle volte questo è difficile da realizzare e anche costoso da mantenere. Riuscire a centralizzare lo sviluppo di questi elementi in un unico punto aiuta l'azienda a mantenere bassi i costi di manutenzione e a rendere omogenea l'esperienza degli utenti tra i vari prodotti. Obiettivo del lavoro svolto è illustrare le potenzialità e l'utilità fornite dall'introduzione di una suite di componenti personalizzati, seguendo lo standard dei Web Component, all'interno dei prodotti forniti da una grande impresa. L'analisi si concentra sulll'esperienza di chi utilizza tali componenti all'interno dei propri progetti per creare l'interfaccia utente da presentare poi agli utenti finali.
Resumo:
I convertitori elettronici di potenza sono da anni largamente diffusi sul mercato, poiché necessari per pilotare motori elettrici a velocità variabile in ambito industriale e a interfacciare alla rete elettrica i generatori da fonti di energia rinnovabili, in particolare eolica e fotovoltaica. In tutti i casi è richiesto che i convertitori siano efficienti, ovvero che l’energia persa durante la conversione sia minima. Considerando che il cuore di un convertitore è costituito da interruttori statici, è fondamentale una stima accurata dell’efficienza di questi ultimi per definire le prestazioni di un convertitore. Il materiale più diffuso per la realizzazione di questi componenti è il silicio (Si), ma esistono oggi altri semiconduttori che permettono prestazioni migliori, quali il carburo di silicio (SiC) e il nitruro di gallio (GaN). A causa del loro elevato costo di produzione rispetto ai componenti tradizionali, è divenuto sempre più importante stimare l’efficienza dei convertitori che montano queste tecnologie innovative, per trovare una giustificazione al loro impiego. In questa tesi, in particolare, l’efficienza di un convertitore con tecnologia SiC è stata prima calcolata analiticamente e poi testata a banco. Infine, è proposta un’architettura per un inverter trifase che possa essere impiegata per un’applicazione fotovoltaica. Questo lavoro è parte delle attività assegnate a Raw Power S.r.l. nell’ambito del progetto Europeo YesVGaN, il cui scopo ultimo entro i prossimi anni, è la realizzazione di componenti GaN commercialmente appetibili, che necessiteranno di essere testati e confrontati con i dispositivi al silicio e al carburo di silicio.
Resumo:
La presente tesi, redatta durante un tirocinio presso l’azienda Automobili Lamborghini S.p.a., ha come fine ultimo la descrizione di attività volte all’evoluzione dell’ente Training Center facente parte dell’area industriale. L’ente Training center è responsabile dell'organizzazione, dell'erogazione e del monitoraggio della formazione incentrata sulle cosiddette technical skills utili per il miglioramento o il rafforzamento delle competenze e delle conoscenze tecniche degli operatori. La prima attività descritta ha lo scopo di creare un database contenente tutte le competenze che ogni operatore deve possedere per poter lavorare autonomamente su una determinata stazione di lavoro al fine di individuare il gap di competenze. L’analisi condotta ha come obiettivi: la pianificazione strategica della forza lavoro, la mappatura dell’intera organizzazione, l’implementazione (ove necessario) di nuovi training, l’aumento della produttività, e l’aumento della competitività aziendale. In seguito, è stata svolta un’analisi delle matrici di flessibilità, ovvero delle matrici che forniscono informazioni su quanti blue collars sono in grado di lavorare su determinate stazioni e in quale ruolo (operatore in training, operatore autonomo o operatore specializzato e quindi in grado di assumere il ruolo di trainer). Studiando tali matrici sono state identificate delle regole che rendono il processo di training on the job il più efficace ed efficiente possibile con o scopo, da una parte di evitare eccessive ore di training e quindi eccessivo dispendio economico, dall’altra, quello di riuscire a coprire tutte le stazioni considerando i picchi di assenteismo della forza lavoro. Infine, si è rivelata necessaria l’implementazione di un nuovo training, il “train the tutor”, ovvero un percorso di formazione riservato ai dipendenti potenzialmente in grado di insegnare attività in cui loro sono specializzati ad operatori in training.
Resumo:
A partire dagli anni Novanta del secolo scorso, il nostro rapporto con il videoclip è diventato pressoché quotidiano, oggi possiamo scegliere in ogni momento quali videoclip guardare grazie a siti come Youtube o Vimeo, ai social media, o a piattaforme come Spotify. Il videoclip da semplice sequenza di immagini che accompagnavano le parole e le melodie di una canzone, è diventato un genere dotato di piena dignità creativa e artistica, caratterizzato da fasi preparatorie spesso molto complesse e dall’utilizzo di tecnologie sofisticate e personale altamente qualificato che non lo rendono secondario a nessuno dei prodotti dell’universo cinematografico. Scopo di questa tesi è infatti dimostrare che il mondo del videoclip non è abitato da registi e operatori minori, ma popolato in gran parte da professionisti di grande spessore artistico che ambiscono a realizzare prodotti di importante valore creativo. Infatti, il presente lavoro intende, da un lato, rendere esplicita l’identità del videoclip, della sua morfologia, del suo linguaggio e dei suoi modelli, dall’altro far emergere il tema dell’autorialità del videoclip, nell’ottica, appunto, di nobilitarlo e rendere evidente che si tratti di un prodotto cinematografico non secondario ad altre tipologie di lavoro nel campo della pellicola.
Resumo:
Negli ultimi anni, nell' ambito dell' ingegneria dei tessuti, ha avuto un rapido aumento la generazione di tessuti cardiaci miniaturizzati, per lo studio della fisiologia cardiaca e delle patologie. In questa tesi, viene analizzato un processo di realizzazione di un dispositivo heart-on-a-chip recentemente pubblicato da Jayne et al. Per il processo di fabbricazione dei dispositivi è stata utilizzata una combinazione di Soft Lithography e Direct Laser Writing (DLW). Quest' ultima, in particolare, ha fornito due importanti caratteristiche ai dispositivi deputati alla semina cellulare: una struttura curva lungo l’ asse verticale e strutture 3D di diverse altezze sullo stesso piano. Tramite DLW sono stati realizzati anche precisi punti di adesione per le cellule staminali pluripotenti indotte, che hanno consentito di controllare la geometria dei tessuti ingegnerizzati. In particolare, oltre al processo di fabbricazione, in questo lavoro vengono anche illustrate le procedure necessarie al fine di calibrare i microsensori utilizzati per monitorare i costrutti. La prima fase della calibrazione si occupa di determinare la responsività meccanica dei sensori di spostamento, mentre la seconda valuta quella dei sensori elettrici, deputati alla conversione di spostamenti in variazioni di resistenza elettrica.
Resumo:
Quando si pensa alla figura di un medico, non lo si può immaginare senza uno stetoscopio alle sue spalle. Lo stetoscopio è uno strumento molto semplice ma molto importante, inventato in Francia nel 1816 da René Théophile Hyacinthe Laennec, permise di poter auscultare ed analizzare i rumori generati dai battiti cardiaci ottenendo suoni più puliti e rendendo meno invasiva la procedura, precedentemente svolta posizionando l'orecchio sul petto del paziente. Nel 1970 David Littman migliorò notevolmente la struttura dello stetoscopio precedente, creando lo strumento che noi tutti conosciamo. Grazie alla rapida evoluzione dell'elettronica negli ultimi anni si hanno oggi a disposizione una moltitudine di nuovi ed efficaci sensori, alcuni dei quali trovano impiego nell'ambito dell'ingegneria biomedica. In particolare, si è pensato di utilizzare queste nuove tecnologie per la progettazione e lo sviluppo di uno stetoscopio elettronico. Il forte vantaggio di uno stetoscopio elettronico, rispetto al classico biomeccanico, risiede nell'elaborazione, nel filtraggio e nell'amplificazione del segnale che si può applicare all'auscultazione, oltreché nella possibilità di poter registrare il segnale acquisito, rendendo questo dispositivo uno strumento potenzialmente efficace per la telemedicina. In questo elaborato verrà trattato lo sviluppo di uno stetoscopio elettronico, evidenziando tutti i problemi e le criticità riscontrate durante il progetto in ogni punto di vista, software, hardware e signal processing. Tutto ciò non prima di una consistente introduzione necessaria per comprendere la tipologia di segnale d'interesse e l'analisi di alcuni tipi di dispositivi presenti in commercio e non, da cui si è tratta ispirazione. Seguirà un analisi critica dei risultati ottenuti, confrontando i segnali ottenuti dal dispositivo progettato con quelli ottenuti in reparto utilizzando due dispositivi commerciali, analizzando le differenze, punti di forza e di debolezza.
Resumo:
L'elaborato tratta lo studio dell’evoluzione delle perturbazioni di densità non lineari, confrontando modelli con costante cosmologica (wΛ = −1) e modelli alternativi in cui l’energia oscura sia caratterizzata da un’equazione di stato con w diverso da −1, considerando sia il caso con energia oscura costante, sia quello in cui ha fluttuazioni. La costante cosmologica presenta infatti due problemi teorici attualmente senza soluzione: il problema del suo valore e il problema della coincidenza. Per analizzare l’evoluzione delle perturbazioni di materia ed energia oscura, sia nel caso delle sovradensità che nel caso delle sottodensità primordiali, si implementano numericamente le equazioni differenziali non lineari ricavate a partire dalla teoria del collasso sferico. Per parametrizzare il problema, si fa riferimento ai valori critici del contrasto di densità δc e δv che rappresentano, rispettivamente, la soglia lineare per il collasso gravitazionale e la soglia per l’individuazione di un vuoto cosmico. I valori di δc e δv sono importanti poich´e legati agli osservabili cosmici tramite la funzione di massa e la void size function. Le soglie critiche indicate sono infatticontenute nelle funzioni citate e quindi, cambiando δc e δv al variare del modello cosmologico assunto, è possibile influenzare direttamente il numero e il tipo di oggetti cosmici formati, stimati con la funzione di massa e la void size function. Lo scopo principale è quindi quello di capire quanto l’assunzione di un modello, piuttosto che di un altro, incida sui valori di δc e δv. In questa maniera è quindi possibile stimare, con l’utilizzo della funzione di massa e della void size function, quali sono gli effetti sulla formazione delle strutture cosmiche dovuti alle variazioni delle soglie critiche δc e δv in funzione del modello cosmologico scelto. I risultati sono messi a confronto con il modello cosmologico standard (ΛCDM) per cui si assume Ω0,m = 0.3, Ω0,Λ = 0.7 e wΛ = −1.
Resumo:
Le app mobile sono sempre più pervasive nella vita quotidiana delle persone: gli smartphone hanno rivoluzionato il modo di interagire degli utenti con le varie organizzazioni. Che sia per l'accesso al proprio conto corrente, per la visualizzazione delle notizie quotidiane o per il semplice svago, gli utenti usano sempre più il mondo mobile come canale privilegiato per la fruizione dei contenuti digitali. Il sempre maggior successo delle applicazioni mobile ha sempre più spostato l'attenzione dei malintenzionati sugli smartphone, che sono diventati così uno degli obiettivi più popolari per i cyberattacchi: ciò comporta nuove sfide per le organizzazioni al fine di garantire la sicurezza di dati e sistemi. Risulta fondamentale per un organizzazione in particolare mantenere un controllo sulle proprie applicazioni mobile: configurazioni errate, errori di programmazione, inclusione di librerie software vulnerabili o malevoli e la presenza di credenziali cablate nel codice o nelle configurazioni rappresentano un notevole rischio per la confidenzialità, l'integrità e disponibilità di dati e sistemi. Se risulta fondamentale nello sviluppo un approccio che utilizzi i principi della Security by Design, risulta ancora più importante un presidio costante sulle applicazioni e la costruzione di un ciclo di vita del software sicuro (SSDLC). A tal fine la proposta del progetto di tesi riguarda l'analisi delle principali minacce e vulnerabilità delle applicazioni mobile e lo sviluppo di uno strumento di analisi dei pacchetti mobile (su piattaforma Android o iOS) al fine di identificare possibili rischi prima della pubblicazione dei pacchetti sugli store ufficiali.
Resumo:
Il Massiccio di Alanya è un massiccio metamorfico situato nella catena dei Tauri centrali (Turchia meridionale) costituito da tre falde tettoniche metamorfosate in facies variabili da scisti verdi ad eclogite nel Campaniano (84-75 Ma) e sovrascorse verso nord sull’autoctono Tauride durante l’Eocene inferiore e medio. L’integrazione di dati termocronologici preesistenti e nuovi dati raccolti durante questo studio per mezzo dei metodi delle tracce di fissione (AFT) e (U-Th)/He (AHe) entrambi su apatite, ha vincolato meglio la strutturazione eocenica del massiccio e la sua successiva evoluzione nell’Oligo-Miocene. Le età centrali AFT e quelle AHe coprono collettivamente un intervallo di tempo compreso tra l’Eocene inferiore e il Miocene medio (51 Ma - 14 Ma) con la sola eccezione di un campione di arenaria dell’Unità di Anamur (Paleocene-Eocene) che presenta età mesozoiche non resettate. Il bacino sedimentario di avampaese in cui si è depositata l’Unità di Anamur è infatti stato caratterizzato da una subsidenza relativamente modesta che non ha consentito alla successione sedimentaria di essere resettata. I risultati indicano che la falda intermedia di Sugözü ha conservato la memoria termocronologica del principale evento deformativo eocenico che ha interessato il Massiccio di Alanya in un contesto di tipo compressivo. Le età AFT e AHe dei campioni provenienti dalle altre unità del massiccio si concentrano invece tra l’Oligocene e il Miocene inferiore. Durante questo intervallo di tempo un regime tettonico estensionale ha determinato l’esumazione estensionale del Massiccio di Alanya e la formazione dei bacini sedimentari di carattere estensionale-transtensionale sulla terraferma (Adana, Mut, Tuzgölü, Ecemiş) e offshore (Cilicia). Anche nel Massiccio di Alanya si riconosce quindi la transizione da un regime tettonico compressivo eocenico ad un regime tettonico estensionale oligocenico-miocenico come per l’area egea e peri-egea ad ovest.