998 resultados para pacemaker,sistema di conduzione,pacemaker elettronico,biopacemaker
Resumo:
Prima di fornire una formulazione esaustiva dell'onda d'urto, è d'uopo definire il gas come oggetto fisico e le sue principali caratteristiche. Quanto si farà nei paragrafi seguenti quindi, sarà tentare di formalizzare il sistema gassoso dal punto di vista fisico e matematico. Sarà necessario introdurre un modello del sistema (par. 1.1) che ci permetta di lavorare a livello statistico sull'insieme di particelle che lo compongono per caratterizzare le funzioni termodinamiche classiche come medie temporali. Tramite queste considerazioni si stabilirà quali sono le quantità che si conservano nel moto di un fluido e si vedrà che tali leggi di conservazione formano un sistema di 5 equazioni differenziali parziali in 6 incognite. Tramite la linearizzazione di questo sistema si individueranno delle soluzioni chiamate onde sonore che danno un'indicazione sul modo in cui si propagano delle perturbazioni all'interno di un fluido; in particolar modo saranno utili per la determinazione del numero di Mach che rende possibile la distinzione tra due regimi: subsonico e supersonico (par. 1.2). Sarà possibile, a questo punto, indagare il fenomeno dell'onda d'urto (par. 2.1) e, nel dettaglio, due casi particolarmente utili in contesto astrofisico quali: l'onda d'urto per un gas politropico (par. 2.2), un'onda d'urto sferica che avanza verso il suo centro (2.2). Lo scopo di questa trattazione è indagare, o se non altro tentare, quanto avviene in un'esplosione di Supernova (par. 3). Relativamente a questo fenomeno, ne viene data una classificazione sommaria (par. 3.1), mentre particolare attenzione sarà rivolta alle Supernovae di tipo Ia (par. 3.2) che grazie alla loro luminosità standard costituiscono un punto di riferimento nell'Universo visibile.
Resumo:
Questa tesi si propone di investigare l'origine di effetti non gaussiani nella distribuzione del segnale del rivelatore Time of Flight (TOF) dell'esperimento A Large Ion Collider Experiment (ALICE). Con la presa dati iniziata nel 2009 si è infatti osservata un'asimmetria nel segnale la cui origine è ancora oggetto di studio. L'analisi svolta mostra come essa sia dovuta a motivi strumentali piuttosto che fenomenologici e permette quindi di correggere in parte questa anomalia migliorando la risoluzione del rivelatore. ALICE è uno dei quattro esperimenti allestiti lungo l'anello del LHC e ha come obiettivo principale verificare l'esistenza di prove sperimentali che confermino l'esistenza di un nuovo stadio della materia, il cosiddetto Quark Gluon Plasma (QGP). Secondo la Cromodinamica Quantistica (QCD), la teoria che descrive l'interazione forte, caratteristica fondamentale di quark e gluoni è il loro confinamento all'interno di adroni. Studi recenti nell'ambito della QCD non-perturbativa hanno tuttavia dimostrato che in condizioni estreme di densità di materia adronica e temperatura sarebbe possibile un'inversione di tendenza nell'andamento della costante di accoppiamento forte. Le condizioni necessarie alla formazione del QGP sono ben riproducibili nelle collisioni ad energie ultrarelativistiche tra ioni pesanti, come quelle che sono state prodotte a LHC negli ultimi due anni, fra ioni di piombo con energie del centro di massa pari a 2.76 TeV per coppia di nucleoni. L'esperimento ALICE si propone di studiarne i prodotti e poiché la molteplicità di particelle che si generano nell'urto e considerevole, e necessario un sistema di rivelazione che permetta l'identificazione di particelle cariche su un grande angolo solido e in un ampio intervallo di impulsi. Il TOF, utilizzando un particolare rivelatore a gas detto Multigap Resistive Plate Chamber (MRPC), svolge brillantemente questo compito permettendo di raggiungere una risoluzione temporale inferiore ai 100 ps.
Resumo:
La dissertazione ha riguardato l’analisi di sostenibilità di un sistema agronomico per la produzione di olio vegetale a fini energetici in terreni resi marginali dall’infestazione di nematodi. Il processo indagato ha previsto il sovescio di una coltura con proprietà biofumiganti (brassicacea) coltivata in precessione alla specie oleosa (soia e tabacco) al fine di contrastare il proliferare dell’infestazione nel terreno. Tale sistema agronomico è stato confrontato attraverso una analisi di ciclo di vita (LCA) ad uno scenario di coltivazione della stessa specie oleosa senza precessione di brassica ma con l’utilizzo di 1-3-dicloropropene come sistema di lotta ai nematodi. Allo scopo di completare l’analisi LCA con una valutazione dell’impatto sull’uso del suolo (Land use Impact) generato dai due scenari a confronto, sono stati costruiti due modelli nel software per il calcolo del Soil Conditioning Index (SCI), un indicatore quali-quantitativo della qualità del terreno definito dal Dipartimento per l’Agricoltura degli Stati Uniti d’America (USDA).
Resumo:
Come risposta positiva alle richieste provenienti dal mondo dei giuristi, spesso troppo distante da quello scientifico, si vuole sviluppare un sistema solido dal punto di vista tecnico e chiaro dal punto di vista giurico finalizzato ad migliore ricerca della verità. L’obiettivo ci si prefigge è quello di creare uno strumento versatile e di facile utilizzo da mettere a disposizione dell’A.G. ed eventualmente della P.G. operante finalizzato a consentire il proseguo dell’attività d’indagine in tempi molto rapidi e con un notevole contenimento dei costi di giustizia rispetto ad una normale CTU. La progetto verterà su analisi informatiche forensi di supporti digitali inerenti vari tipi di procedimento per cui si dovrebbe richiedere una CTU o una perizia. La sperimentazione scientifica prevede un sistema di partecipazione diretta della P.G. e della A.G. all’analisi informatica rendendo disponibile, sottoforma di macchina virtuale, il contenuto dei supporti sequestrati in modo che possa essere visionato alla pari del supporto originale. In questo modo il CT diventa una mera guida per la PG e l’AG nell’ambito dell’indagine informatica forense che accompagna il giudice e le parti alla migliore comprensione delle informazioni richieste dal quesito. Le fasi chiave della sperimentazione sono: • la ripetibilità delle operazioni svolte • dettare delle chiare linee guida per la catena di custodia dalla presa in carico dei supporti • i metodi di conservazione e trasmissione dei dati tali da poter garantire integrità e riservatezza degli stessi • tempi e costi ridotti rispetto alle normali CTU/perizie • visualizzazione diretta dei contenuti dei supporti analizzati delle Parti e del Giudice circoscritte alle informazioni utili ai fini di giustizia
Resumo:
Lo scopo del lavoro è simulare il comportamento di un sistema di misura dell'assetto detto ARS (Attitude Reference System), dove sostanzialmente le misure fornite da giroscopi ed accelerometri, quindi accelerazioni e velocità angolari, vengono elaborate da un filtro osservatore dello stato che permette di ricavare la stima dell'angolo di elevazione Q e dell'angolo di inclinazione f, non misurabili direttamente, e quindi dell'orientamento del sistema rispetto al piano orizzontale.
Resumo:
Una delle aree di maggiore innovazione nella diagnostica per immagini è rappresentata dalla possibilità di fondere le scansioni PET e TC in un sistema di acquisizione ibrido che realizza entrambi gli studi in un'unica seduta. Questa tecnica abbina infatti la capacità di raccogliere le immagini ad alta definizione della TC che può essere eseguita anche con il mezzo di contrasto tradizionale, con informazioni metaboliche estremamente dettagliate raccolte dalla PET, unificandole in un sistema di immagini ibride. Attualmente la PET ha un preminente utilizzo in campo oncologico, tanto che circa l’80% degli esami effettuati è mirato a monitorare la risposta dei pazienti a trattamenti contro il cancro e a discriminare o caratterizzare lesioni dubbie evidenziate in studi morfologici effettuati con CT e MRI. Oltre all’ambito delle patologie neoplastiche, le tecniche di imaging PET/CT hanno dimostrato una importanza rilevante anche in applicazioni di cardiologia e neurologia.
Resumo:
L’idea da cui nasce questa tesi è quella di introdurre in Blender un Add-on in linguaggio Python che permetta di applicare alcune deformazioni di tipo surface-based a mesh poligonali. Questa tipologia di deformazioni rappresentano l’alternativa alle deformazioni di mesh poligonali tramite rigging ( cioè l’aggiunta di uno scheletro per controllare e per animare la mesh) e caging (cioè l’utilizzo di una struttura di controllo di tipo reticolare che propaga la sua deformazione su un oggetto in essa immerso), che di solito sono le prescelte in computer animation e in modellazione. Entrambe le deformazioni indicate sono già estremamente radicate in Blender, prova ne è il fatto che esiste più di un modificatore che le implementa, già integrato in codice nativo. Si introduce inizialmente la tecnica di deformazione di mesh poligonali tramite elasticità discreta, che è stata realizzata, quindi, presenteremo diverse metodologie di deformazione. Illustreremo poi come modellare, creare ed editare delle mesh in Blender. Non ci soffermeremo su dettagli puramente dettati dall’interfaccia utente, cercheremo invece di addentrarci nei concetti e nelle strutture teoriche, allo scopo di avere le basi logiche per definire una Add-on che risulti veramente efficace e utile all’interno del sistema di modellazione. Approfondiremo la struttura di due modificatori chiave per la deformazioni di mesh : Lattice Modifier e Mesh Deform Modifier che implementano una metodologia di tipo space-based. Infine ci concentreremo sulla parte di scripting Python in Blender. Daremo un’idea delle strutture dati, dei metodi e delle funzioni da utilizzare per interagire con l’ambiente circostante, con i singoli oggetti ed in particolare con le Mesh e daremo un esempio di script Python. Andremo infine a descrivere l’implementazione della deformazione elastica mediante add-on Python in Blender.
Resumo:
Superconduttori bulk in MgB2, ottenuti con tecnologia Mg-RLI brevettata da Edison Spa, sono stati oggetto di un'approfondita analisi in termini di forze di levitazione. Questo studio è stato preliminare per la progettazione di un innovativo sistema di levitazione lineare. I risultati ottenuti sperimentalmente sono stati validati attraverso modelli numerici sviluppati ad hoc. I campioni oggetto dello studio sono tre bulk in MgB2 rappresentativi delle tipiche forme usate nelle applicazioni reali: un disco, un cilindro, una piastra. I bulk sono stati misurati con un sistema di misura per le forze di levitazione realizzato a tale scopo. Un protocollo sperimentale è stato seguito per la caratterizzazione di base, sia in condizioni Field Cooling sia Zero Field Cooling, al quale sono state affiancate prove specifiche come la possibilità di mantenere inalterate le proprietà superconduttive attraverso la giunzione di più campioni con la tecnologia Mg-RLI. Un modello numerico è stato sviluppato per convalidare i risultati sperimentali e per studiare l'elettrodinamica della levitazione. Diverse configurazioni di rotori magnetici sono state accoppiate con un cilindro in MgB2 con lo scopo di valutare la soluzione ottimale; questo tema è stato apporofondito attraverso lo sviluppo di un software di simulazione che può tenere conto sia del numero di magneti sia della presenza di anelli in materiale magneti intercalati fra di essi. Studi analoghi sono stati portati avanti su una piastra di MgB2 per simulare il comportamento di una geometria piana. Un sistema di raffreddamento innovativo basato sull'azoto solido è stato studiato per poterlo accoppiare con un sistema di levitazione. Il criostato progettato è costituito da due dewar, uno dentro l'altro; quello interno ha lo scopo di raffreddare l'MgB2 mentre quello esterno di limitare delle perdite verso l'esterno. Il criopattino così ottenuto è accoppiato in condizioni FC ad una rotaia formata da magneti permanenti in NdFeB.
Resumo:
La tesi affronta il tema della neuromatematica della visione, in particolare l’integrazione di modelli geometrici di percezione visiva con tecniche di riduzione di dimensionalità. Dall’inizio del secolo scorso, la corrente ideologica della Gestalt iniziò a definire delle regole secondo le quali stimoli visivi distinti tra loro possono essere percepiti come un’unica unità percettiva, come ad esempio i principi di prossimità, somiglianza o buona continuazione. Nel tentativo di quantificare ciò che gli psicologi avevano definito in maniera qualitativa, Field, Hayes e Hess hanno descritto, attraverso esperimenti psicofisiologici, dei campi di associazione per stimoli orientati, che definiscono quali caratteristiche due segmenti dovrebbero avere per poter essere associati allo stesso gruppo percettivo. Grazie alle moderne tecniche di neuroimaging che consentono una mappatura funzionale dettagliata della corteccia visiva, è possibile giustificare su basi neurofisiologiche questi fenomeni percettivi. Ad esempio è stato osservato come neuroni sensibili ad una determinata orientazione siano preferenzialmente connessi con neuroni aventi selettività in posizione e orientazione coerenti con le regole di prossimità e buona continuazione. Partendo dal modello di campi di associazione nello spazio R^2xS^1 introdotto da Citti e Sarti, che introduce una giustificazione del completamento percettivo sulla base della funzionalità della corteccia visiva primaria (V1), è stato possibile modellare la connettività cellulare risolvendo un sistema di equazioni differenziali stocastiche. In questo modo si sono ottenute delle densità di probabilità che sono state interpretate come probabilità di connessione tra cellule semplici in V1. A queste densità di probabilità è possibile collegare direttamente il concetto di affinità tra stimoli visivi, e proprio sulla costruzione di determinate matrici di affinità si sono basati diversi metodi di riduzione di dimensionalità. La fenomenologia del grouping visivo descritta poco sopra è, di fatto, il risultato di un procedimento di riduzione di dimensionalità. I risultati ottenuti da questa analisi e gli esempi applicativi sviluppati si sono rivelati utili per comprendere più nel dettaglio la possibilità di poter riprodurre, attraverso l’analisi spettrale di matrici di affinità calcolate utilizzando i modelli geometrici di Citti-Sarti, il fenomeno percettivo di grouping nello spazio R^2xS^1.
Resumo:
La coltivazione massiva di microalghe ha lo scopo di produrre biomassa su larga scala per ottenere prodotti e processi utili, grazie al loro elevato contenuto di carboidrati, proteine, lipidi, pigmenti e altri composti, che sono utilizzati a livello industriale in campo alimentare, medico e nutraceutico. L’elevata potenzialità di utilizzo di questa biomassa ha assunto un ruolo primario nell’ambito della produzione di energia ecocompatibile o di processi utili per l’ambiente. Dalle microalghe è possibile estrarre lipidi da utilizzare come biocarburanti e possono trovare applicazione anche nel trattamento di reflui domestici ed industriali, nella produzione di composti bioattivi atti alla produzione di biopolimeri, fertilizzanti e ammendanti. Le problematiche inerenti ad una produzione industriale, riguardano la riduzione dell’impatto energetico, ambientale ed i costi di produzione con l’obbiettivo di massimizzare la resa della coltura; questo potrebbe essere realizzato attraverso l’utilizzo di sostanze di crescita che diversi studi mostrano come siano presenti naturalmente nelle microalghe. Il lavoro di questa tesi si è incentrato sulla valutazione degli effetti di ormoni vegetali sulla crescita e la composizione molecolare della microalga verde Desmodesmus communis, organismo noto nell’ambito del trattamento delle acque reflue e specie alternativa nella produzione di energia rinnovabile grazie alle sue caratteristiche fisiologiche. La crescita è stata monitorata attraverso conteggio cellulare, consumo di nutrienti, misurazione del peso secco e dell’efficienza fotosintetica; la composizione molecolare è stata quantificata analizzando il contenuto di polisaccaridi, proteine e lipidi delle cellule. Dapprima è stato eseguito uno screening preliminare di cinque fitormoni a concentrazioni diverse, allo scopo di selezionare lo stimolante biochimico con maggior effetto. Selezionato l’ormone, si è poi proceduto ad allestire colture batch, in cui il composto, l’auxina acido fenilacetico, è stato aggiunto alla concentrazione prescelta e successivamente, avvalendosi dell’utilizzo di due fotobioreattori colonnari, è stato valutato l’effetto dell’ormone selezionato in un sistema di coltura semicontinuo, ipotizzando una coltivazione industriale su larga scala.
Resumo:
L'attività svolta in HSD S.p.A. si è concentrata sulle seguenti tematiche: progettazione di un nuovo layout con annessa pianificazione delle attività necessarie e valutazione economica dell'investimento, audit focalizzato ad individuare le criticità legate al processo di logistica inversa e proporne soluzioni migliorative ed infine implementazione di un sistema di controllo specifico e comparato dei fornitori.
Resumo:
OBIETTIVI: Per esplorare il contributo dei fattori di rischio biomeccanico, ripetitività (hand activity level – HAL) e forza manuale (peak force - PF), nell’insorgenza della sindrome del tunnel carpale (STC), abbiamo studiato un’ampia coorte di lavoratori dell’industria, utilizzando come riferimento il valore limite di soglia (TLV©) dell’American Conference of Governmental Industrial Hygienists (ACGIH). METODI: La coorte è stata osservata dal 2000 al 2011. Abbiamo classificato l’esposizione professionale rispetto al limite di azione (AL) e al TLV dell’ACGIH in: “accettabile” (sotto AL), “intermedia” (tra AL e TLV) e “inaccettabile” (sopra TLV). Abbiamo considerato due definizioni di caso: 1) sintomi di STC; 2) sintomi e positività allo studio di conduzione nervosa (SCN). Abbiamo applicato modelli di regressione di Poisson aggiustati per sesso, età, indice di massa corporea e presenza di patologie predisponenti la malattia. RISULTATI: Nell’intera coorte (1710 lavoratori) abbiamo trovato un tasso di incidenza (IR) di sintomi di STC di 4.1 per 100 anni-persona; un IR di STC confermata dallo SCN di 1.3 per 100 anni-persona. Gli esposti “sopra TLV” presentano un rischio di sviluppare sintomi di STC di 1.76 rispetto agli esposti “sotto AL”. Un andamento simile è emerso per la seconda definizione di caso [incidence rate ratios (IRR) “sopra TLV”, 1.37 (intervallo di confidenza al 95% (IC95%) 0.84–2.23)]. Gli esposti a “carico intermedio” risultano a maggior rischio per la STC [IRR per i sintomi, 3.31 (IC95% 2.39–4.59); IRR per sintomi e SCN positivo, 2.56 (IC95% 1.47–4.43)]. Abbiamo osservato una maggior forza di associazione tra HAL e la STC. CONCLUSIONI: Abbiamo trovato un aumento di rischio di sviluppare la STC all’aumentare del carico biomeccanico: l’aumento di rischio osservato già per gli esposti a “carico intermedio” suggerisce che gli attuali valori limite potrebbero non essere sufficientemente protettivi per alcuni lavoratori. Interventi di prevenzione vanno orientati verso attività manuali ripetitive.
Resumo:
In questo lavoro di tesi si è sviluppato un sistema di supporto al fisioterapista per la definizione degli esercizi da far eseguire al paziente che consenta di automatizzare il controllo della corretta esecuzione degli esercizi stessi da parte del paziente. Si è realizzato un linguaggio per codificare gli esercizi ed un editor per poterli esprimere, attraverso il linguaggio, da parte dello specialista. E' stato realizzato un motore che riesca a valutare in modo automatico se il paziente sta eseguendo correttamente gli esercizi proposti, confrontando le pose riconosciute utilizzando il sensore Microsoft Kinect con le pose degli esercizi definiti attraverso l'editor. Il filo conduttore per la realizzazione del linguaggio e del motore è stata la teoria del Calcolo degli Eventi, estesa con il concetto di aspettativa.
Resumo:
Questo elaborato ha come argomento lo sviluppo di un progetto informatico creato per mettere in comunicazione tra di loro un sistema di gestione e controllo del ricambio di acqua in una piscina e un dispositivo mobile. Per la realizzazione del sistema di controllo è stata utilizzata una scheda Arduino Mega 2560 munita di modulo Ethernet, mentre, per quello che concerne il dispositivo mobile, la scelta è ricaduta su un device dotato di sistema operativo Android. La comunicazione tra questi due attori è mediata attraverso un server scritto in Java che gira nella stessa rete locale in cui è presente la scheda Arduino. Il progetto può essere inserito nell'ambito dell'Internet of Things, dove ogni oggetto è caratterizzato dalla possibilità di connettersi ad Internet e scambiare informazioni con ogni altro oggetto creando una rete. Questo progetto è suddiviso in tre parti: la prima si occupa della definizione di due protocolli di comunicazione tra le varie componenti, uno per lo scambio di messaggi tra client Android e Server Java e un secondo per quello tra scheda Arduino e Server; la seconda parte è incentrata sulla realizzazione del server Java che rende accessibile la scheda da qualsiasi luogo e permette la raccolta dei dati rilevanti provenienti dalla centralina. L’ultima parte infine è quella relativa allo sviluppo di una applicazione per Android che permette di monitorare il tutto e interagire con la centralina stessa.
Resumo:
Il presente lavoro è stato svolto presso la struttura di Radioterapia del Policlinico S. Orsola - Malpighi e consiste nella caratterizzazione di un sistema di acquisizione per immagini portali (EPID) come dosimetro relativo bidimensionale da usare nei controlli di qualità sui LINAC. L’oggetto di studio è il sistema di acquisizione di immagini portali OPTIVUE 1000ST (Siemens), dispositivo flat panel di silicio amorfo (a-Si) assemblato all’acceleratore lineare Siemens Oncor. La risposta dell’EPID è stata analizzata variando i parametri di consegna della dose, mantenendo fissa la distanza fuoco-rivelatore. Le condizioni di stabilità, ottimali per lavorare, si hanno intorno alle 50 U.M. Dalle curve dei livelli di grigio ottenute risulta evidente che in diverse condizioni d’irraggiamento il sistema risponde con curve di Dose-Risposta differenti, pur restando nello stesso range di dose. Lo studio include verifiche sperimentali effettuate con l’OPTIVUE e usate per espletare alcuni controlli di qualità di tipo geometrico come la coincidenza campo luminoso – campo radiante e la verifica del corretto posizionamento delle lamelle del collimatore multilamellare. Le immagini portali acquisite verranno poi confrontate con quelle ottenute irraggiando tradizionalmente una CR (computed radiography), per la coincidenza e una pellicola radiocromica EBT 3, per l’MLC. I risultati ottenuti mostrano che, per il primo controllo, in entrambi i modi, si è avuta corrispondenza tra campo radiante e campo luminoso; il confronto fra le due metodiche di misura risulta consistente entro i valori di deviazioni standard calcolati, l’OPTIVUE può essere utilizzato efficacemente in tale controllo di qualità. Nel secondo controllo abbiamo ottenuto differenze negli errori di posizionamento delle lamelle individuati dai due sistemi di verifica dell’ordine di grandezza dei limiti di risoluzione spaziale. L’OPTIVUE è in grado di riconoscere errori di posizionamento preesistenti con un’incertezza che ha come limite la dimensione del pixel. Il sistema EPID, quindi, è efficace, affidabile, economico e rapido.