910 resultados para Termografia, super-risoluzione, super-resolution, dispositivo di micro-movimentazione, prove termografiche sperimentali su pistone
Resumo:
Nell’ambito del presente lavoro sperimentale sono state prese in considerazione differenti tecniche, tradizionali ed innovative, per la determinazione del contenuto di acqua presente negli oli extravergine di oliva. Seppur presente nell'olio in quantità limitata, l'acqua é in grado di favorire la dissoluzione e veicolare componenti minori idrofilici (come le molecole a struttura fenolica e polifenolica) all'interno di micelle inverse che si creano nella matrice lipidica quando alla superficie acqua-olio si aggregano composti anfifilici (come i digliceridi, i monogliceridi, gli acidi grassi liberi, i fosfolipidi etc.) che danno luogo alla formazione di aggregati colloidali. I risultati ottenuti su un set di 60 campioni hanno evidenziato come esistano correlazioni positive e soddisfacenti tra le diverse metodiche analitiche tradizionali quali la titolazione titrimetrica di Karl Fisher e quelle gravimetriche per essiccamento in stufa o mediante termobilancia. La migliore correlazione in termini di R2 con valore pari a circa 0,82 è stata ottenuta tra i metodi Karl Fisher ed essiccamento in stufa, mentre per esempio quella tra i due metodi gravimetrici (stufa e termobilancia) ha fatto registrare un valore inferiore (0,70). Pur essendosi verificate delle soddisfacenti correlazioni tra le tre tecniche tradizionali, i valori del contenuto in acqua dei campioni si sono presentati variabili in funzione dell'utilizzo di una modalità di misurazione rispetto all'altra. Tale variabilità é funzione di diversi fattori: la difficoltà di determinare l'acqua fortemente legata nel caso dei metodi per essiccamento; la perdita in peso causata anche da altri componenti in grado di volatilizzare alle condizioni analitiche adottate; la possibilità di formazione di composti non originariamente presenti come risultato di modificazioni chimiche indotte dall'elevata temperatura. Il contenuto di acqua è stato quindi stimato anche mediante una tecnica innovativa a basso costo basata su misure dielettriche. Considerato che l’olio extravergine di oliva è noto essere un ottimo isolante, il fenomeno dielettrico osservato risulta essere di natura capacitiva. Il risultato di correlazione ottenuto su un set di 23 oli extravergini di oliva applicando in parallelo questa tecnica rapida e la misura gravimetrica con stufa (che é un metodo ISO), è da considerarsi soddisfacente, con un R2 pari anche in questo caso a 0,82. In conclusione, le tecniche attualmente utilizzate per la determinazione del contenuto di acqua in oli extravergine di oliva risultano tra loro correlate. Considerando che tali tecniche tradizionali sono dispendiose o in termini di tempo (gravimetrico mediante stufa) o in termini di consumo di reagenti e solventi (titrimetrico con reattivo di Karl Fischer), il nuovo approccio sperimentato mediante misure capacitive può essere considerato molto interessante anche se, sicuramente, sarà da applicare ad un numero più ampio di campioni per rendere l'evidenza sperimentale più robusta.
Resumo:
Negli ultimi anni l'avanzamento della ricerca in campo crittografico ha portato alla necessità di utilizzare strumenti software per la verifica delle prove formali. EasyCrypt è un tool, in fase di sviluppo, ideato per dimostrazioni basate su sequenze di giochi. Nella presente tesi viene presentato un caso di studio riguardante l'applicabilità di EasyCrypt alle mixing networks (abbr. mixnets). è presente un'esaustiva rassegna delle mixnets proposte in letteratura ed è descritta la teoria alla base delle dimostrazioni critografiche basate su sequenze di giochi. EasyCrypt viene analizzato nei suoi fondamenti teorici nonché nelle applicazioni pratiche, con riferimento particolare agli esperimenti svolti per la dimostrazione di proprietà di sicurezza delle mixnets.
Resumo:
Nel corso degli anni diverse sono le tecniche proposte per il trattamento delle lesioni osteocondrali, da quelle mini-invasive con stimolazione midollare fino a quelle più aggressive basate sul trapianto di tessuti autologhi o eterologhi. Tutti questi metodi hanno comunque dei difetti ed è questo il motivo per cui il trattamento delle lesioni osteocondrali rappresenta tuttora una sfida per il chirurgo ortopedico, in considerazione dell’alta specializzazione e del basso potere di guarigione del tessuto cartilagineo. Buoni risultati sono stati ottenuti con innesti bioingegnerizzati o matrici polimeriche impiantati nei siti danneggiati. La quantità di scaffolds in uso per la riparazione condrale ed osteocondrale è molto ampia; essi differiscono non solo per il tipo di materiali usati per la loro realizzazione, ma anche per la presenza di promotori di una o più linee cellulari , su base condrogenica o osteogenica. Quando ci si approccia ad una lesione condrale di grandi dimensioni, l’osso sub-condrale è anch’esso coinvolto e necessita di trattamento per ottenere il corretto ripristino degli strati articolari più superficiali. La scelta più giusta sembra essere un innesto osteocondrale bioingegnerizzato, pronto per l’uso ed immediatamente disponibile, che consenta di effettuare il trattamento in un unico tempo chirurgico. Sulla base di questo razionale, dopo uno studio preclinico animale e previa autorizzazione del comitato etico locale, abbiamo condotto uno studio clinico clinico pilota utilizzando un nuovo innesto biomimetico nanostrutturato per il trattamento di lesioni condrali ed osteocondrali del ginocchio; la sua sicurezza e maneggevolezza, così come la facile riproducibilità della tecnica chirurgica ed i risultati clinici ottenuti sono stati valutati nel tempo a 6, 12, 24, 36 e 48 mesi dall’impianto in modo da testare il suo potenziale intrinseco senza l’aggiunta di alcuna linea cellulare.
Resumo:
Inflammation is thought to contribute to the pathogenesis of neurodegenerative diseases. Among the resident population of cells in the brain, astroglia have been suggested to actively participate in the induction and regulation of neuroinflammation by controlling the secretion of local mediators. However, the initial cellular mechanisms by which astrocytes react to pro-inflammatory molecules are still unclear. Our study identified mitochondria as highly sensitive organelles that rapidly respond to inflammatory stimuli. Time-lapse video microscopy revealed that mitochondrial morphology, dynamics and motility are drastically altered upon inflammation, resulting in perinuclear clustering of mitochondria. These mitochondrial rearrangements are accompanied by an increased formation of reactive oxygen species and a recruitment of autophagic vacuoles. 24 to 48 hours after the acute inflammatory stimulus, however, the mitochondrial network is re-established. Strikingly, the recovery of a tubular mitochondrial network is abolished in astrocytes with a defective autophagic response, indicating that activation of autophagy is required to restore mitochondrial dynamics. By employing co-cultivation assays we observed that primary cortical neurons undergo degeneration in the presence of inflamed astrocytes. However, this effect was not observed when the primary neurons were grown in conditioned medium derived from inflamed astrocytes, suggesting that a direct contact between astrocytes and neurons mediates neuronal dysfunction upon inflammation. Our results suggest that astrocytes react to inflammatory stimuli by transiently rearranging their mitochondria, a process that involves the autophagic machinery.
Resumo:
Al principio iura novit curia si assegnano tradizionalmente due significati: il giudice conosce le norme, quindi le parti non hanno onori al riguardo, e il giudice non è vincolato dalle indicazioni delle parti, quanto alle norme di diritto da applicare. La tesi delimita inizialmente la nozione di questione di diritto, quindi affronta partitamente due problemi che si pongono con riferimento alle questioni di diritto e che sono soliti essere risolti con il richiamo al principio iura novit curia: la conoscenza delle norme da una parte e la qualificazione giuridica della domanda e quindi della situazione soggettiva dall’altra. Quanto alla conoscenza delle norme, motivata la scelta per l’obbligatorietà della conoscenza ufficiosa di tutte le fonti di diritto, la tesi verifica la regola in relazione alle diverse fonti descrivendone la disciplina. Quanto alla qualificazione giuridica della domanda, la tesi, verificata la vigenza del principio iura novit curia, descrive sul piano processuale le relazioni del potere-dovere di qualificazione giuridica a) individuandone i limiti oggettivi, ricompresi nei limiti della domanda, e risultanti dal confronto con la regola della corrispondenza del chiesto con il pronunciato, del concorso di diritti, della natura autodeterminata dei diritti, b) tracciandone le modalità legittime di esercizio in conformità al principio del contradditorio; c) verificandone i limiti esterni, ravvisati in quegli istituti che impediscono al giudice di formulare un giudizio sulla questione di diritto: le sentenze non definitive su questioni di diritto, il principio di diritto, il giudicato interno e i limiti alla cognizione del giudice dell’impugnazione tra i gradi di giudizio.
Resumo:
The thesis aims at analysing the role of collective action as a viable alternative to the traditional forms of intervention in agriculture in order to encourage the provision of agri-environmental public goods. Which are the main benefits of collective action, in terms of effectiveness and efficiency, compared to traditional market or public intervention policies? What are the drivers that encourage farmers to participate into collective action? To what extent it is possible to incorporate collective aspects into policies aimed at providing agri-environmental public goods? With the objective of addressing these research questions, the thesis is articulated in two levels: a theoretical analysis on the role of collective action in the provision of public goods and a specific investigation of two local initiative,s were an approach collective management of agro-environmental resources was successfully implemented. The first case study concerns a project named “Custodians of the Territory”, developed by the local agency in Tuscany “Comunità Montana Media Valle del Serchio”, which settled for an agreement with local farmers for a collective provision of environmental services related to the hydro-geological management of the district. The second case study is related to the territorial agri-environmental agreement experimented in Valdaso (Marche), where local farmers have adopted integrated pest management practices collectively with the aim of reducing the environmental impact of their farming practices. The analysis of these initiatives, carried out through participatory methods (Rapid Rural Appraisal), allowed developing a theoretical discussion on the role of innovative tools (such as co-production and co-management) in the provision of agri-environmental public goods. The case studies also provided some recommendations on the government intervention and policies needed to promote successful collective action for the provision of agri-environmental public goods.
Resumo:
Al giorno d’oggi, la produzione di energia e di molecole di base per l’industria chimica è completamente dipendente da risorse non rinnovabili come petrolio, carbone e gas naturale ; con tali risorse in via di esaurimento e la sempre crescente domanda di energia e materiali da parte di tutte le economie, risulta obbligatorio sviluppare tecniche per la loro produzione da risorse rinnovabili. Le biomasse, oltre ad essere una fonte rinnovabile, generano minori emissioni di gas serra rispetto ai combustibili fossili, perché la CO2 rilasciata nei processi di utilizzo viene bilanciata da quella consumata nel processo di crescita delle biomasse stesse. Tuttavia, ad oggi, lo sfruttamento di queste fonti risulta ancora sfavorito economicamente a causa di processi industriali non ancora ottimizzati, i cui costi si ripercuotono sul prodotto finale. Le molecole derivanti dagli scarti lignocellulosici possono essere usate come molecole di partenza per industrie chimiche di qualsiasi tipo, da quelle farmaceutiche a quelle plastiche. Queste molecole sono già parzialmente funzionalizzate; ciò significa che la sintesi di prodotti chimici specifici richiede un minor numero di stadi rispetto ai building blocks petroliferi, con conseguente diminuzione di prodotti di scarto e sottoprodotti . Una delle molecole “piattaforma” identificate tra le più importanti per la produzione di diversi prodotti chimici, risulta essere il 5-idrossimetilfurfurale (HMF) , derivante dalla disidratazione di polisaccaridi esosi, da cui si può ottenere tramite ossidazione selettiva, l’acido 2,5-furandicarbossilico (FDCA), potenziale sostituto dell’acido tereftalico nella produzione del PET e molti altri prodotti. Lo scopo di questo lavoro di tesi è stato lo studio della reattività di catalizzatori a base di Pd e Au/Pd utilizzati nella reazione di ossidazione dell’HMF a FDCA. Il lavoro svolto ha avuto come obiettivi principali: • L’ottimizzazione della sintesi di nanoparticelle di Pd e Au/Pd a diverso rapporto molare, e la caratterizzazione delle sospensioni ottenute mediante analisi DLS, XRD e TEM. • La preparazione di catalizzatori supportati su TiO2 e la caratterizzazione dei catalizzatori ottenuti tramite analisi BET, TEM e analisi termiche TGA/DSC. • Lo studio dell’attività catalitica dei catalizzatori preparati nell’ossidazione selettiva in fase liquida del 5-idrossimetilfurfurale (HMF) ad acido 2,5-furandicarbossilico (FDCA) e del meccanismo di reazione.
Resumo:
Numerosi incidenti verificatisi negli ultimi dieci anni in campo chimico e petrolchimico sono dovuti all’innesco di sostanze infiammabili rilasciate accidentalmente: per questo motivo gli scenari incidentali legati ad incendi esterni rivestono oggigiorno un interesse crescente, in particolar modo nell’industria di processo, in quanto possono essere causa di ingenti danni sia ai lavoratori ed alla popolazione, sia alle strutture. Gli incendi, come mostrato da alcuni studi, sono uno dei più frequenti scenari incidentali nell’industria di processo, secondi solo alla perdita di contenimento di sostanze pericolose. Questi eventi primari possono, a loro volta, determinare eventi secondari, con conseguenze catastrofiche dovute alla propagazione delle fiamme ad apparecchiature e tubazioni non direttamente coinvolte nell’incidente primario; tale fenomeno prende il nome di effetto domino. La necessità di ridurre le probabilità di effetto domino rende la mitigazione delle conseguenze un aspetto fondamentale nella progettazione dell’impianto. A questo scopo si impiegano i materiali per la protezione passiva da fuoco (Passive Fire Protection o PFP); essi sono sistemi isolanti impiegati per proteggere efficacemente apparecchiature e tubazioni industriali da scenari di incendio esterno. L’applicazione dei materiali per PFP limita l’incremento di temperatura degli elementi protetti; questo scopo viene raggiunto tramite l’impiego di differenti tipologie di prodotti e materiali. Tuttavia l’applicazione dei suddetti materiali fireproofing non può prescindere da una caratterizzazione delle proprietà termiche, in particolar modo della conducibilità termica, in condizioni che simulino l’esposizione a fuoco. Nel presente elaborato di tesi si è scelto di analizzare tre materiali coibenti, tutti appartenenti, pur con diversità di composizione e struttura, alla classe dei materiali inorganici fibrosi: Fibercon Silica Needled Blanket 1200, Pyrogel®XT, Rockwool Marine Firebatt 100. I tre materiali sono costituiti da una fase solida inorganica, differente per ciascuno di essi e da una fase gassosa, preponderante come frazione volumetrica. I materiali inorganici fibrosi rivestono una notevole importanza rispetto ad altri materiali fireproofing in quanto possono resistere a temperature estremamente elevate, talvolta superiori a 1000 °C, senza particolari modifiche chimico-fisiche. Questo vantaggio, unito alla versatilità ed alla semplicità di applicazione, li rende leader a livello europeo nei materiali isolanti, con una fetta di mercato pari circa al 60%. Nonostante l’impiego dei suddetti materiali sia ormai una realtà consolidata nell’industria di processo, allo stato attuale sono disponibili pochi studi relativi alle loro proprietà termiche, in particolare in condizioni di fuoco. L’analisi sperimentale svolta ha consentito di identificare e modellare il comportamento termico di tali materiali in caso di esposizione a fuoco, impiegando nei test, a pressione atmosferica, un campo di temperatura compreso tra 20°C e 700°C, di interesse per applicazioni fireproofing. Per lo studio delle caratteristiche e la valutazione delle proprietà termiche dei tre materiali è stata impiegata principalmente la tecnica Transient Plane Source (TPS), che ha consentito la determinazione non solo della conducibilità termica, ma anche della diffusività termica e della capacità termica volumetrica, seppure con un grado di accuratezza inferiore. I test sono stati svolti su scala di laboratorio, creando un set-up sperimentale che integrasse opportunamente lo strumento Hot Disk Thermal Constants Analyzer TPS 1500 con una fornace a camera ed un sistema di acquisizione dati. Sono state realizzate alcune prove preliminari a temperatura ambiente sui tre materiali in esame, per individuare i parametri operativi (dimensione sensori, tempi di acquisizione, etc.) maggiormente idonei alla misura della conducibilità termica. Le informazioni acquisite sono state utilizzate per lo sviluppo di adeguati protocolli sperimentali e per effettuare prove ad alta temperatura. Ulteriori significative informazioni circa la morfologia, la porosità e la densità dei tre materiali sono state ottenute attraverso stereo-microscopia e picnometria a liquido. La porosità, o grado di vuoto, assume nei tre materiali un ruolo fondamentale, in quanto presenta valori compresi tra 85% e 95%, mentre la frazione solida ne costituisce la restante parte. Inoltre i risultati sperimentali hanno consentito di valutare, con prove a temperatura ambiente, l’isotropia rispetto alla trasmissione del calore per la classe di materiali coibenti analizzati, l’effetto della temperatura e della variazione del grado di vuoto (nel caso di materiali che durante l’applicazione possano essere soggetti a fenomeni di “schiacciamento”, ovvero riduzione del grado di vuoto) sulla conducibilità termica effettiva dei tre materiali analizzati. Analoghi risultati, seppure con grado di accuratezza lievemente inferiore, sono stati ottenuti per la diffusività termica e la capacità termica volumetrica. Poiché è nota la densità apparente di ciascun materiale si è scelto di calcolarne anche il calore specifico in funzione della temperatura, di cui si è proposto una correlazione empirica. I risultati sperimentali, concordi per i tre materiali in esame, hanno mostrato un incremento della conducibilità termica con la temperatura, da valori largamente inferiori a 0,1 W/(m∙K) a temperatura ambiente, fino a 0,3÷0,4 W/(m∙K) a 700°C. La sostanziale similitudine delle proprietà termiche tra i tre materiali, appartenenti alla medesima categoria di materiali isolanti, è stata riscontrata anche per la diffusività termica, la capacità termica volumetrica ed il calore specifico. Queste considerazioni hanno giustificato l’applicazione a tutti i tre materiali in esame dei medesimi modelli per descrivere la conducibilità termica effettiva, ritenuta, tra le proprietà fisiche determinate sperimentalmente, la più significativa nel caso di esposizione a fuoco. Lo sviluppo di un modello per la conducibilità termica effettiva si è reso necessario in quanto i risultati sperimentali ottenuti tramite la tecnica Transient Plane Source non forniscono alcuna informazione sui contributi offerti da ciascun meccanismo di scambio termico al termine complessivo e, pertanto, non consentono una facile generalizzazione della proprietà in funzione delle condizioni di impiego del materiale. La conducibilità termica dei materiali coibenti fibrosi e in generale dei materiali bi-fasici tiene infatti conto in un unico valore di vari contributi dipendenti dai diversi meccanismi di scambio termico presenti: conduzione nella fase gassosa e nel solido, irraggiamento nelle superfici delle cavità del solido e, talvolta, convezione; inoltre essa dipende fortemente dalla temperatura e dalla porosità. Pertanto, a partire dal confronto con i risultati sperimentali, tra cui densità e grado di vuoto, l’obiettivo centrale della seconda fase del progetto è stata la scelta, tra i numerosi modelli a disposizione in letteratura per materiali bi-fasici, di cui si è presentata una rassegna, dei più adatti a descrivere la conducibilità termica effettiva nei materiali in esame e nell’intervallo di temperatura di interesse, fornendo al contempo un significato fisico ai contributi apportati al termine complessivo. Inizialmente la scelta è ricaduta su cinque modelli, chiamati comunemente “modelli strutturali di base” (Serie, Parallelo, Maxwell-Eucken 1, Maxwell-Eucken 2, Effective Medium Theory) [1] per la loro semplicità e versatilità di applicazione. Tali modelli, puramente teorici, hanno mostrato al raffronto con i risultati sperimentali numerosi limiti, in particolar modo nella previsione del termine di irraggiamento, ovvero per temperature superiori a 400°C. Pertanto si è deciso di adottare un approccio semi-empirico: è stato applicato il modello di Krischer [2], ovvero una media pesata su un parametro empirico (f, da determinare) dei modelli Serie e Parallelo, precedentemente applicati. Anch’esso si è rivelato non idoneo alla descrizione dei materiali isolanti fibrosi in esame, per ragioni analoghe. Cercando di impiegare modelli caratterizzati da forte fondamento fisico e grado di complessità limitato, la scelta è caduta sui due recenti modelli, proposti rispettivamente da Karamanos, Papadopoulos, Anastasellos [3] e Daryabeigi, Cunnington, Knutson [4] [5]. Entrambi presentavano il vantaggio di essere stati utilizzati con successo per materiali isolanti fibrosi. Inizialmente i due modelli sono stati applicati con i valori dei parametri e le correlazioni proposte dagli Autori. Visti gli incoraggianti risultati, a questo primo approccio è seguita l’ottimizzazione dei parametri e l’applicazione di correlazioni maggiormente idonee ai materiali in esame, che ha mostrato l’efficacia dei modelli proposti da Karamanos, Papadopoulos, Anastasellos e Daryabeigi, Cunnington, Knutson per i tre materiali analizzati. Pertanto l’obiettivo finale del lavoro è stato raggiunto con successo in quanto sono stati applicati modelli di conducibilità termica con forte fondamento fisico e grado di complessità limitato che, con buon accordo ai risultati sperimentali ottenuti, consentono di ricavare equazioni predittive per la stima del comportamento, durante l’esposizione a fuoco, dei materiali fireproofing in esame. Bologna, Luglio 2013 Riferimenti bibliografici: [1] Wang J., Carson J.K., North M.F., Cleland D.J., A new approach to modelling the effective thermal conductivity of heterogeneous materials. International Journal of Heat and Mass Transfer 49 (2006) 3075-3083. [2] Krischer O., Die wissenschaftlichen Grundlagen der Trocknungstechnik (The Scientific Fundamentals of Drying Technology), Springer-Verlag, Berlino, 1963. [3] Karamanos A., Papadopoulos A., Anastasellos D., Heat Transfer phenomena in fibrous insulating materials. (2004) Geolan.gr http://www.geolan.gr/sappek/docs/publications/article_6.pdf Ultimo accesso: 1 Luglio 2013. [4] Daryabeigi K., Cunnington G. R., and Knutson J. R., Combined Heat Transfer in High-Porosity High-Temperature Fibrous Insulation: Theory and Experimental Validation. Journal of Thermophysics and Heat Transfer 25 (2011) 536-546. [5] Daryabeigi K., Cunnington G.R., Knutson J.R., Heat Transfer Modeling for Rigid High-Temperature Fibrous Insulation. Journal of Thermophysics and Heat Transfer. AIAA Early Edition/1 (2012).
Resumo:
This thesis provides an experimental analysis of the effectiveness of oriented DBD plasma actuators over a NACA 0015 airfoil at low Reynolds numbers. Tests were performed in partnership with the Department of Electrical Engineering of Bologna University, in the wind tunnel of the Applied Aerodynamics Laboratory of Aerospace Engineering faculty. Lift coefficient measurements were carried out in order to verify how an oriented plasma jet succeeds in prevent boundary layer separation. Both actuators’ chord wise position and plasma jet orientation angle have been investigated to examine which configurations lead to the best results. A particular attention has been paid also to the analysis of results in steady and unsteady plasma actuation. Questa tesi offre un’analisi sperimentale sull’efficacia di attuatori al plasma orientabili, basati su una tecnologia DBD, installati su un profilo alare NACA 0015, a bassi numeri di Reynolds. Le prove sono state condotte in collaborazione con il Dipartimento di Ingegneria Elettrica dell’Università di Bologna, nella galleria del vento del Laboratorio di Aerodinamica Applicata della Facoltà di Ingegneria Aerospaziale di Forlì. Per verificare come un getto orientabile di plasma riesca a prevenire la separazione dello strato limite, sono state eseguite misure sul coefficiente di portanza. Sono state indagate sia la posizione degli attuatori lungo la corda che l’angolo con cui è orientato il getto di plasma, per vedere quali configurazioni conducono ai migliori risultati. Una particolare attenzione è stata riservata all’analisi dei risultati ottenuti con plasma continuo e pulsato.
Resumo:
This thesis investigates two distinct research topics. The main topic (Part I) is the computational modelling of cardiomyocytes derived from human stem cells, both embryonic (hESC-CM) and induced-pluripotent (hiPSC-CM). The aim of this research line lies in developing models of the electrophysiology of hESC-CM and hiPSC-CM in order to integrate the available experimental data and getting in-silico models to be used for studying/making new hypotheses/planning experiments on aspects not fully understood yet, such as the maturation process, the functionality of the Ca2+ hangling or why the hESC-CM/hiPSC-CM action potentials (APs) show some differences with respect to APs from adult cardiomyocytes. Chapter I.1 introduces the main concepts about hESC-CMs/hiPSC-CMs, the cardiac AP, and computational modelling. Chapter I.2 presents the hESC-CM AP model, able to simulate the maturation process through two developmental stages, Early and Late, based on experimental and literature data. Chapter I.3 describes the hiPSC-CM AP model, able to simulate the ventricular-like and atrial-like phenotypes. This model was used to assess which currents are responsible for the differences between the ventricular-like AP and the adult ventricular AP. The secondary topic (Part II) consists in the study of texture descriptors for biological image processing. Chapter II.1 provides an overview on important texture descriptors such as Local Binary Pattern or Local Phase Quantization. Moreover the non-binary coding and the multi-threshold approach are here introduced. Chapter II.2 shows that the non-binary coding and the multi-threshold approach improve the classification performance of cellular/sub-cellular part images, taken from six datasets. Chapter II.3 describes the case study of the classification of indirect immunofluorescence images of HEp2 cells, used for the antinuclear antibody clinical test. Finally the general conclusions are reported.
Resumo:
The cardiomyocyte is a complex biological system where many mechanisms interact non-linearly to regulate the coupling between electrical excitation and mechanical contraction. For this reason, the development of mathematical models is fundamental in the field of cardiac electrophysiology, where the use of computational tools has become complementary to the classical experimentation. My doctoral research has been focusing on the development of such models for investigating the regulation of ventricular excitation-contraction coupling at the single cell level. In particular, the following researches are presented in this thesis: 1) Study of the unexpected deleterious effect of a Na channel blocker on a long QT syndrome type 3 patient. Experimental results were used to tune a Na current model that recapitulates the effect of the mutation and the treatment, in order to investigate how these influence the human action potential. Our research suggested that the analysis of the clinical phenotype is not sufficient for recommending drugs to patients carrying mutations with undefined electrophysiological properties. 2) Development of a model of L-type Ca channel inactivation in rabbit myocytes to faithfully reproduce the relative roles of voltage- and Ca-dependent inactivation. The model was applied to the analysis of Ca current inactivation kinetics during normal and abnormal repolarization, and predicts arrhythmogenic activity when inhibiting Ca-dependent inactivation, which is the predominant mechanism in physiological conditions. 3) Analysis of the arrhythmogenic consequences of the crosstalk between β-adrenergic and Ca-calmodulin dependent protein kinase signaling pathways. The descriptions of the two regulatory mechanisms, both enhanced in heart failure, were integrated into a novel murine action potential model to investigate how they concur to the development of cardiac arrhythmias. These studies show how mathematical modeling is suitable to provide new insights into the mechanisms underlying cardiac excitation-contraction coupling and arrhythmogenesis.
Resumo:
Procedures for quantitative walking analysis include the assessment of body segment movements within defined gait cycles. Recently, methods to track human body motion using inertial measurement units have been suggested. It is not known if these techniques can be readily transferred to clinical measurement situations. This work investigates the aspects necessary for one inertial measurement unit mounted on the lower back to track orientation, and determine spatio-temporal features of gait outside the confines of a conventional gait laboratory. Apparent limitations of different inertial sensors can be overcome by fusing data using methods such as a Kalman filter. The benefits of optimizing such a filter for the type of motion are unknown. 3D accelerations and 3D angular velocities were collected for 18 healthy subjects while treadmill walking. Optimization of Kalman filter parameters improved pitch and roll angle estimates when compared to angles derived using stereophotogrammetry. A Weighted Fourier Linear Combiner method for estimating 3D orientation angles by constructing an analytical representation of angular velocities and allowing drift free integration is also presented. When tested this method provided accurate estimates of 3D orientation when compared to stereophotogrammetry. Methods to determine spatio-temporal features from lower trunk accelerations generally require knowledge of sensor alignment. A method was developed to estimate the instants of initial and final ground contact from accelerations measured by a waist mounted inertial device without rigorous alignment. A continuous wavelet transform method was used to filter and differentiate the signal and derive estimates of initial and final contact times. The technique was tested with data recorded for both healthy and pathologic (hemiplegia and Parkinson’s disease) subjects and validated using an instrumented mat. The results show that a single inertial measurement unit can assist whole body gait assessment however further investigation is required to understand altered gait timing in some pathological subjects.
Resumo:
La presenza di materia oscura nell'universo venne ipotizzata negli anni '30 a seguito di alcune anomalie nei risultati sperimentali ottenuti in astrofisica e cosmologia. La distribuzione di materia ottenuta non concordava infatti con i dati provenienti dalle osservazioni astronomiche e gli scienziati ipotizzarono l'esistenza di un tipo di materia, denominata appunto materia oscura, che interagisse debolmente con la radiazione elettromagnetica e fosse quindi interamente invisibile ai telescopi, sia che fossero a radiofrequenze che operanti nel campo del visibile o con raggi gamma e X, ma che producesse effetti gravitazionali. Nel corso degli anni si sono aggiunte ulteriori evidenze a sostegno dell'esistenza di materia oscura, provenienti anche dallo studio della cosmologia, e numerosi esperimenti (tra cui XENON, IGEX, DAMA/LIBRA) sono stati condotti per cercare di determinare tipo e massa delle particelle o la loro abbondanza (PLANCK). Il lavoro di questa tesi consiste in uno studio delle interazioni dei neutroni con lo xenon per l'esperimento XENON1T. I neutroni costituiscono un fondo particolarmente pericoloso per l'esperimento, in quanto producono uno scattering direttamente sul nucleo allo stesso modo delle particelle di materia oscura. Nel lavoro svolto sono state dapprima analizzate le caratteristiche delle singole interazioni con lo xenon contenuto nella camera, per poi passare ad uno studio più specifico sul comportamento dei neutroni prodotti dai fotomoltiplicatori del rivelatore. In seguito alle analisi svolte è stato possibile caratterizzare il fondo di neutroni in modo più preciso, permettendo di determinare alcuni criteri di selezione per il loro riconoscimento.
Resumo:
L'innovazione delle tecnologie di sequenziamento negli ultimi anni ha reso possibile la catalogazione delle varianti genetiche nei campioni umani, portando nuove scoperte e comprensioni nella ricerca medica, farmaceutica, dell'evoluzione e negli studi sulla popolazione. La quantità di sequenze prodotta è molto cospicua, e per giungere all'identificazione delle varianti sono necessari diversi stadi di elaborazione delle informazioni genetiche in cui, ad ogni passo, vengono generate ulteriori informazioni. Insieme a questa immensa accumulazione di dati, è nata la necessità da parte della comunità scientifica di organizzare i dati in repository, dapprima solo per condividere i risultati delle ricerche, poi per permettere studi statistici direttamente sui dati genetici. Gli studi su larga scala coinvolgono quantità di dati nell'ordine dei petabyte, il cui mantenimento continua a rappresentare una sfida per le infrastrutture. Per la varietà e la quantità di dati prodotti, i database giocano un ruolo di primaria importanza in questa sfida. Modelli e organizzazione dei dati in questo campo possono fare la differenza non soltanto per la scalabilità, ma anche e soprattutto per la predisposizione al data mining. Infatti, la memorizzazione di questi dati in file con formati quasi-standard, la dimensione di questi file, e i requisiti computazionali richiesti, rendono difficile la scrittura di software di analisi efficienti e scoraggiano studi su larga scala e su dati eterogenei. Prima di progettare il database si è perciò studiata l’evoluzione, negli ultimi vent’anni, dei formati quasi-standard per i flat file biologici, contenenti metadati eterogenei e sequenze nucleotidiche vere e proprie, con record privi di relazioni strutturali. Recentemente questa evoluzione è culminata nell’utilizzo dello standard XML, ma i flat file delimitati continuano a essere gli standard più supportati da tools e piattaforme online. È seguita poi un’analisi dell’organizzazione interna dei dati per i database biologici pubblici. Queste basi di dati contengono geni, varianti genetiche, strutture proteiche, ontologie fenotipiche, relazioni tra malattie e geni, relazioni tra farmaci e geni. Tra i database pubblici studiati rientrano OMIM, Entrez, KEGG, UniProt, GO. L'obiettivo principale nello studio e nella modellazione del database genetico è stato quello di strutturare i dati in modo da integrare insieme i dati eterogenei prodotti e rendere computazionalmente possibili i processi di data mining. La scelta di tecnologia Hadoop/MapReduce risulta in questo caso particolarmente incisiva, per la scalabilità garantita e per l’efficienza nelle analisi statistiche più complesse e parallele, come quelle riguardanti le varianti alleliche multi-locus.
Resumo:
La tesi affronta il concetto di esposizione al rischio occupazionale e il suo scopo è quello di indagare l’ambiente di lavoro e il comportamento dei lavoratori, con l'obiettivo di ridurre il tasso di incidenza degli infortuni sul lavoro ed eseguire la riduzione dei rischi. In primo luogo, è proposta una nuova metodologia denominata MIMOSA (Methodology for the Implementation and Monitoring of Occupational SAfety), che quantifica il livello di "salute e sicurezza" di una qualsiasi impresa. Al fine di raggiungere l’obiettivo si è reso necessario un approccio multidisciplinare in cui concetti d’ingegneria e di psicologia sono stati combinati per sviluppare una metodologia di previsione degli incidenti e di miglioramento della sicurezza sul lavoro. I risultati della sperimentazione di MIMOSA hanno spinto all'uso della Logica Fuzzy nel settore della sicurezza occupazionale per migliorare la metodologia stessa e per superare i problemi riscontrati nell’incertezza della raccolta dei dati. La letteratura mostra che i fattori umani, la percezione del rischio e il comportamento dei lavoratori in relazione al rischio percepito, hanno un ruolo molto importante nella comparsa degli incidenti. Questa considerazione ha portato ad un nuovo approccio e ad una seconda metodologia che consiste nella prevenzione di incidenti, non solo sulla base dell'analisi delle loro dinamiche passate. Infatti la metodologia considera la valutazione di un indice basato sui comportamenti proattivi dei lavoratori e sui danni potenziali degli eventi incidentali evitati. L'innovazione consiste nell'applicazione della Logica Fuzzy per tener conto dell’"indeterminatezza" del comportamento umano e del suo linguaggio naturale. In particolare l’applicazione è incentrata sulla proattività dei lavoratori e si prefigge di impedire l'evento "infortunio", grazie alla generazione di una sorta d’indicatore di anticipo. Questa procedura è stata testata su un’azienda petrolchimica italiana.