974 resultados para diffusione anelastica, Compton, apparato sperimentale
Resumo:
L’acquifero freatico costiero ravennate è intensamente salinizzato fino a diversi km nell’entroterra. Il corpo dell’acquifero è formato da sabbie che poggiano su un substrato argilloso ad una profondità media di 25 m, i depositi affioranti sono sabbie e argille. Il lavoro svolto consiste in una caratterizzazione dello stato di salinizzazione con metodologie indirette (geoelettrica) e metodologie dirette (letture dei parametri fisici delle acque in pozzo). I sondaggi elettrici verticali (V.E.S.) mostrano stagionalità dovuta alle differenti quantità di pioggia e quindi di ricarica, le aree con depositi superficiali ad alta conducibilità idraulica (sabbie) hanno una lente d’acqua dolce compresa tra 0,1 e 2,25 m di spessore, al di sotto della quale troviamo una zona di mescolamento con spessori che vanno da 1,00 a 12,00 m, mentre quando in superficie abbiamo depositi a bassa conducibilità idraulica (limi sabbiosi e argille sabbiose) la lente d’acqua dolce scompare e la zona di mescolamento è sottile. Le misure dirette in pozzo mostrano una profondità della tavola d’acqua quasi ovunque sotto il livello del mare in entrambi i mesi monitorati, Giugno e Dicembre 2010, presentando una profondità leggermente maggiore nel mese di Dicembre. Dalla ricostruzione litologica risulta un acquifero composto da 4×109 m3 di sabbia, per cui ipotizzando una porosità media del 30% sono presenti 1,2×109 m3 di acqua. Dalla modellazione numerica (Modflow-SEAWAT 2000) risulta che l’origine dell’acqua salata che si trova in falda trova più facilmente spiegazione ipotizzando la sua presenza fin dalla formazione dell’acquifero, residuo delle acque marine che regredivano. Un’altra problematica analizzata è valutare l’applicazione della metodologia a minifiltri in uno studio sulla salinizzazione delle acque di falda. É stata implementata la costruzione di un transetto sperimentale, che ha permesso la mappatura dell’interfaccia acqua dolce/salmastra/salata con una precisione finora non raggiungibile.
Resumo:
Background: Lymphangioleiomyomatosis (LAM), a rare progressive disease, is characterized by the proliferation of abnormal smooth muscle cells (LAM cells) in the lung, which leads to cystic parenchymal destruction and progressive respiratory failure. Estrogen receptors are present in LAM cells. LAM affects almost exclusively women of childbearing age. These findings, along with reports of disease progression during pregnancy or treatment with exogenous estrogens, have led to the assumption that hormonal factors play an important role in the pathogenesis of LAM. So, various therapies aim at preventing estrogen receptors (ER) by lowering circulating estrogen levels, by trying to block ER activity, or by attempting to lower ER expression in LAM. Prior experience have yielded conflicting results. Objective: The goal of this study was to evaluate, retrospectively, the effect of estrogen suppression in 21 patients with LAM. Design: We evaluated hormonal assays, pulmonary function tests and gas-exchange at baseline and after 12, 24 and 36 months after initiating hormonal manipulation. Results: The mean yearly rates of decline in FEV1 and DLCO are lower than those observed in prior studies and just DLCO decline was statistically significant. We also found an improvement of mean value of FVC and PaO2. Conclusions: Estrogen suppression appears to prevent decline in lung function in LAM.
Resumo:
Lung ultrasound use is increasing in respiratory medicine thanks to its development in the latest years. Actually it allows to study diseases of the chest wall (traumas, infections, neoplasms), diaphragm (paralysis, ipokinesis), pleura (effusions, pneumothorax, thickenings, neoplasms) and lung parenchyma (consolidations, interstitial syndromes, peripheral lesions). One of the most useful application of chest ultrasound is the evaluation of effusions. However, no standardized approach for ultrasound-guided thoracenthesis is available. Our study showed that our usual ultrasonographic landmark (“V-point”) could be a standard site to perform thoracenthesis: in 45 thoracenthesis no pneumothorax occurred, drainage was always successful at first attempt. Values of maximum thickness at V-point and drained fluid volume showed a significative correlation. Proteins concentration of ultrasound patterns of effusions (anechoic, ipoechoic, moving echoic spots, dense moving spots, hyperechoic) were compared to those of the macroscopic features of fluids showing connection between light-yellow fluid and echoic moving spots pattern and between ipoechoic/dense moving spots and cloudy-yellow/serum-haematic fluids. These observations suggest that ultrasound could predict chemical-physical features of effusions. Lung ultrasound provides useful information about many disease of the lung, but actually there is not useful in obstructive bronchial diseases. Analysing diaphragmatic kinetics using M-mode through transhepatic scan we described a similarity between diaphragm excursion during an expiratory forced maneuver and the volume/time curve of spirometry. This allowed us to identify the M-mode Index of Obstruction (MIO), an ultrasound-analogue of FEV1/VC. We observed MIO values of normal subjects (9) and obstructed patients (9) comparing the two groups. FEV1/VC and MIO showed a significant correlation suggesting that MIO may be affected by airways obstruction; MIO values were significatively different between normal and obstructed so that it could identify an obstructive syndrome. The data show that it is possible to suspect the presence of obstructive syndrome of the airways using ultrasonography of the diaphragm.
Resumo:
CD33 is a myeloid cell surface marker absent on normal hematopoietic stem cells and normal tissues but present on leukemic blasts in 90% of adult and paediatric acute myeloid leukaemia (AML) cases. By virtue of its expression pattern and its ability to be rapidly internalized after antibody binding, CD33 has become an attractive target for new immunotherapeutic approaches to treat AML. In this study two immunoconjugates were constructed to contain a humanised single-chain fragment variable antibody (scFv) against CD33 in order to create new antibody-derived therapeutics for AML. The first immunoconjugate was developed to provide targeted delivery of siRNAs as death effectors into leukemic cells. To this purpose, a CD33-specific scFv, modified to include a Cys residue at its C-terminal end (scFvCD33-Cys), was coupled through a disulphide bridge to a nona-d-arginine (9R) peptide carrying a free Cys to the N-terminal. The scFvCD33-9R was able to completely bind siRNAs at a protein to nucleic acid ratio of about 10:1, as confirmed by electrophoretic gel mobility-shift assay. The conjugate was unable to efficiently transduce cytotoxic siRNA (siTox) into the human myeloid cell line U937. We observed slight reductions in cell viability, with a reduction of 25% in comparison to the control group only at high concentration of siTox (300 nM). The second immunoconjugate was constructed by coupling the scFvCD33-Cys to the type 1 ribosome inactivating protein Dianthin 30 (DIA30) through a chemical linking The resulting immunotoxin scFvCD33-DIA30 caused the rapid arrest of protein synthesis, inducing apoptosis and leading ultimately to cell death. In vitro dose-dependent cytotoxicity assays demonstrated that scFvCD33-DIA30 was specifically toxic to CD33-positive cell U937. The concentration needed to reach 50 % of maximum killing efficiency (EC50) was approximately 0.3 nM. The pronounced antigen-restricted cytotoxicity of this novel agent makes it a candidate for further evaluation of its therapeutic potential.
Resumo:
La studio dell’efficienza di un indice azionario ha accresciuto la propria importanza nell’industria dell’asset management a seguito della diffusione dell’utilizzo di benchmark e investimenti indicizzati. Il presente lavoro valuta il livello di efficienza dei principali indici del mercato azionario statunitense, dell’Area Euro e italiano. Lo studio empirico ricorre a quattro misure di efficienza: il GRS, un test small-sample multivariato fondato sul CAPM; il test large sample di Wald, implementato tramite una simulazione bootstrap; il test GMM, che è stato applicato in una cornice non-gaussiana attraverso una simulazione block bootstrap; la misura di efficienza relativa di Kandel e Stambaugh. I risultati empirici forniscono una prova evidente della superiore efficienza degli indici equiponderati. Questa conclusione è interpretata sulla base della letteratura scientifica esistente, analizzando le diverse cause di ordine teorico ed empirico che sono state proposte.
Resumo:
E’ mostrata l’analisi e la modellazione di dati termocronologici di bassa temperatura da due regioni Alpine: il Sempione ed il Brennero. Le faglie distensive presenti bordano settori crostali profondi appartenenti al dominio penninico: il duomo metamorfico Lepontino al Sempione e la finestra dei Tauri al Brennero. I dati utilizzati sono FT e (U-Th)/He su apatite. Per il Sempione i dati provengono dalla bibliografia; per il Brennero si è provveduto ad un nuovo campionamento, sia in superficie che in sotterraneo. Gli attuali lavori per la galleria di base del Brennero (BBT), hanno consentito, per la prima volta, di raccogliere dati di FT e (U-Th)/He in apatite in sottosuolo per la finestra dei Tauri occidentale. Le analisi sono state effettuate tramite un codice a elementi finiti, Pecube, risolvente l’equazione di diffusione del calore per una topografia evolvente nel tempo. Il codice è stato modificato per tener conto dei dati sotterranei. L’inversione dei dati è stata effettuata usando il Neighbourhood Algorithm (NA), per ottenere il più plausibile scenario di evoluzione morfotettonico. I risultati ottenuti per il Sempione mostrano: ipotetica evoluzione dello stile tettonico della faglia del Sempione da rolling hinge a low angle detachment a 6.5 Ma e la cessazione dell’attività a 3 Ma; costruzione del rilievo fino a 5.5 Ma, smantellamento da 5.5 Ma ad oggi, in coincidenza dei cambiamenti climatici Messiniani e relativi all’inizio delle maggiori glaciazioni; incremento dell’esumazione da 0–0.6 mm/anno a 0.6–1.2 mm/anno a 2.4 Ma nell’emisfero settentrionale. I risultati al Brennero mostrano: maggiore attività tettonica della faglia del Brennero (1.3 mm/anno), maggiore attività esumativa (1–2 mm/anno) prima dei 10 Ma; crollo dell’attività della faglia del Brennero fra 10 Ma e oggi (0.1 mm/anno) e dell’attività esumativa nello stesso periodo (0.1–0.3 mm/anno); nessun aumento del tasso esumativo o variazioni topografiche negli ultimi 5 Ma.
Resumo:
L’attività di ricerca contenuta in questa tesi si è concentrata nello sviluppo e nell’implementazione di tecniche per la co-simulazione e il co-progetto non lineare/elettromagnetico di sistemi wireless non convenzionali. Questo lavoro presenta un metodo rigoroso per considerare le interazioni tra due sistemi posti sia in condizioni di campo vicino che in condizioni di campo lontano. In sostanza, gli effetti del sistema trasmittente sono rappresentati da un generatore equivalente di Norton posto in parallelo all’antenna del sistema ricevente, calcolato per mezzo del teorema di reciprocità e del teorema di equivalenza. La correttezza del metodo è stata verificata per mezzo di simulazioni e misure, concordi tra loro. La stessa teoria, ampliata con l’introduzione degli effetti di scattering, è stata usata per valutare una condizione analoga, dove l’elemento trasmittente coincide con quello ricevente (DIE) contenuto all’interno di una struttura metallica (package). I risultati sono stati confrontati con i medesimi ottenibili tramite tecniche FEM e FDTD/FIT, che richiedono tempi di simulazione maggiori di un ordine di grandezza. Grazie ai metodi di co-simulazione non lineari/EM sopra esposti, è stato progettato e verificato un sistema di localizzazione e identificazione di oggetti taggati posti in ambiente indoor. Questo è stato ottenuto dotando il sistema di lettura, denominato RID (Remotely Identify and Detect), di funzioni di scansione angolare e della tecnica di RADAR mono-pulse. Il sistema sperimentale, creato con dispositivi low cost, opera a 2.5 GHz ed ha le dimensioni paragonabili ad un normale PDA. E’ stato sperimentata la capacità del RID di localizzare, in scenari indoor, oggetti statici e in movimento.
Resumo:
"I computer del nuovo millennio saranno sempre più invisibili, o meglio embedded, incorporati agli oggetti, ai mobili, anche al nostro corpo. L'intelligenza elettronica sviluppata su silicio diventerà sempre più diffusa e ubiqua. Sarà come un'orchestra di oggetti interattivi, non invasivi e dalla presenza discreta, ovunque". [Mark Weiser, 1991] La visione dell'ubiquitous computing, prevista da Weiser, è ormai molto vicina alla realtà e anticipa una rivoluzione tecnologica nella quale l'elaborazione di dati ha assunto un ruolo sempre più dominante nella nostra vita quotidiana. La rivoluzione porta non solo a vedere l'elaborazione di dati come un'operazione che si può compiere attraverso un computer desktop, legato quindi ad una postazione fissa, ma soprattutto a considerare l'uso della tecnologia come qualcosa di necessario in ogni occasione, in ogni luogo e la diffusione della miniaturizzazione dei dispositivi elettronici e delle tecnologie di comunicazione wireless ha contribuito notevolmente alla realizzazione di questo scenario. La possibilità di avere a disposizione nei luoghi più impensabili sistemi elettronici di piccole dimensioni e autoalimentati ha contribuito allo sviluppo di nuove applicazioni, tra le quali troviamo le WSN (Wireless Sensor Network), ovvero reti formate da dispositivi in grado di monitorare qualsiasi grandezza naturale misurabile e inviare i dati verso sistemi in grado di elaborare e immagazzinare le informazioni raccolte. La novità introdotta dalle reti WSN è rappresentata dalla possibilità di effettuare monitoraggi con continuità delle più diverse grandezze fisiche, il che ha consentito a questa nuova tecnologia l'accesso ad un mercato che prevede una vastità di scenari indefinita. Osservazioni estese sia nello spazio che nel tempo possono essere inoltre utili per poter ricavare informazioni sull'andamento di fenomeni naturali che, se monitorati saltuariamente, non fornirebbero alcuna informazione interessante. Tra i casi d'interesse più rilevanti si possono evidenziare: - segnalazione di emergenze (terremoti, inondazioni) - monitoraggio di parametri difficilmente accessibili all'uomo (frane, ghiacciai) - smart cities (analisi e controllo di illuminazione pubblica, traffico, inquinamento, contatori gas e luce) - monitoraggio di parametri utili al miglioramento di attività produttive (agricoltura intelligente, monitoraggio consumi) - sorveglianza (controllo accessi ad aree riservate, rilevamento della presenza dell'uomo) Il vantaggio rappresentato da un basso consumo energetico, e di conseguenza un tempo di vita della rete elevato, ha come controparte il non elevato range di copertura wireless, valutato nell'ordine delle decine di metri secondo lo standard IEEE 802.15.4. Il monitoraggio di un'area di grandi dimensioni richiede quindi la disposizione di nodi intermedi aventi le funzioni di un router, il cui compito sarà quello di inoltrare i dati ricevuti verso il coordinatore della rete. Il tempo di vita dei nodi intermedi è di notevole importanza perché, in caso di spegnimento, parte delle informazioni raccolte non raggiungerebbero il coordinatore e quindi non verrebbero immagazzinate e analizzate dall'uomo o dai sistemi di controllo. Lo scopo di questa trattazione è la creazione di un protocollo di comunicazione che preveda meccanismi di routing orientati alla ricerca del massimo tempo di vita della rete. Nel capitolo 1 vengono introdotte le WSN descrivendo caratteristiche generali, applicazioni, struttura della rete e architettura hardware richiesta. Nel capitolo 2 viene illustrato l'ambiente di sviluppo del progetto, analizzando le piattaforme hardware, firmware e software sulle quali ci appoggeremo per realizzare il progetto. Verranno descritti anche alcuni strumenti utili per effettuare la programmazione e il debug della rete. Nel capitolo 3 si descrivono i requisiti di progetto e si realizza una mappatura dell'architettura finale. Nel capitolo 4 si sviluppa il protocollo di routing, analizzando i consumi e motivando le scelte progettuali. Nel capitolo 5 vengono presentate le interfacce grafiche utilizzate utili per l'analisi dei dati. Nel capitolo 6 vengono esposti i risultati sperimentali dell'implementazione fissando come obiettivo il massimo lifetime della rete.
Resumo:
Introduction. Down Syndrome (DS) is the most known autosomal trisomy, due to the presence in three copies of chromosome 21. Many studies were designed to identify phenotypic and clinical consequences related to the triple gene dosage. However, the general conclusion is a senescent phenotype; in particular, the most features of physiological aging, such as skin and hair changes, vision and hearing impairments, thyroid dysfunction, Alzheimer-like dementia, congenital heart defects, gastrointestinal malformations, immune system changes, appear in DS earlier than in normal age-matched subjects. The only established risk factor for the DS is advanced maternal age, responsible for changes in the meiosis of oocytes, in particular the meiotic nondisjunction of chromosome 21. In this process mitochondria play an important role since mitochondrial dysfunction, due to a variety of extrinsic and intrinsic influences, can profoundly influence the level of ATP generation in oocytes, required for a correct chromosomal segregation. Aim. The aim of this study is to investigate an integrated set of molecular genetic parameters (sequencing of complete mtDNA, heteroplasmy of the mtDNA control region, genotypes of APOE gene) in order to identify a possible association with the early neurocognitive decline observed in DS. Results. MtDNA point mutations do not accumulate with age in our study sample and do not correlate with early neurocognitive decline of DS subjects. It seems that D-loop heteroplasmy is largely not inherited and tends to accumulate somatically. Furthermore, in our study sample no association of cognitive impairment and ApoE genotype is found. Conclusions. Overall, our data cast some doubts on the involvement of these mutations in the decline of cognitive functions observed in DS.
Resumo:
Photovoltaic (PV) conversion is the direct production of electrical energy from sun without involving the emission of polluting substances. In order to be competitive with other energy sources, cost of the PV technology must be reduced ensuring adequate conversion efficiencies. These goals have motivated the interest of researchers in investigating advanced designs of crystalline silicon solar (c-Si) cells. Since lowering the cost of PV devices involves the reduction of the volume of semiconductor, an effective light trapping strategy aimed at increasing the photon absorption is required. Modeling of solar cells by electro-optical numerical simulation is helpful to predict the performance of future generations devices exhibiting advanced light-trapping schemes and to provide new and more specific guidelines to industry. The approaches to optical simulation commonly adopted for c-Si solar cells may lead to inaccurate results in case of thin film and nano-stuctured solar cells. On the other hand, rigorous solvers of Maxwell equations are really cpu- and memory-intensive. Recently, in optical simulation of solar cells, the RCWA method has gained relevance, providing a good trade-off between accuracy and computational resources requirement. This thesis is a contribution to the numerical simulation of advanced silicon solar cells by means of a state-of-the-art numerical 2-D/3-D device simulator, that has been successfully applied to the simulation of selective emitter and the rear point contact solar cells, for which the multi-dimensionality of the transport model is required in order to properly account for all physical competing mechanisms. In the second part of the thesis, the optical problems is discussed. Two novel and computationally efficient RCWA implementations for 2-D simulation domains as well as a third RCWA for 3-D structures based on an eigenvalues calculation approach have been presented. The proposed simulators have been validated in terms of accuracy, numerical convergence, computation time and correctness of results.
Resumo:
Il presente documento intende illustrare l’applicazione delle moderne teorie dell’affidabilità, delle politiche manutentive e della gestione dei ricambi in ambito aeronautico. Partendo dall’utilizzo di dati forniti da un’azienda operante nel settore è stato elaborato uno studio sperimentale con lo scopo di ricercare la miglior politica manutentiva, con l'obiettivo di minimizzare i costi di manutenzione e di gestione delle scorte a magazzino. La ricerca dell’ottimizzazione dei costi di gestione, senza penalizzare qualità ed efficienza, rappresenta infatti sempre di più un fattore competitivo per le aziende. Lo sviluppo sperimentale si è svolto tramite software specialistici utilizzati nel campo dello studio dell’affidabilità: tramite Weibull++® si sono valutati i parametri delle distribuzioni che descrivono la probabilità di guasto dei singoli componenti e, a partire da questi dati, sono state studiate le possibili politiche manutentive per ciascun componente ed i costi relativi in BlockSim®. Dapprima sono state confrontate diverse strategie manutentive: correttiva pura e preventiva. Alla scelta della miglior politica manutentiva è stata affiancato lo studio delle strategie di gestione del magazzino, al fine di individuare la più efficace. Sia lo studio della manutenzione che quello della gestione del magazzino sono stati affiancati dalla valutazione di impatto economico.
Resumo:
Questa relazione finale è incentrata sul lavoro sperimentale richiesto dalla collaborazione con l’azienda Natural Salumi ed ha come obiettivo principale quello di verifica dei parametri qualitativi e compositivi di una nuova tipologia di salume in fase di studio. L’azienda ha infatti messo a punto un nuovo “prodotto funzionale” addizionando componenti aventi attività nutraceutica al salame ottenuto da sole parti magre di suino (tipo NaturalFetta) e si propone di arricchire il proprio prodotto con acidi grassi polinsaturi della serie omega-3 (da olio di semi di lino), noti per gli effetti benefici esercitati sulla salute umana. Sul prodotto di nuova formulazione si effettueranno sia la determinazione della percentuale lipidica mediante metodo ufficiale Soxhlet ed automatizzato Soxtec, al fine di individuare il quantitativo totale della parte grassa, che una caratterizzazione del profilo quali-quantitativo in acidi grassi, fondamentale per verificare la conformità con i requisiti indicati dal Reg. 1924/06 (e successivi come il Reg. UE 432/2012) previsti per le indicazioni da inserire in etichetta (claims) per i prodotti arricchiti con acidi grassi polinsaturi (PUFA). La determinazione del profilo in acidi grassi e, nello specifico, del contenuto in acido -linolenico, sarà realizzata mediante gascromatografia previa estrazione della frazione lipidica dei salumi con metodo di Folch modificato, che prevede un'estrazione solido-liquido. La concentrazione di acido alfa-linolenico sarà inoltre monitorata durante tutto il periodo di shelf-life del prodotto (45 gg) al fine di valutare eventuali variazioni durante la conservazione. Per soddisfare quest’ultima finalità, le analisi saranno eseguite sia all’inizio (T0) che alla fine (T1) della vita commerciale del prodotto. Le stesse analisi verranno inoltre condotte sia sul prodotto a formulazione classica che su un prodotto del tutto simile, commercializzato da un’altra azienda e considerato come leader di mercato. In relazione ad un possibile aumento di ossidabilità della frazione lipidica, sarà realizzato un controllo dei parametri chimici, qualitativi e compositivi, con particolare riferimento ai prodotti di ossidazione del colesterolo (date le loro implicazioni in ambito biomedico). La maggiore presenza in formulazione di acidi grassi polinsaturi potrebbe infatti favorire un incremento dei COPs (Cholesterol Oxidation Products), che saranno separati, identificati e quantificati mediante la procedura SPE/GC-MS (estrazione e purificazione in fase solida accoppiata ad analisi gascromatografica con rivelazione mediante spettrometria di massa).
Resumo:
Nell’ambito del presente lavoro sperimentale sono state prese in considerazione differenti tecniche, tradizionali ed innovative, per la determinazione del contenuto di acqua presente negli oli extravergine di oliva. Seppur presente nell'olio in quantità limitata, l'acqua é in grado di favorire la dissoluzione e veicolare componenti minori idrofilici (come le molecole a struttura fenolica e polifenolica) all'interno di micelle inverse che si creano nella matrice lipidica quando alla superficie acqua-olio si aggregano composti anfifilici (come i digliceridi, i monogliceridi, gli acidi grassi liberi, i fosfolipidi etc.) che danno luogo alla formazione di aggregati colloidali. I risultati ottenuti su un set di 60 campioni hanno evidenziato come esistano correlazioni positive e soddisfacenti tra le diverse metodiche analitiche tradizionali quali la titolazione titrimetrica di Karl Fisher e quelle gravimetriche per essiccamento in stufa o mediante termobilancia. La migliore correlazione in termini di R2 con valore pari a circa 0,82 è stata ottenuta tra i metodi Karl Fisher ed essiccamento in stufa, mentre per esempio quella tra i due metodi gravimetrici (stufa e termobilancia) ha fatto registrare un valore inferiore (0,70). Pur essendosi verificate delle soddisfacenti correlazioni tra le tre tecniche tradizionali, i valori del contenuto in acqua dei campioni si sono presentati variabili in funzione dell'utilizzo di una modalità di misurazione rispetto all'altra. Tale variabilità é funzione di diversi fattori: la difficoltà di determinare l'acqua fortemente legata nel caso dei metodi per essiccamento; la perdita in peso causata anche da altri componenti in grado di volatilizzare alle condizioni analitiche adottate; la possibilità di formazione di composti non originariamente presenti come risultato di modificazioni chimiche indotte dall'elevata temperatura. Il contenuto di acqua è stato quindi stimato anche mediante una tecnica innovativa a basso costo basata su misure dielettriche. Considerato che l’olio extravergine di oliva è noto essere un ottimo isolante, il fenomeno dielettrico osservato risulta essere di natura capacitiva. Il risultato di correlazione ottenuto su un set di 23 oli extravergini di oliva applicando in parallelo questa tecnica rapida e la misura gravimetrica con stufa (che é un metodo ISO), è da considerarsi soddisfacente, con un R2 pari anche in questo caso a 0,82. In conclusione, le tecniche attualmente utilizzate per la determinazione del contenuto di acqua in oli extravergine di oliva risultano tra loro correlate. Considerando che tali tecniche tradizionali sono dispendiose o in termini di tempo (gravimetrico mediante stufa) o in termini di consumo di reagenti e solventi (titrimetrico con reattivo di Karl Fischer), il nuovo approccio sperimentato mediante misure capacitive può essere considerato molto interessante anche se, sicuramente, sarà da applicare ad un numero più ampio di campioni per rendere l'evidenza sperimentale più robusta.
Resumo:
Lo scheletro è un tessuto dinamico, capace di adattarsi alle richieste funzionali grazie a fenomeni di rimodellamento ed alla peculiare proprietà rigenerativa. Tali processi avvengono attraverso l’azione coordinata di osteoclasti ed osteoblasti. Queste popolazioni cellulari cooperano allo scopo di mantenere l’ equilibrio indispensabile per garantire l’omeostasi dello scheletro. La perdita di tale equilibrio può portare ad una diminuzione della massa ossea e, ad una maggiore suscettibilità alle fratture, come avviene nel caso dell’osteoporosi. E’ noto che, nella fisiopatologia dell’osso, un ruolo cruciale è svolto da fattori endocrini e paracrini. Dati recenti suggeriscono che il rimodellamento osseo potrebbe essere influenzato dal sistema nervoso. L’ipotesi è supportata dalla presenza, nelle vicinanze dell’osso, di fibre nervose sensoriali responsabili del rilascio di alcuni neuro peptidi, tra i quali ricordiamo la sostanza P. Inoltre in modelli animali è stato dimostrato il diretto coinvolgimento del sistema nervoso nel mantenimento dell’omeostasi ossea, infatti ratti sottoposti a denervazione hanno mostrato una perdita dell’equilibrio esistente tra osteoblasti ed osteoclasti. Per tali ragioni negli ultimi anni si è andata intensificando la ricerca in questo campo cercando di comprendere il ruolo dei neuropeptidi nel processo di differenziamento dei precursori mesenchimali in senso osteogenico. Le cellule stromali mesenchimali adulte sono indifferenziate multipotenti che risiedono in maniera predominante nel midollo osseo, ma che possono anche essere isolate da tessuto adiposo, cordone ombelicale e polpa dentale. In questi distretti le MSC sono in uno stato non proliferativo fino a quando non sono richieste per processi locali di riparo e rigenerazione tessutale. MSC, opportunamente stimolate, possono differenziare in diversi tipi di tessuto connettivo quali, tessuto osseo, cartilagineo ed adiposo. L’attività di ricerca è stata finalizzata all’ottimizzazione di un protocollo di espansione ex vivo ed alla valutazione dell’influenza della sostanza P, neuropeptide presente a livello delle terminazioni sensoriali nelle vicinanze dell’osso, nel processo di commissionamento osteogenico.
Resumo:
L’enzima IDO interviene nella via di degradazione del triptofano, essenziale per la vita cellulare; l’iperespressione di IDO favorisce la creazione di un microambiente immunotollerante. Nelle LAM IDO è funzionalmente attivo nelle cellule blastiche e determina l’acquisizione di un fenotipo regolatorio da parte delle cellule T alloreattive; l’espressione della proteina aumenta in modo consensuale con l’evoluzione clinica della patologia. Scopo della Tesi è indagare l’esistenza di una correlazione tra l’iperespressione di IDO da parte delle cellule leucemiche, le caratteristiche di rischio alla diagnosi e l’outcome dei pazienti. Sono stati esaminati 45 pazienti adulti affetti da LAM afferiti all’Istituto di Ematologia di Bologna. I pazienti sono stati stratificati a seconda di: età di insorgenza della leucemia, secondarietà a Mielodisplasia o radio chemioterapia, iperleucocitosi, citogenetica, biologia molecolare (sono state valutate le alterazioni a carico dei geni FLT3 ed NPM). I pazienti sono stati analizzati per l’espressione del gene IDO mediante RT-PCR, seguita da Western Blot, allo scopo di stabilire la presenza di una proteina attiva; successivamente si è proceduto a verificare l’esistenza di una correlazione tra l’espressione di IDO e le caratteristiche di rischio alla diagnosi per identificare una relazione tra l’espressione del gene ed un subset di pazienti a prognosi favorevole o sfavorevole. Dei 45 pazienti adulti affetti da LAM il 28,9% è risultato negativo per l’espressione di IDO, mentre il rimanente 71,1% è risultato positivo ed è stato suddiviso in tre ulteriori categorie, in base ai livelli di espressione. I dati non sembrano al momento suggerire l’esistenza di una correlazione tra l’espressione di IDO e le caratteristiche di rischio alla diagnosi. Nel gruppo di pazienti ad elevata espressione di IDO si riscontra un rate di resistenza alla chemioterapia di induzione più elevato, con una quota di pazienti resistenti pari al 71,4%, contro il 23,1% nel gruppo di pazienti IDO-negativi.