974 resultados para diffusione anelastica, Compton, apparato sperimentale
Resumo:
Scopo del nostro studio è quello di valutare i disturbi cognitivi in relazione al tasso di microembolia cerebrale in due gruppi di pazienti trattati per lesione carotidea asintomatica con endoarterectomia (CEA) o stenting (CAS). Comparando le due metodiche mediante l’utilizzo di risonanza magnetica in diffusione (DW-MRI), neuromarkers (NSE e S100β) e test neuropsicometrici. MATERIALE E METODI: 60 pazienti sono stati sottoposti a rivascolarizzazione carotidea (CEA n=32 e CAS n=28). Sono stati tutti valutati con DW-MRI e Mini-Mental State Examination (MMSE) test nel preoperatorio, a 24 ore, a 6 ed a 12 mesi dall’intervento. In tutti sono stati dosati i livelli sierici di NSE e S100β mediante 5 prelievi seriati nel tempo, quello basale nel preoperatorio, l’ultimo a 24 ore. L’ananlisi statistica è stata effettuata con test t di Student per confronti multipli per valori continui e con test χ2 quadro e Fisher per le variabili categoriche. Significatività P <0,05. RISULTATI: Non vi è stato alcun decesso. Un paziente del gruppo CAS ha presentato un ictus ischemico. In 6 pazienti CAS ed in 1 paziente CEA si sono osservate nuove lesioni subcliniche alla RMN-DWI post-operatoria (21,4% vs 3% p=0,03). Nel gruppo CAS le nuove lesioni presenti alla RMN sono risultate significativamente associate ad un declino del punteggio del MMSE (p=0,001). L’analisi dei livelli di NSE e S100β ha mostrato un significativo aumento a 24 ore nei pazienti CAS (P = .02). A 12 mesi i pazienti che avevano presentato nuove lesioni ischemiche nel post-operatorio hanno mostrato minor punteggio al MMSE, non statisticamente significativo. CONCLUSIONI: I neuromarkers in combinazione con MMSE e RMN-DWI possono essere utilizzati nella valutazione del declino cognitivo correlato a lesioni silenti nell’immediato postoperatorio di rivascolarizzazione carotidea. Quest’ultime dovrebbero essere valutate quindi non solo rispetto al tasso di mortalità e ictus, ma anche rispetto al tasso di microembolia.
Resumo:
The research activities described in the present thesis have been oriented to the design and development of components and technological processes aimed at optimizing the performance of plasma sources in advanced in material treatments. Consumables components for high definition plasma arc cutting (PAC) torches were studied and developed. Experimental activities have in particular focussed on the modifications of the emissive insert with respect to the standard electrode configuration, which comprises a press fit hafnium insert in a copper body holder, to improve its durability. Based on a deep analysis of both the scientific and patent literature, different solutions were proposed and tested. First, the behaviour of Hf cathodes when operating at high current levels (250A) in oxidizing atmosphere has been experimentally investigated optimizing, with respect to expected service life, the initial shape of the electrode emissive surface. Moreover, the microstructural modifications of the Hf insert in PAC electrodes were experimentally investigated during first cycles, in order to understand those phenomena occurring on and under the Hf emissive surface and involved in the electrode erosion process. Thereafter, the research activity focussed on producing, characterizing and testing prototypes of composite inserts, combining powders of a high thermal conductibility (Cu, Ag) and high thermionic emissivity (Hf, Zr) materials The complexity of the thermal plasma torch environment required and integrated approach also involving physical modelling. Accordingly, a detailed line-by-line method was developed to compute the net emission coefficient of Ar plasmas at temperatures ranging from 3000 K to 25000 K and pressure ranging from 50 kPa to 200 kPa, for optically thin and partially autoabsorbed plasmas. Finally, prototypal electrodes were studied and realized for a newly developed plasma source, based on the plasma needle concept and devoted to the generation of atmospheric pressure non-thermal plasmas for biomedical applications.
Resumo:
Il CMV è l’agente patogeno più frequente dopo trapianto (Tx) di cuore determinando sia sindromi cliniche organo specifiche sia un danno immunomediato che può determinare rigetto acuto o malattia coronarica cronica (CAV). I farmaci antivirali in profilassi appaiono superiori all’approccio pre-sintomatico nel ridurre gli eventi da CMV, ma l’effetto anti-CMV dell’everolimus (EVE) in aggiunta alla profilassi antivirale non è stato ancora analizzato. SCOPO DELLO STUDIO: analizzare l’interazione tra le strategie di profilassi antivirale e l’uso di EVE o MMF nell’incidenza di eventi CMV correlati (infezione, necessità di trattamento, malattia/sindrome) nel Tx cardiaco. MATERIALI E METODI: sono stati inclusi pazienti sottoposti a Tx cardiaco e trattati con EVE o MMF e trattamento antivirale di profilassi o pre-sintomatico. L’infezione da CMV è stata monitorata con antigenemia pp65 e PCR DNA. La malattia/sindrome da CMV è stato considerato l’endpoint principale. RISULTATI: 193 pazienti (di cui 10% D+/R-) sono stati inclusi nello studio (42 in EVE e 149 in MMF). Nel complesso, l’infezione da CMV (45% vs. 79%), la necessità di trattamento antivirale (20% vs. 53%), e la malattia/sindrome da CMV (2% vs. 15%) sono risultati significativamente più bassi nel gruppo EVE che nel gruppo MMF (tutte le P<0.01). La profilassi è più efficace nel prevenire tutti gli outcomes rispetto alla strategia pre-sintomatica nei pazienti in MMF (P 0.03), ma non nei pazienti in EVE. In particolare, i pazienti in EVE e strategia pre-sintomatica hanno meno infezioni da CMV (48 vs 70%; P=0.05), e meno malattia/sindrome da CMV (0 vs. 8%; P=0.05) rispetto ai pazienti in MMF e profilassi. CONCLUSIONI: EVE riduce significamene gli eventi correlati al CMV rispetto al MMF. Il beneficio della profilassi risulta conservato solo nei pazienti trattati con MMF mentre l’EVE sembra fornire un ulteriore protezione nel ridurre gli eventi da CMV senza necessità di un estensivo trattamento antivirale.
Resumo:
L'aumento inesorabile delle morti per cause legate a patologie cardiache, dovuto soprattutto al progressivo invecchiamento della popolazione occidentale, ha portato negli ultimi anni, alla necessità di sviluppare tecniche e sistemi di “Remote Monitoring”. L'obiettivo della tesi è la progettazione e lo sviluppo di un sistema di monitoraggio remoto dell'attività elettrica cardiaca basato sull’utilizzo delle piattaforme Android e Arduino. Il valore aggiunto della soluzione proposta e sviluppata è, quindi, soprattutto da ricercarsi nella tipologia di tecnologie utilizzate per la realizzazione del sistema (Android/Arduino): oltre, alla loro continua espansione, in termini di diffusione e avanzamento tecnologico, facilmente riscontrabile, hanno tutte l’importante caratteristica di essere totalmente Open Source, rendendo, quindi, ogni elemento del sistema eventualmente espandibile da chiunque lo desideri.
Resumo:
Le pietre artificiali ed i cementi artistici utilizzati durante la stagione Liberty rappresentano tutt’oggi un patrimonio artistico non ancora sufficientemente studiato. In seguito ad una ricerca bibliografica su testi e riviste dei primi anni del Novecento, è stata eseguita una ricognizione del patrimonio architettonico emiliano-romagnolo, al fine di valutarne i materiali e le tipologie di degrado più diffuse. Le città e le zone oggetto di studio sono state: Bologna, Ferrara, Modena e provincia, Reggio Emilia, Parma, Firenze, la Romagna e le Marche settentrionali. Tra gli edifici individuati sono state analizzate le decorazioni e gli intonaci di tre edifici ritenuti particolarmente significativi: il villino Pennazzi (noto anche come Villa Gina) a Borgo Panigale (Bologna), villa Verde a Bologna e l’ex-albergo Dorando Pietri a Carpi. Da tali edifici sono stati selezionati campioni rappresentativi delle diverse tipologie di decorazioni in pietra artificiale e successivamente sono stati caratterizzati in laboratorio tramite diffrattometria a raggi x (XRD), termogravimetria (TGA), microscopio ottico in sezioni lucide, microscopio elettronico a scansione (SEM) e porosimetria ad intrusione di mercurio (MIP). In particolare per Villa Verde sono state formulate e caratterizzate diverse tipologie di malte variando il tipo di legante ed il rapporto acqua/cemento, al fine di garantire la compatibilità fisico-meccanica con il supporto negli interventi di risarcimento delle lacune previsti nel restauro. L’attività sperimentale svolta ha permesso di mettere a punto un vero e proprio protocollo diagnostico per il restauro di questo tipo di decorazioni che potrà essere utilizzato sia nei casi di studio analizzati che per ogni futuro intervento.
Resumo:
Background. Hereditary transthyretin (TTR)-related amyloidosis (ATTR) is mainly considered a neurologic disease. We assessed the phenotypic and genotypic spectrum of ATTR in a non-endemic, Caucasian area and evaluated prevalence, genetic background and disease profile of cases with an exclusively cardiac phenotype, highlighting possible hints for the differential diagnosis with hypertrophic cardiomyopathy (HCM) and senile systemic amyloidosis (SSA) Methods and Results. In this Italian multicenter study, 186 patients with ATTR were characterized at presentation. Thirty patients with SSA and 30 age-gender matched HCM patients were used for comparison. Phenotype was classified as: exclusively cardiac (n= 31, 17%), exclusively neurologic (n= 46, 25%), mixed cardiac/neurologic (n=109, 58%). Among the 8 different mutations responsible for an exclusively cardiac phenotype, Ile68Leu was the most frequent (23/31). Five patients with an exclusively cardiac phenotype developed mild abnormalities at neurological examination but no symptoms during a 36 [14−50] month follow-up. Exclusively cardiac phenotype was characterized by male gender, age > 65 years, heart failure symptoms, concentric left ventricular (LV) “hypertrophy” and moderately depressed LV ejection fraction. This profile was similar to SSA but relatively distinct from HCM. Compared to patients with a mixed phenotype, patients with a exclusively cardiac phenotype showed a more pronounced cardiac involvement on both echocardiogram and ECG. Conclusion. A clinically relevant subset of Caucasian ATTR patients present with an exclusively cardiac phenotype, mimicking HCM or SSA. Echocardiographic and ECG findings are useful to differentiate ATTR from HCM but not from SSA. The role of liver transplantation in these patients is questionable.
Resumo:
Hypoxia-inducible factor-1 alpha (HIF-1α) plays a critical role in survival and is associated with poor prognosis in solid tumors. The role of HIF-1α in multiple myeloma is not completely known. In the present study, we explored the effect of EZN2968, an locked nucleic acid antisense oligonucleotide against HIF-1α, as a molecular target in MM. A panel of MM cell lines and primary samples from MM patients were cultured in vitro in the presence of EZN2968 . Under normoxia culture condition, HIF-1α mRNA and protein expression was detectable in all MM cell lines and in CD138+ cells from newly diagnosed MM patients samples. Significant up-regulation of HIF-1α protein expression was observed after incubation with IL6 or IGF-I, confirming that HIF-1α can be further induced by biological stimuli. EZN2968 efficiently induces a selective and stable down-modulation of HIF-1α and decreased the secretion of VEGF released by MM cell. Treatment with EZN2968 gave rise to a progressive accumulation of cells in the S and subG0 phase. The analysis of p21, a cyclin-dependent kinase inhibitors controlling cell cycle check point, shows upregulation of protein levels. These results suggest that HIF-1α inhibition is sufficient for cell cycle arrest in normoxia, and for inducing an apoptotic pathways.. In the presence of bone marrow microenvironment, HIF-1α inhibition blocks MAPK kinase pathway and secretion of pro-surviaval cytokines ( IL6,VEGF,IL8) In this study we provide evidence that HIF-1α, even in the absence of hypoxia signal, is expressed in MM plasma cells and further inducible by bone marrow milieu stimuli; moreover its inhibition is sufficient to induce a permanent cell cycle arrest. Our data support the hypothesis that HIF-1α inhibition may suppress tumor growth by preventing proliferation of plasma cells through p21 activation and blocking pro-survival stimuli from bone marrow microenvironment.
Resumo:
Dalla collaborazione fra il Comune di Ravenna ed ENI ha preso origine il progetto “RIGED – Ra” ossia il “Progetto di ripristino e gestione delle dune costiere ravennati”. Nell’ambito di tale attività sperimentale si è voluto effettuare una caratterizzazione dell’idrologia di una limitata, ma rappresentativa, porzione dell’acquifero freatico costiero situata in un cordone di dune posto nella Pineta di Lido di Classe, a sud di Foce Bevano. Lo studio si pone di essere rappresentativo per le caratteristiche idrogeologiche delle dune costiere adriatiche nella zona di Ravenna. A tale fine è stato valutato l’andamento di alcuni parametri chimico-fisici delle acque sotterranee; inoltre, è stata monitorata mensilmente la profondità della tavola d’acqua (water table - WT). Questi monitoraggi hanno permesso di descrivere la distribuzione delle acque dolci e di quelle salate nonché la loro dinamica stagionale. Infine, è stata eseguita un’analisi idro-geochimica con l’intento di valutare la tipologia delle acque presenti nell’area in esame e la loro eventuale variazione stagionale. Per la raccolta dei campioni è stata sfruttata l’innovativa metodologia a minifiltri utilizzata da alcuni anni nel nord dell’Europa, in modo particolare in Olanda. Questa tecnica ha due caratteristiche peculiari: i tempi di campionamento vengono ridotti notevolmente ed, inoltre, permette un’ottima precisione e rappresentatività delle acque di falda a diverse profondità poiché si effettua un campionamento ogni 0,50 m. L’unico limite riscontrato, al quale vi è comunque rimedio, è il fatto che la loro posizione risulti fissa per cui, qualora vi siano delle fluttuazioni dell’acquifero al di sopra del minifiltro più superficiale, queste non vengono identificate. È consigliato quindi utilizzare questo metodo di campionamento poiché risulta essere più performante rispetto ad altri (ad esempio al sistema che sfrutta lo straddle packers SolinstTM ) scegliendo tra due diverse strategie per rimediare al suo limite: si aggiungono minifiltri superficiali che nel periodo estivo si trovano nella zona vadosa dell’acquifero oppure si accompagna sempre il campionamento con una trivellata che permetta il campionamento del top della falda. Per quanto concerne la freatimetria il campionamento mensile (6 mesi) ha mostrato come tutta l’area di studio sia un sistema molto suscettibile all’andamento delle precipitazioni soprattutto per la fascia di duna prossima alla costa in cui la scarsa vegetazione e la presenza di sedimento molto ben cernito con una porosità efficace molto elevata facilitano la ricarica dell’acquifero da parte di acque dolci. Inoltre, sul cordone dunoso l’acquifero si trova sempre al di sopra del livello medio mare anche nel periodo estivo. Per questa caratteristica, nel caso l’acquifero venisse ricaricato artificialmente con acque dolci (Managed Aquifer Recharge), potrebbe costituire un efficace sistema di contrasto all’intrusione salina. Lo spessore d’acqua dolce, comunque, è molto variabile proprio in funzione della stagionalità delle precipitazioni. Nell’area retro-dunale, invece, nel periodo estivo l’acquifero freatico è quasi totalmente al di sotto del livello marino; ciò probabilmente è dovuto al fatto che, oltre ai livelli topografici prossimi al livello medio mare, vi è una foltissima vegetazione molto giovane, ricresciuta dopo un imponente incendio avvenuto circa 10 anni fa, la quale esercita una notevole evapotraspirazione. È importante sottolineare come durante la stagione autunnale, con l’incremento delle precipitazioni la tavola d’acqua anche in quest’area raggiunga livelli superiori a quello del mare. Dal monitoraggio dei parametri chimico – fisici, in particolare dal valore dell’Eh, risulta che nel periodo estivo l’acquifero è un sistema estremamente statico in cui la mancanza di apporti superficiali di acque dolci e di flussi sotterranei lo rende un ambiente fortemente anossico e riducente. Con l’arrivo delle precipitazioni la situazione cambia radicalmente, poiché l’acquifero diventa ossidante o lievemente riducente. Dalle analisi geochimiche, risulta che le acque sotterranee presenti hanno una composizione esclusivamente cloruro sodica in entrambe le stagioni monitorate; l’unica eccezione sono i campioni derivanti dal top della falda raccolti in gennaio, nei quali la composizione si è modificata in quanto, il catione più abbondante rimane il sodio ma non si ha una dominanza di un particolare anione. Tale cambiamento è causato da fenomeni di addolcimento, rilevati dall’indice BEX, che sono causati all’arrivo delle acque dolci meteoriche. In generale, si può concludere che la ricarica superficiale e la variazione stagionale della freatimetria non sono tali da determinare un processo di dolcificazione in tutto l’acquifero dato che, nelle zone più profonde, si rivela la presenza permanente di acque a salinità molto superiore a 10 g/L. La maggior ricarica superficiale per infiltrazione diretta nelle stagioni a più elevata piovosità non è quindi in grado di approfondire l’interfaccia acqua dolce-acqua salata e può solamente causare una limitata diluizione delle acque di falda superficiali.
Resumo:
La nanotecnologia è una scienza innovativa che sviluppa e utilizza materiali di dimensioni nanometriche (< 100 nm). Lo sviluppo e il mercato delle nanoparticelle in merito alle loro interessanti proprietà chimico‐fisiche, é accompagnato da una scarsa conoscenza relativa al destino finale e agli effetti che questi nano materiali provocano nell’ ambiente [Handy et al., 2008]. La metodologia LCA (Life Cycle Assessment – Valutazione del Ciclo di Vita) è riconosciuta come lo strumento ideale per valutare e gestire gli impatti ambientali indotti dalle ENPs, nonostante non sia ancora possibile definire, in maniera precisa, un Fattore di Caratterizzazione CF per questa categoria di sostanze. Il lavoro di questa tesi ha l’obbiettivo di stimare il Fattore di Effetto EF per nanoparticelle di Diossido di Titanio (n‐TiO2) e quindi contribuire al calcolo del CF; seguendo il modello di caratterizzazione USEtox, l’EF viene calcolato sulla base dei valori di EC50 o LC50 relativi agli organismi appartenenti ai tre livelli trofici di un ecosistema acquatico (alghe, crostacei, pesci) e assume valore pari a 49,11 PAF m3/Kg. I valori tossicologici utilizzati per il calcolo del Fattore di Effetto derivano sia da un’accurata ricerca bibliografica sia dai risultati ottenuti dai saggi d’inibizione condotti con n‐TiO2 sulla specie algale Pseudokirchneriella Subcapitata. La lettura dei saggi è stata svolta applicando tre differenti metodi quali la conta cellulare al microscopio ottico (media geometrica EC50: 2,09 mg/L, (I.C.95% 1,45‐ 2,99)), l’assorbanza allo spettrofotometro (strumento non adatto alla lettura di test condotti con ENPs) e l’intensità di fluorescenza allo spettrofluorimetro (media geometrica EC50: 3,67 mg/L (I.C.95% 2,16‐6,24)), in modo tale da confrontare i risultati e valutare quale sia lo strumento più consono allo studio di saggi condotti con n‐TiO2. Nonostante la grande variabilità dei valori tossicologici e la scarsa conoscenza sui meccanismi di tossicità delle ENPs sulle specie algali, il lavoro sperimentale e la ricerca bibliografica condotta, hanno permesso di individuare alcune proprietà chimico‐fisiche delle nanoparticelle di Diossido di Titanio che sembrano essere rilevanti per la loro tossicità come la fase cristallina, le dimensioni e la foto attivazione [Vevers et al., 2008; Reeves et al., 2007]. Il lavoro sperimentale ha inoltre permesso di ampliare l’insieme di valori di EC50 finora disponibile in letteratura e di affiancare un progetto di ricerca dottorale utilizzando il Fattore di Effetto per n‐ TiO2 nel calcolo del Fattore di Caratterizzazione.
Resumo:
Il cemento è il materiale da edilizia più comune al mondo e le problematiche ambientali associate all’utilizzo ed al ciclo produttivo sono numerose (rilascio di gas serra, scelta delle materie prime, risparmio energetico) e fortemente impattanti. Tuttavia, nonostante la sua diffusione sia globale e le proprietà siano note da millenni vi sono ancora alcuni processi che non sono stati correttamente spiegati. In particolare non esiste una teoria unica e consolidata che descriva efficacemente la microstruttura delle fasi minerali del cemento che si sviluppano successivamente all'idratazione, e come esso di conseguenza interagisca con principi attivi, organici o inorganici, di cui è noto l’effetto accelerante sulla cinetica di indurimento. Questa tesi si pone l'obiettivo di condurre uno studio dell'idratazione del clinker finemente macinato (CFM - principale componente di molti cementi) focalizzato sull’interazione tra elementi chimici presenti nella matrice cementizia (Calcio, Ferro e Alluminio) ed additivi acceleranti (Trietanolammina, Triisopropanolammina). Il fenomeno è stato studiato tramite osservazione dell'andamento del rilascio dei suddetti ioni su cementi in via di idratazione e tramite utilizzo di tecniche di microscopia elettronica e di diffrazione di raggi X. L'analisi del rilascio di ioni, effettuata mediante spettroscopia ad assorbimento atomico, è stata condotta al fine di approfondire l'azione di trietanolammina e triisopropanolammina sulle dinamiche di idratazione dei CFM nelle fasi precoci di idratazione, al fine di confrontare queste dinamiche con processi che avvengono in fasi successive e che coinvolgono la formazione delle principali fasi amorfe e cristalline responsabili delle proprietà del materiale. Da indagini di diffrattometria e microscopia sono inoltre state estrapolate interessanti considerazioni circa le cinetiche che portano alla formazione delle fasi cristalline tipiche dell'idratazione del cemento (portlandite, ettringite) in presenza e assenza di additivi. Nel corso dello studio sono stati sintetizzati alcuni composti alternativi agli additivi commerciali, sviluppati a partire da building blocks provenienti da fonti rinnovabili, portando quindi l'attenzione sulla sostenibilità del processo di progettazione delle molecole, anche alla luce della degradazione in ambiente delle sostanze sintetizzate. Tali molecole sono attualmente in fase di test presso i laboratori di Italcementi (ITC Group).
Resumo:
Le malattie trasmesse da zecche sono un importante problema sia per la salute animale che per quella umana e negli ultimi decenni hanno aumentato notevolmente la loro diffusione, in seguito ai cambiamenti climatici, che hanno permesso la distribuzione delle zecche in aree prima non interessate. Per tale motivo si è deciso di effettuare un’indagine sulla diffusione delle zecche e sui patogeni da loro trasmessi, mediante campionamenti sia a livello ambientale, sia su animali e umani infestati in quattro siti di tre parchi dell’Emilia Romagna, dove non risultavano precedenti segnalazioni, nelle province di Bologna e Ravenna, da Aprile a Ottobre 2010. In totale sono state raccolte 8212 zecche. Dall’ambiente sono state campionate 6734 larve, 1344 ninfe, 61 adulti; dagli animali e da persone sono stati raccolti 68 adulti e 5 ninfe appartenenti a diverse specie di Ixodidae. Sono state condotte analisi sull’abbondanza delle zecche nelle diverse aree di raccolta, in funzione del periodo di campionamento, della temperatura e dell’umidità relativa misurata a 5 cm dal suolo al momento del campionamento e della vegetazione. Su tutti gli individui adulti e su pool di ninfe e di larve, per un totale di 393 campioni, sono state condotte analisi di tipo molecolare per la ricerca di piroplasmi, Anaplasma phagocytophilum e Borrelia burgdorferi s.l. Attraverso la PCR e il sequenziamento, è emerso che il 7,6% dei campioni era positivo per piroplasmi, tra i quali è stata riscontrata anche la presenza delle specie zoonosiche Babesia EU1 e B. divergens. La real-time PCR eseguita solo sui campioni costituiti da ninfe e adulti ha evidenziato una prevalenza del 9,2% per A. phagocytophilum e del 21,6% per B. burgdorferi s.l. Su questi patogeni sono state quindi condotte analisi di tipo filogenetico. In alcuni campioni sono state riscontrate coinfezioni con combinazioni di due patogeni contemporaneamente.
Resumo:
Nel corso degli anni diverse sono le tecniche proposte per il trattamento delle lesioni osteocondrali, da quelle mini-invasive con stimolazione midollare fino a quelle più aggressive basate sul trapianto di tessuti autologhi o eterologhi. Tutti questi metodi hanno comunque dei difetti ed è questo il motivo per cui il trattamento delle lesioni osteocondrali rappresenta tuttora una sfida per il chirurgo ortopedico, in considerazione dell’alta specializzazione e del basso potere di guarigione del tessuto cartilagineo. Buoni risultati sono stati ottenuti con innesti bioingegnerizzati o matrici polimeriche impiantati nei siti danneggiati. La quantità di scaffolds in uso per la riparazione condrale ed osteocondrale è molto ampia; essi differiscono non solo per il tipo di materiali usati per la loro realizzazione, ma anche per la presenza di promotori di una o più linee cellulari , su base condrogenica o osteogenica. Quando ci si approccia ad una lesione condrale di grandi dimensioni, l’osso sub-condrale è anch’esso coinvolto e necessita di trattamento per ottenere il corretto ripristino degli strati articolari più superficiali. La scelta più giusta sembra essere un innesto osteocondrale bioingegnerizzato, pronto per l’uso ed immediatamente disponibile, che consenta di effettuare il trattamento in un unico tempo chirurgico. Sulla base di questo razionale, dopo uno studio preclinico animale e previa autorizzazione del comitato etico locale, abbiamo condotto uno studio clinico clinico pilota utilizzando un nuovo innesto biomimetico nanostrutturato per il trattamento di lesioni condrali ed osteocondrali del ginocchio; la sua sicurezza e maneggevolezza, così come la facile riproducibilità della tecnica chirurgica ed i risultati clinici ottenuti sono stati valutati nel tempo a 6, 12, 24, 36 e 48 mesi dall’impianto in modo da testare il suo potenziale intrinseco senza l’aggiunta di alcuna linea cellulare.
Resumo:
Il Web nel corso della sua esistenza ha subito un mutamento dovuto in parte dalle richieste del mercato, ma soprattutto dall’evoluzione e la nascita costante delle numerose tecnologie coinvolte in esso. Si è passati da un’iniziale semplice diffusione di contenuti statici, ad una successiva collezione di siti web, dapprima con limitate presenze di dinamicità e interattività (a causa dei limiti tecnologici), ma successivamente poi evoluti alle attuali applicazioni web moderne che hanno colmato il gap con le applicazioni desktop, sia a livello tecnologico, che a livello di diffusione effettiva sul mercato. Tali applicazioni web moderne possono presentare un grado di complessità paragonabile in tutto e per tutto ai sistemi software desktop tradizionali; le tecnologie web hanno subito nel tempo un evoluzione legata ai cambiamenti del web stesso e tra le tecnologie più diffuse troviamo JavaScript, un linguaggio di scripting nato per dare dinamicità ai siti web che si ritrova tutt’ora ad essere utilizzato come linguaggio di programmazione di applicazioni altamente strutturate. Nel corso degli anni la comunità di sviluppo che ruota intorno a JavaScript ha prodotto numerose librerie al supporto del linguaggio dotando così gli sviluppatori di un linguaggio completo in grado di far realizzare applicazioni web avanzate. Le recenti evoluzioni dei motori javascript presenti nei browser hanno inoltre incrementato le prestazioni del linguaggio consacrandone la sua leadership nei confronti dei linguaggi concorrenti. Negli ultimi anni a causa della crescita della complessità delle applicazioni web, javascript è stato messo molto in discussione in quanto come linguaggio non offre le classiche astrazioni consolidate nel tempo per la programmazione altamente strutturata; per questo motivo sono nati linguaggi orientati alla programmazione ad oggetti per il web che si pongono come obiettivo la risoluzione di questo problema: tra questi si trovano linguaggi che hanno l’ambizione di soppiantare JavaScript come ad esempio Dart creato da Google, oppure altri che invece sfruttano JavaScript come linguaggio base al quale aggiungono le caratteristiche mancanti e, mediante il processo di compilazione, producono codice JavaScript puro compatibile con i motori JavaScript presenti nei browser. JavaScript storicamente fu introdotto come linguaggio sia per la programmazione client-side, che per la controparte server-side, ma per vari motivi (la forte concorrenza, basse performance, etc.) ebbe successo solo come linguaggio per la programmazione client; le recenti evoluzioni del linguaggio lo hanno però riportato in auge anche per la programmazione server-side, soprattutto per i miglioramenti delle performance, ma anche per la sua naturale predisposizione per la programmazione event-driven, paradigma alternativo al multi-threading per la programmazione concorrente. Un’applicazione web di elevata complessità al giorno d’oggi può quindi essere interamente sviluppata utilizzando il linguaggio JavaScript, acquisendone sia i suoi vantaggi che gli svantaggi; le nuove tecnologie introdotte ambiscono quindi a diventare la soluzione per i problemi presenti in JavaScript e di conseguenza si propongono come potenziali nuovi linguaggi completi per la programmazione web del futuro, anticipando anche le prossime evoluzioni delle tecnologie già esistenti preannunciate dagli enti standard della programmazione web, il W3C ed ECMAScript. In questa tesi saranno affrontate le tematiche appena introdotte confrontando tra loro le tecnologie in gioco con lo scopo di ottenere un’ampia panoramica delle soluzioni che uno sviluppatore web dovrà prendere in considerazione per realizzare un sistema di importanti dimensioni; in particolare sarà approfondito il linguaggio TypeScript proposto da Microsoft, il quale è nato in successione a Dart apparentemente con lo stesso scopo, ma grazie alla compatibilità con JavaScript e soprattutto con il vasto mondo di librerie legate ad esso nate in questi ultimi anni, si presenta nel mercato come tecnologia facile da apprendere per tutti gli sviluppatori che già da tempo hanno sviluppato abilità nella programmazione JavaScript.
Resumo:
Nel 1997 venne isolata una popolazione cellulare con caratteristiche appartenenti a cellule endoteliali mature e a cellule progenitrici ; le cellule appartenenti a queste popolazione furono denominate EPCs (cellule endoteliali progenitrici circolanti) e fu messa in evidenza la loro capacità di dare origine a vasculogenesi postnatale. Lo scopo dello studio è stata la caratterizzazione di tale popolazione cellulare in termini biologici e la valutazione delle differenze delle EPCs in soggetti sani e nefropatici in emodialisi. È stata infine valutata l’eventuale capacità della Vitamina D di influenzare le capacità delle Late EPCs in termini di formazione di colonie in vitro e di attività anticalcifica in soggetti in insufficienza renale cronica.
Resumo:
Lo studio della turbolenza è di fondamentale importanza non solo per la fluidodinamica teorica ma anche perchè viene riscontrata in una moltitudine di problemi di interesse ingegneristico. All'aumentare del numero di Reynolds, le scale caratteristiche tendono a ridurre le loro dimensioni assolute. Nella fluidodinamica sperimentale già da lungo tempo si è affermata l'anemometria a filo caldo, grazie ad ottime caratteristiche di risoluzione spaziale e temporale. Questa tecnica, caratterizzata da un basso costo e da una relativa semplicità, rende possibile la realizzazione di sensori di tipo artigianale, che hanno il vantaggio di poter essere relizzati in dimensioni inferiori. Nonostante l'ottima risoluzione spaziale degli hot-wire, infatti, si può verificare, ad alto numero di Reynolds, che le dimensioni dell'elemento sensibile siano superiori a quelle delle piccole scale. Questo impedisce al sensore di risolvere correttamente le strutture più piccole. Per questa tesi di laurea è stato allestito un laboratorio per la costruzione di sensori a filo caldo con filo di platino. Sono in questo modo stati realizzati diversi sensori dalle dimensioni caratteristiche inferiori a quelle dei sensori disponibili commercialmente. I sensori ottenuti sono quindi stati testati in un getto turbolento, dapprima confrontandone la risposta con un sensore di tipo commerciale, per verificarne il corretto funzionamento. In seguito si sono eseguite misure più specifiche e limitate ad alcune particolari zone all'interno del campo di moto, dove è probabile riscontrare effetti di risoluzione spaziale. Sono stati analizzati gli effetti della dimensione fisica del sensore sui momenti statistici centrali, sugli spettri di velocità e sulle funzioni di densità di probabilità.