248 resultados para acque, Marecchia, tecniche analitiche, nitrati


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo di questa tesi di dottorato di ricerca consiste nel fornire la giusta collocazione della manutenzione fra le discipline dell'ingegneria, raccogliendo e formalizzando le metodologie di analisi di affidabilità e di pianificazione degli interventi all'interno di un unico processo di progettazione e di controllo. In linea di principio, un processo di analisi dei guasti e di programmazione della manutenzione deve essere in grado di fornire chiare e sicure risposte ai seguenti interrogativi: Quali sono le funzioni richieste e con quali criteri di prestazioni il sistema è chiamato ad assolverle? Qual'è l'andamento della disponibilità del sistema in funzione del tempo? Quanti guasti e di quale tipo si possono verificare durante la vita del sistema? Quali possono essere le conseguenze che ledono la sicurezza e la protezione ambientale? Quanti pezzi di ricambio sono necessari? Che tipo di interventi di manutenzione preventiva risultano tecnicamente fattibili? A quali scadenze devono essere programmati? A quanto ammonta la previsione del costo di esercizio del sistema? Quante squadre di manutenzione devono essere assegnate al sistema? Come deve essere organizzata la logistica di manutenzione? Con quali tecniche si prevede di riconoscere i guasti e quali procedure devono essere attivate per farvi fronte? E' possibile implementare tecniche di `condition monitoring' delle macchine? Su quali tempi di preavviso sui guasti si può contare? In tal senso, la manutenzione necessita delle tecniche e degli opportuni strumenti che siano in grado di misurarne l'efficacia e l'efficienza. L'efficacia in primo luogo, in quanto l'obiettivo principe consiste nel garantire che il sistema oggetto di studio continui a svolgere le proprie funzioni nei limiti di prestazioni accettabili, secondo le specifiche richieste degli utilizzatori. L'efficienza in secondo luogo, ma non per questo di minore importanza, in quanto perseguendo l'obiettivo di cui sopra, occorre impegnare il minimo di risorse possibili, organizzando con razionalità il supporto logistico del sistema al fine di raggiungere i massimi livelli di rendimento di gestione. La migliore strategia di manutenzione può essere pianificata, a priori, solo se si è in grado di prevedere con la necessaria precisione l'evoluzione del sistema nel suo contesto operativo futuro. E' allora possibile formulare un modello matematico del sistema, studiarne la dinamica ed osservare le reazioni alla simulazione di eventuali stimoli esterni. I metodi ed i modelli noti dell'ingegneria dei sistemi possono essere molto utili per la risoluzione di casi semplici, ma sovente richiedono la formulazione di ipotesi troppo restrittive che aumentano in modo inaccettabile la distanza del modello dalla realtà. Una strada alternativa ed affascinante, che ho percorso con entusiasmo durante questi tre anni di studi e ricerca, consiste nella simulazione numerica della vita del sistema, utilizzando il metodo Monte Carlo per la gestione dei processi stocastici di guasto e per l'esecuzione degli interventi di manutenzione. Ho quindi messo a punto il codice di simulazione RAMSES, perseguendo l'idea di costruire uno strumento di misura dell'efficacia e dell'efficienza di una politica di manutenzione simulata al calcolatore. Nella tesi si presentano i concetti di base dell'ingegneria dei sistemi applicata al caso della manutenzione e si introduce il formalismo della Reliability Centred Maintenance come miglior guida nella pianificazione delle schede di manutenzione. Si introducono le nozioni di base per fornire una struttura solida e corretta alla simulazione numerica dei sistemi riparabili e si presenta il codice RAMSES corredando le informazioni tecniche con i dovuti esempi ed applicazioni pratiche. Si conclude il lavoro, infine, con la presentazione di un modello di massima verosimiglianza particolarmente utile per le analisi dei dati sperimentali di guasto dei componenti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La specificità dell'acquisizione di contenuti attraverso le interfacce digitali condanna l'agente epistemico a un'interazione frammentata, insufficiente da un punto di vista computazionale, mnemonico e temporale, rispetto alla mole informazionale oggi accessibile attraverso una qualunque implementazione della relazione uomo-computer, e invalida l'applicabilità del modello standard di conoscenza, come credenza vera e giustificata, sconfessando il concetto di credenza razionalmente fondata, per formare la quale, sarebbe invece richiesto all'agente di poter disporre appunto di risorse concettuali, computazionali e temporali inaccessibili. La conseguenza è che l'agente, vincolato dalle limitazioni ontologiche tipiche dell'interazione con le interfacce culturali, si vede costretto a ripiegare su processi ambigui, arbitrari e spesso più casuali di quanto creda, di selezione e gestione delle informazioni che danno origine a veri e propri ibridi (alla Latour) epistemologici, fatti di sensazioni e output di programmi, credenze non fondate e bit di testimonianze indirette e di tutta una serie di relazioni umano-digitali che danno adito a rifuggire in una dimensione trascendente che trova nel sacro il suo più immediato ambito di attuazione. Tutto ciò premesso, il presente lavoro si occupa di costruire un nuovo paradigma epistemologico di conoscenza proposizionale ottenibile attraverso un'interfaccia digitale di acquisizione di contenuti, fondato sul nuovo concetto di Tracciatura Digitale, definito come un un processo di acquisizione digitale di un insieme di tracce, ossia meta-informazioni di natura testimoniale. Tale dispositivo, una volta riconosciuto come un processo di comunicazione di contenuti, si baserà sulla ricerca e selezione di meta-informazioni, cioè tracce, che consentiranno l'implementazione di approcci derivati dall'analisi decisionale in condizioni di razionalità limitata, approcci che, oltre ad essere quasi mai utilizzati in tale ambito, sono ontologicamente predisposti per una gestione dell'incertezza quale quella riscontrabile nell'istanziazione dell'ibrido informazionale e che, in determinate condizioni, potranno garantire l'agente sulla bontà epistemica del contenuto acquisito.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presupposto della ricerca consiste nel riconosciuto valore storico-testimoniale e identitario e in un significativo potenziale d’indicazione pianificatoria e progettuale che detengono in sé i segni del paesaggio rurale tradizionale. Allo stato attuale, sebbene tali valori vengano ampiamente affermati sia nell’ambiente normativo-amministrativo che in quello scientifico, è tuttora riscontrabile una carenza di appropriati metodi e tecniche idonei a creare opportuni quadri conoscitivi per il riconoscimento, la catalogazione e il monitoraggio dei paesaggi rurali tradizionali a supporto di politiche, di piani e di progetti che interessano il territorio extraurbano. La ricerca si prefigge l’obiettivo generale della messa a punto di un set articolato ed originale di strumenti analitici e interpretativi di carattere quantitativo idonei per lo studio delle trasformazioni fisiche dei segni del paesaggio rurale tradizionale e per la valutazione del loro grado di integrità e rilevanza alla scala dell’azienda agricola. Tale obiettivo primario si è tradotto in obiettivi specifici, il cui conseguimento implica il ricorso ad un caso studio territoriale. A tal proposito è stato individuato un campione di 11 aziende agricole assunte quali aree studio, per una superficie complessiva pari all’incirca 200 ha, localizzate nel territorio dell’alta pianura imolese (Emilia-Romagna). L’analisi e l’interpretazione quantitativa delle trasformazioni fisiche avvenute a carico dei sopraccitati segni sono state condotte a decorrere da prima dell’industrializzazione all’attualità e per numerosi istanti temporali. Lo studio si presenta sia come contributo di metodo concernente la lettura diacronica dei caratteri tradizionali spaziali e compositivi del territorio rurale, sia come contributo conoscitivo relativo alle dinamiche evolutive dei paesaggi tradizionali rurali dell’area indagata.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’acquifero freatico costiero ravennate è intensamente salinizzato fino a diversi km nell’entroterra. Il corpo dell’acquifero è formato da sabbie che poggiano su un substrato argilloso ad una profondità media di 25 m, i depositi affioranti sono sabbie e argille. Il lavoro svolto consiste in una caratterizzazione dello stato di salinizzazione con metodologie indirette (geoelettrica) e metodologie dirette (letture dei parametri fisici delle acque in pozzo). I sondaggi elettrici verticali (V.E.S.) mostrano stagionalità dovuta alle differenti quantità di pioggia e quindi di ricarica, le aree con depositi superficiali ad alta conducibilità idraulica (sabbie) hanno una lente d’acqua dolce compresa tra 0,1 e 2,25 m di spessore, al di sotto della quale troviamo una zona di mescolamento con spessori che vanno da 1,00 a 12,00 m, mentre quando in superficie abbiamo depositi a bassa conducibilità idraulica (limi sabbiosi e argille sabbiose) la lente d’acqua dolce scompare e la zona di mescolamento è sottile. Le misure dirette in pozzo mostrano una profondità della tavola d’acqua quasi ovunque sotto il livello del mare in entrambi i mesi monitorati, Giugno e Dicembre 2010, presentando una profondità leggermente maggiore nel mese di Dicembre. Dalla ricostruzione litologica risulta un acquifero composto da 4×109 m3 di sabbia, per cui ipotizzando una porosità media del 30% sono presenti 1,2×109 m3 di acqua. Dalla modellazione numerica (Modflow-SEAWAT 2000) risulta che l’origine dell’acqua salata che si trova in falda trova più facilmente spiegazione ipotizzando la sua presenza fin dalla formazione dell’acquifero, residuo delle acque marine che regredivano. Un’altra problematica analizzata è valutare l’applicazione della metodologia a minifiltri in uno studio sulla salinizzazione delle acque di falda. É stata implementata la costruzione di un transetto sperimentale, che ha permesso la mappatura dell’interfaccia acqua dolce/salmastra/salata con una precisione finora non raggiungibile.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le patologie di pertinenza odontostomatologica in pazienti adulti istituzionalizzati affetti da disabilità neuropsichiatrica presentano un’alta prevalenza; scopo del presente lavoro è stato la valutazione della prevalenza di carie (DMFT, SIC) e lo stato di igiene orale (OHI-S) in un gruppo di 103 (72 maschi, 31 femmine, età media 51) pazienti degli Istituti del P.O. Corberi e della RSD Beato Papa Giovanni XIII di Limbiate (MB). E’ stato valutata la collaborazione alla visita con la scala di Frankl, si è definito lo stato funzionale del paziente, in base alla Classificazione Internazionale del Funzionamento, della Disabilità e della Salute (ICF) e si è valutata con un questionario la motivazione degli operatori sanitari a stili di salute orale. Lo studio ha evidenziato un DMFT medio pari a 16,14 e SIC pari a 23,8, valori non correlabili con l'età del soggetto. L’OHI-S medio è pari a 3,46, dato che si presenza correlato con il tempo intercorso dall’ultima visita odontoiatrica. Dal confronto con un gruppo di soggetti sani della stessa età risultano significativamente più elevati i valori della componente (M) e (F) del DMFT e di tutte le componenti dell’OHI-S. Il campione è stato diviso in due gruppi a seconda della loro pregressa collaborazione al trattamento odontoiatrico e sono stati confrontati i dati ricavati dalla checklist ICF. Il gruppo collaborante ha mostrato livelli di funzionalità superiori per quanto riguarda le capacità di osservare, parlare e l’assistenza personale. Dalle risposte del personale socio-sanitario ermerge scarsa informazione sulle tecniche di igiene orale domiciliare quotidiana del paziente assistito. I risultati di questo studio confermano l'alta prevalenza di carie e scarsa igiene orale in soggetti istituzionalizzati con disabilità neuropsichiatrica. L'ICF si è dimostrata una utile guida per la valutazione dell�approccio comportamentale più idoneo in fase di trattamento. Infine, si evidenzia l’importanza di una formazione continua degli operatori socio-sanitari.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’attività di ricerca contenuta in questa tesi si è concentrata nello sviluppo e nell’implementazione di tecniche per la co-simulazione e il co-progetto non lineare/elettromagnetico di sistemi wireless non convenzionali. Questo lavoro presenta un metodo rigoroso per considerare le interazioni tra due sistemi posti sia in condizioni di campo vicino che in condizioni di campo lontano. In sostanza, gli effetti del sistema trasmittente sono rappresentati da un generatore equivalente di Norton posto in parallelo all’antenna del sistema ricevente, calcolato per mezzo del teorema di reciprocità e del teorema di equivalenza. La correttezza del metodo è stata verificata per mezzo di simulazioni e misure, concordi tra loro. La stessa teoria, ampliata con l’introduzione degli effetti di scattering, è stata usata per valutare una condizione analoga, dove l’elemento trasmittente coincide con quello ricevente (DIE) contenuto all’interno di una struttura metallica (package). I risultati sono stati confrontati con i medesimi ottenibili tramite tecniche FEM e FDTD/FIT, che richiedono tempi di simulazione maggiori di un ordine di grandezza. Grazie ai metodi di co-simulazione non lineari/EM sopra esposti, è stato progettato e verificato un sistema di localizzazione e identificazione di oggetti taggati posti in ambiente indoor. Questo è stato ottenuto dotando il sistema di lettura, denominato RID (Remotely Identify and Detect), di funzioni di scansione angolare e della tecnica di RADAR mono-pulse. Il sistema sperimentale, creato con dispositivi low cost, opera a 2.5 GHz ed ha le dimensioni paragonabili ad un normale PDA. E’ stato sperimentata la capacità del RID di localizzare, in scenari indoor, oggetti statici e in movimento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’oggetto del lavoro si sostanzia nella verifica del grado di giustiziabilità che i diritti sociali ricevono nell’ordinamento dell’Unione europea. L’indagine si articola in tre capitoli. Il primo è dedicato ad una sintetica ricostruzione dei modelli di welfare state riconosciuti dagli ordinamenti dei diversi paesi membri dell’Unione attraverso cui, la candidata enuclea un insieme di diritti sociali che ricevono tutela in tutti gli ordinamenti nazionali. L’esposizione prosegue, con la ricostruzione dell’evoluzione dei Trattati istitutivi dell’Unione e l’inclusione della sfera sociale tra gli obiettivi di questa. In particolare, il secondo capitolo esamina la giurisprudenza della Corte di Giustizia in relazione alle materie sociali, nonché l’inclusione dei diritti sociali nel testo della Carta dei diritti fondamentali. L’analisi si sofferma sulle tecniche normative adottate nell’area della politica sociale, evidenziando la tendenza ad un approccio di tipo “soft” piuttosto che attraverso il classico metodo comunitario. Esaurita questa analisi il terzo capitolo analizza i rapporti tra il diritto dell’Ue e quello della CEDU in materia di diritti sociali, evidenziano il diverso approccio utilizzato dalle due istanze sovranazionali nella tutela di questi diritti. Sulla base del lavoro svolto si conclude per una sostanziale mancanza di giustiziabilità dei diritti sociali in ambito dell’Unione. In particolare i punti deboli dell’Europa sociale vengono individuati in: un approccio regolativo alla dimensione sociale di tipo sempre più soft; la permanenza di alcuni deficit di competenze; la mancata indicazione di criteri di bilanciamento tra diritti sociali e libertà economiche e dalla compresenza delle due nozioni di economia sociale e di economia di mercato. Le conclusioni mostrano come l’assenza di competenze esclusive dell’Unione in materia di politica sociale non consenta una uniformazione/armonizzazione delle politiche sociali interne, che si riflette nell’incapacità dei modelli sociali nazionali di assorbire i grandi mutamenti macro economici che si sono avuti negli ultimi vent’anni, sia a livello sovranazionale che internazionale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’approccio innovativo di questa tesi alla pianificazione ciclabile consiste nell’integrare le linee guida per la redazione di un biciplan con aspetti, metodologie e strumenti nuovi, per rendere più efficace la programmazione di interventi. I limiti del biciplan risiedono nella fase di pianificazione e di monitoraggio, quindi, nel 1° capitolo, vengono esaminate le differenze esistenti tra la normativa americana (AASHTO) e quella italiana (D.P.R. 557/99). Nel 2° capitolo vengono analizzati gli indicatori usati nella fase di monitoraggio e la loro evoluzione fino alla definizione degli attuali indici per la determinazione del LOS delle infrastrutture ciclabili: BLOS e BCI. L’analisi è integrata con le nuove applicazioni di questi indici e con lo studio del LOS de HCM 2010. BCI e BISI sono stati applicati alla rete di Bologna per risolvere problemi di pianificazione e per capire se esistessero problemi di trasferibilità. Gli indici analizzati prendono in considerazione solo il lato offerta del sistema di trasporto ciclabile; manca un giudizio sui flussi, per verificare l’efficacia delle policy. Perciò il 3° capitolo è dedicato alla metodologia sul monitoraggio dei flussi, mediante l’utilizzo di comuni traffic counter per le rilevazioni dei flussi veicolari. Dal monitoraggio è possibile ricavare informazioni sul numero di passaggi, periodi di punta, esistenza di percorsi preferiti, influenza delle condizioni climatiche, utili ai progettisti; si possono creare serie storiche di dati per controllare l’evoluzione della mobilità ciclabile e determinare l’esistenza di criticità dell’infrastruttura. L’efficacia della pianificazione ciclabile è legata al grado di soddisfazione dell’utente e all’appetibilità delle infrastrutture, perciò il progettista deve conoscere degli elementi che influenzano le scelte del ciclista. Nel 4° capitolo sono analizzate le tecniche e gli studi sulle scelte dell’itinerario dei ciclisti, e lo studio pilota fatto a Bologna per definire le variabili che influenzano le scelte dei ciclisti e il loro peso.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’utilizzo del reservoir geotermico superficiale a scopi termici / frigoriferi è una tecnica consolidata che permette di sfruttare, tramite appositi “geoscambiatori”, un’energia presente ovunque ed inesauribile, ad un ridotto prezzo in termini di emissioni climalteranti. Pertanto, il pieno sfruttamento di questa risorsa è in linea con gli obiettivi del Protocollo di Kyoto ed è descritto nella Direttiva Europea 2009/28/CE (Comunemente detta: Direttiva Rinnovabili). Considerato il notevole potenziale a fronte di costi sostenibili di installazione ed esercizio, la geotermia superficiale è stata sfruttata già dalla metà del ventesimo secolo in diversi contesti (geografici, geologici e climatici) e per diverse applicazioni (residenziali, commerciali, industriali, infrastrutturali). Ciononostante, solo a partire dagli anni 2000 la comunità scientifica e il mercato si sono realmente interessati ed affacciati all’argomento, a seguito di sopraggiunte condizioni economiche e tecniche. Una semplice ed immediata dimostrazione di ciò si ritrova nel fatto che al 2012 non esiste ancora un chiaro riferimento tecnico condiviso a livello internazionale, né per la progettazione, né per l’installazione, né per il testing delle diverse applicazioni della geotermia superficiale, questo a fronte di una moltitudine di articoli scientifici pubblicati, impianti realizzati ed associazioni di categoria coinvolte nel primo decennio del ventunesimo secolo. Il presente lavoro di ricerca si colloca all’interno di questo quadro. In particolare verranno mostrati i progressi della ricerca svolta all’interno del Dipartimento di Ingegneria Civile, Ambientale e dei Materiali nei settori della progettazione e del testing dei sistemi geotermici, nonché verranno descritte alcune tipologie di geoscambiatori innovative studiate, analizzate e testate nel periodo di ricerca.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo studio che la candidata ha elaborato nel progetto del Dottorato di ricerca si inserisce nel complesso percorso di soluzione del problema energetico che coinvolge necessariamente diverse variabili: economiche, tecniche, politiche e sociali L’obiettivo è di esprimere una valutazione in merito alla concreta “convenienza” dello sfruttamento delle risorse rinnovabili. Il percorso scelto è stato quello di analizzare alcuni impianti di sfruttamento, studiare il loro impatto sull’ambiente ed infine metterli a confronto. Questo ha consentito di trovare elementi oggettivi da poter valutare. In particolare la candidata ha approfondito il tema dello sfruttamento delle risorse “biomasse” analizzando nel dettaglio alcuni impianti in essere nel Territorio della Regione Emilia-Romagna: impianti a micro filiera, filiera corta e filiera lunga. Con la collaborazione di Arpa Emilia-Romagna, Centro CISA e dell’Associazione Prof. Ciancabilla, è stata fatta una scelta degli impianti da analizzare: a micro filiera: impianto a cippato di Castel d’Aiano, a filiera corta: impianto a biogas da biomassa agricola “Mengoli” di Castenaso, a filiera lunga: impianto a biomasse solide “Tampieri Energie” di Faenza. Per quanto riguarda la metodologia di studio utilizzata è stato effettuato uno studio di Life Cycle Assesment (LCA) considerando il ciclo di vita degli impianti. Tramite l’utilizzo del software “SimaPro 6.0” si sono ottenuti i risultati relativi alle categorie di impatto degli impianti considerando i metodi “Eco Indicator 99” ed “Edip Umip 96”. Il confronto fra i risultati dell’analisi dei diversi impianti non ha portato a conclusioni di carattere generale, ma ad approfondite valutazioni specifiche per ogni impianto analizzato, considerata la molteplicità delle variabili di ogni realtà, sia per quanto riguarda la dimensione/scala (microfiliera, filiera corta e filiera lunga) che per quanto riguarda le biomasse utilizzate.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sebbene il magnesio sia essenziale per la maggior parte dei processi biologici, si conosce ancora poco sulla sua distribuzione e compartimentalizzazione intracellulare, soprattutto a causa dell’inadeguatezza delle tecniche attualmente disponibili. Per questo motivo, particolare interesse ha recentemente suscitato una famiglia di molecole fluorescenti, diaza-18-crown-6 8-idrossichinoline (DCHQ1 e suoi derivati), che mostrano un’alta specificità e affinità per il magnesio (superiore a quella delle sonde commerciali), che consente di mappare il magnesio totale intracellulare. L’approccio sintetico alle molecole DCHQ è stato ottimizzato mediante riscaldamento alle microonde: con questa nuova metodica è stato possibile sintetizzare una famiglia di derivati con caratteristiche di fluorescenza, uptake, ritenzione e localizzazione intracellulare potenziate rispetto alla capostipite DCHQ1. Il derivato acetometossi estere (DCHQ3), idrolizzato dalle esterasi cellulari, ha mostrato un miglior uptake e ritenzione intracellulare; le lunghe catene laterali alchiliche della sonda DCHQ4, invece, hanno conferito a questo derivato maggiore lipofilicità e, di conseguenza, maggiore affinità per le membrane; con l’inserimento di gruppi laterali aromatici, infine, si sono ottenute due sonde (DCHQ5 e DCHQ6) molto fluorescenti e altamente ritenute all’interno delle cellule anche dopo i lavaggi. Il derivato fenilico DCHQ5 si è dimostrato, inoltre, utilizzabile anche per saggi fluorimetrici quantitativi del magnesio totale in campioni cellulari molto piccoli; in più, grazie all’alta ritenzione cellulare, è stato usato per monitorare e quantificare l’efflusso di magnesio attraverso la membrana plasmatica in risposta a stimolazione con cAMP. I risultati presentati in questa tesi mostrano che i DCHQ-derivati potranno rappresentare in futuro uno strumento versatile per lo studio della distribuzione e dell’omeostasi del magnesio cellulare. In particolare la sonda DCHQ5 ha mostrato l’ulteriore peculiarità di essere eccitabile sia nell’UV che nel visibile, e potrebbe essere quindi utilizzata con successo in un’ampia varietà di misure di fluorescenza, fornendo un contributo importante per la comprensione del ruolo di questo importante elemento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Critical lower limb ischemia is a severe disease. A common approach is infrainguinal bypass. Synthetic vascular prosthesis, are good conduits in high-flow low-resistance conditions but have difficulty in their performance as small diameter vessel grafts. A new approach is the use of native decellularized vascular tissues. Cell-free vessels are expected to have improved biocompatibility when compared to synthetic and are optimal natural 3D matrix templates for driving stem cell growth and tissue assembly in vivo. Decellularization of tissues represent a promising field for regenerative medicine, with the aim to develop a methodology to obtain small-diameter allografts to be used as a natural scaffold suited for in vivo cell growth and pseudo-tissue assembly, eliminating failure caused from immune response activation. Material and methods. Umbilical cord-derived mesenchymal cells isolated from human umbilical cord tissue were expanded in advanced DMEM. Immunofluorescence and molecular characterization revealed a stem cell profile. A non-enzymatic protocol, that associate hypotonic shock and low-concentration ionic detergent, was used to decellularize vessel segments. Cells were seeded cell-free scaffolds using a compound of fibrin and thrombin and incubated in DMEM, after 4 days of static culture they were placed for 2 weeks in a flow-bioreactor, mimicking the cardiovascular pulsatile flow. After dynamic culture, samples were processed for histological, biochemical and ultrastructural analysis. Discussion. Histology showed that the dynamic culture cells initiate to penetrate the extracellular matrix scaffold and to produce components of the ECM, as collagen fibres. Sirius Red staining showed layers of immature collagen type III and ultrastructural analysis revealed 30 nm thick collagen fibres, presumably corresponding to the immature collagen. These data confirm the ability of cord-derived cells to adhere and penetrate a natural decellularized tissue and to start to assembly into new tissue. This achievement makes natural 3D matrix templates prospectively valuable candidates for clinical bypass procedures

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Scopo del lavoro della presente tesi è stato quello di valutare la prevalenza di Chlamydiaceae, ed in particolare Chlamydia psittaci, in una popolazione aviare con caratteristiche sinantropiche quale il colombo di città (Columba livia var. domestica) dell’areale veneziano. Per evidenziare il patogeno sono state utilizzate metodiche sierologiche, d’isolamento e biomolecolari tradizionali. Contestualmente, mediante tecnologie molecolari innovative, quali microarray ed MLVA (Multilocus VNTR Assay) sono stati valutati i genotipi di C. psittaci e le eventuali altre specie di Chlamydia presenti in tale popolazione. Inoltre, si è proceduto ad una classificazione delle lesioni anatomo-patologiche ed ad una loro correlazione con la presenza del patogeno. I risultati dimostrano che la prevalenza di C. psittaci nella popolazione oggetto dello studio è del 10%. Durante tale studio è stata dimostrata la presenza di un ceppo di C. psittaci atipico, in quanto non classificabile con le attuali tecniche a disposizione. La genotipizzazione dei ceppi di C. psittaci conferma la presenza nel colombo di città del genotipo B, E ed E/B, che solitamente risultano essere coinvolti con minore frequenza in episodi di infezione umana. Inoltre sono stati dimostrati alcuni ceppi classificati come Chlamydia spp., in quanto le metodologie applicate e le conoscenze attuali non permettono ulteriori distinzioni, prospettando la possibilità di un nuovo ceppo. Infine, attraverso l’analisi dei dati raccolti durante la prima fase di campionamenti e successivamente confermati durante la seconda fase, siamo riusciti a strutturare un sistema di selezione, basato su caratteristiche funzionali ed anatomopatologiche, che permette di selezionare in sede necroscopica i colombi molto probabilmente infetti, permettendo conseguentemente una migliore organizzazione e gestione dei campioni di interesse contenendo nel contempo i costi ma mantenendo elevati gli standards diagnostici.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Oggetto della ricerca è l’accertamento dell’esistenza, nonché la definizione, della strategia dall’UE in materia di controversie commerciali aventi ad oggetto l’interpretazione e l’applicazione di norme facenti capo agli Accordi OMC in materia di misure sanitarie e di barriere tecniche al commercio. Nella prima parte della tesi, si ricostruiscono gli obbiettivi perseguiti dall’UE in materia di controversie SPS e TBT. In questo contesto, un’importanza di primo piano è attribuita alla difesa dell’autonomia regolamentare dell’Unione. Ad essa si riconduce la prassi UE finalizzata a prevenire il sorgere di controversie sul piano bilaterale attraverso la conclusione di accordi di mutuo riconoscimento, la cui portata ella sottolinea essere tuttavia limitata. L’analisi di cinque controversie sorte in ambito OMC di cui l’Unione è o è stata parte convenuta e che si fondano su presunte o accertate violazioni delle norme facenti capo ai due accordi menzionati consente di classificare gli argomenti giuridici avanzati dall’Unione nel contesto di tali controversie. Nella seconda parte della ricerca, la candidata identifica i mezzi a servizio della strategia UE, in primo luogo, attraverso l’analisi del quadro giuridico relativo alla partecipazione dell’Unione e degli Stati Membri al sistema OMC di risoluzione delle controversie; in secondo luogo, attraverso lo studio, da un lato, dello status delle norme OMC nell’ordinamento UE e, dall’altro, degli effetti delle pronunce dell’Organo di Risoluzione delle Controversie e della questione della responsabilità dell’Unione per violazione del diritto OMC. Sulla base del lavoro di ricerca svolto, si conclude che una strategia dell’UE esiste nella misura in cui l’Unione persegue l’obbiettivo di preservare la propria autonomia regolamentare attraverso, anche se non esclusivamente, gli strumenti afferenti all’ordine giuridico interno analizzati nella seconda parte. La candidata conclude altresì che la riforma del diritto delle relazioni esterne operata dal Trattato di Lisbona può indurre un cambiamento di tale strategia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nel corso degli anni diverse sono le tecniche proposte per il trattamento delle lesioni osteocondrali, da quelle mini-invasive con stimolazione midollare fino a quelle più aggressive basate sul trapianto di tessuti autologhi o eterologhi. Tutti questi metodi hanno comunque dei difetti ed è questo il motivo per cui il trattamento delle lesioni osteocondrali rappresenta tuttora una sfida per il chirurgo ortopedico, in considerazione dell’alta specializzazione e del basso potere di guarigione del tessuto cartilagineo. Buoni risultati sono stati ottenuti con innesti bioingegnerizzati o matrici polimeriche impiantati nei siti danneggiati. La quantità di scaffolds in uso per la riparazione condrale ed osteocondrale è molto ampia; essi differiscono non solo per il tipo di materiali usati per la loro realizzazione, ma anche per la presenza di promotori di una o più linee cellulari , su base condrogenica o osteogenica. Quando ci si approccia ad una lesione condrale di grandi dimensioni, l’osso sub-condrale è anch’esso coinvolto e necessita di trattamento per ottenere il corretto ripristino degli strati articolari più superficiali. La scelta più giusta sembra essere un innesto osteocondrale bioingegnerizzato, pronto per l’uso ed immediatamente disponibile, che consenta di effettuare il trattamento in un unico tempo chirurgico. Sulla base di questo razionale, dopo uno studio preclinico animale e previa autorizzazione del comitato etico locale, abbiamo condotto uno studio clinico clinico pilota utilizzando un nuovo innesto biomimetico nanostrutturato per il trattamento di lesioni condrali ed osteocondrali del ginocchio; la sua sicurezza e maneggevolezza, così come la facile riproducibilità della tecnica chirurgica ed i risultati clinici ottenuti sono stati valutati nel tempo a 6, 12, 24, 36 e 48 mesi dall’impianto in modo da testare il suo potenziale intrinseco senza l’aggiunta di alcuna linea cellulare.