723 resultados para Scoliosi, Trattamento Chirurgico, Strumentazione, Fallimenti Chirurgici


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Gastroesophageal junction (GEJ) adenocarcinoma are uncommon before age of 40 years. While certain clinical, pathological and molecular features of GEJ adenocarcinoma in older patients have been extensively studied, these characteristics in the younger population remain to be determined. In the recent literature, a high sensitivity and specificity for the detection of dysplasia and esophageal adenocarcinoma was demonstrated by using multicolor fluorescence in situ hybridization (FISH) DNA probe set specific for the locus specific regions 9p21 (p16), 20q13.2 and Y chromosome. We evaluated 663 patients with GEJ adenocarcinoma and further divided them into 2 age-groups of or= 50 years, rispectively. FISH with selected DNA probe for Y chromosome, locus 9p21 (p16), and locus 20q13.2 was investigated with formalin fixed and parassin embedded tissue from surgical resections of 17 younger and 11 older patients. Signals were counted in > 100 cells with each given histopathological category. The chromosomal aberrations were then compared in the 2 age-groups with the focus on uninvolved squamous and columnar epithelium, intestinal metaplasia (Barrett's mucosa), glandular dysplasia, and adenocarcinoma. Comparisons were performed by the X2 test, Fisher's exact test, Student's t-test and Mann-Whitney U-test as appropriate. Survival was estimated by the Kaplan-Meier method with univariate analysis by the log-rank. Significance was taken at the 5% level. There was no difference in the surgical technique applied in both age groups and most patients underwent Ivor Lewis esophagectomy. Among clinical variables there was a higher incidence of smocking history in older patient group. We identified a progressive loss of Y chromosome from benign squamos epithelium to Barrett's mucosa and glandular dysplasia, and, ultimately, to a near complete loss in adenocarcinoma in both age groups. The young group revealed significantly more losses of 9p21 in both benign and neoplastic cells when compared to the older patients group. In addition, we demonstrated an increase in the percentage of cells showing gain of locus 20q13.2 with progression from benign epithelium through dysplasia to adenocarcinoma with almost the same trend in both the young and the older patients. When compared with the older age-group, younger patients with GEJ adenocarcinoma possess similar known demographics, environmental factors, clinical, and pathologic characteristics. The most commonly detected genetic aberrations of progressive Y chromosomal loss, 9p21 locus loss, and 20q13 gains were similar in the younger and older patients. However the rate of loss of 9p21 is significantly higher in young patients, in both the benign and the neoplastic cells. The loss of 9p21, and possibly, the subsequent inactivation of p16 gene may be one of the molecular mechanisms responsible for the accelerated neoplastic process in young patients.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le acque di vegetazione (AV) costituiscono un serio problema di carattere ambientale, sia a causa della loro elevata produzione sia per l’ elevato contenuto di COD che oscilla fra 50 e 150 g/l. Le AV sono considerate un refluo a tasso inquinante fra i più elevati nell’ambito dell’industria agroalimentare e la loro tossicità è determinata in massima parte dalla componente fenolica. Il presente lavoro si propone di studiare e ottimizzare un processo non solo di smaltimento di tale refluo ma anche di una sua valorizzazione, utlizzandolo come materia prima per la produzione di acidi grassi e quindi di PHA, polimeri biodegradabili utilizzabili in varie applicazioni. A tale scopo sono stati utilizzati due bioreattori anaerobici a biomassa adesa, di identica configurazione, con cui si sono condotti due esperimenti in continuo a diverse temperature e carichi organici al fine di studiare l’influenza di tali parametri sul processo. Il primo esperimento è stato condotto a 35°C e carico organico pari a 12,39 g/Ld, il secondo a 25°C e carico organico pari a 8,40 g/Ld. Si è scelto di allestire e mettere in opera un processo a cellule immobilizzate in quanto questa tecnologia si è rivelata vantaggiosa nel trattamento continuo di reflui ad alto contenuto di COD e carichi variabili. Inoltre si è scelto di lavorare in continuo poiché tale condizione, per debiti tempi di ritenzione idraulica, consente di minimizzare la metanogenesi, mediata da microrganismi con basse velocità specifiche di crescita. Per costituire il letto fisso dei due reattori si sono utilizzati due diversi tipi di supporto, in modo da poter studiare anche l’influenza di tale parametro, in particolare si è fatto uso di carbone attivo granulare (GAC) e filtri ceramici Vukopor S10 (VS). Confrontando i risultati si è visto che la massima quantità di VFA prodotta nell’ambito del presente studio si ha nel VS mantenuto a 25°C: in tale condizione si arriva infatti ad un valore di VFA prodotti pari a 524,668 mgCOD/L. Inoltre l’effluente in uscita risulta più concentrato in termini di VFA rispetto a quello in entrata: nell’alimentazione la percentuale di materiale organico presente sottoforma di acidi grassi volatili era del 54 % e tale percentuale, in uscita dai reattori, ha raggiunto il 59 %. Il VS25 rappresenta anche la condizione in cui il COD degradato si è trasformato in percentuale minore a metano (2,35 %) e questo a prova del fatto che l’acidogenesi ha prevalso sulla metanogenesi. Anche nella condizione più favorevole alla produzione di VFA però, si è riusciti ad ottenere una loro concentrazione in uscita (3,43 g/L) inferiore rispetto a quella di tentativo (8,5 g/L di VFA) per il processo di produzione di PHA, sviluppato da un gruppo di ricerca dell’università “La Sapienza” di Roma, relativa ad un medium sintetico. Si può constatare che la modesta produzione di VFA non è dovuta all’eccessiva degradazione del COD, essendo questa nel VS25 appena pari al 6,23%, ma piuttosto è dovuta a una scarsa concentrazione di VFA in uscita. Questo è di buon auspicio nell’ottica di ottimizzare il processo migliorandone le prestazioni, poiché è possibile aumentare tale concentrazione aumentando la conversione di COD in VFA che nel VS25 è pari a solo 5,87%. Per aumentare tale valore si può agire su vari parametri, quali la temperatura e il carico organico. Si è visto che il processo di acidogenesi è favorito, per il VS, per basse temperature e alti carichi organici. Per quanto riguarda il reattore impaccato con carbone attivo la produzione di VFA è molto ridotta per tutti i valori di temperatura e carichi organici utilizzati. Si può quindi pensare a un’applicazione diversa di tale tipo di reattore, ad esempio per la produzione di metano e quindi di energia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tecnica di ozonolisi viene applicata ai fanghi biologici derivanti da impianti di depurazione acque reflue urbane, e consiste nell'ottenere, grazie all'ozono, una minor massa fangosa da smaltire e una miglior trattabilità del fango residue. In questo elaborato si prendono in esame le sperimentazioni effettuate a Marina di Ravenna e si estraggono le prime conclusioni gestionali, economiche e ambientali sull'applicabilità del metodo a questo tipo di fango.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente elaborato è stato finalizzato allo sviluppo di un processo di digestione anaerobica della frazione organica dei rifiuti solidi urbani (FORSU oppure, in lingua inglese OFMSW, Organic Fraction of Municipal Solid Waste) provenienti da raccolta indifferenziata e conseguente produzione di biogas da impiegarsi per il recupero energetico. Questo lavoro rientra nell’ambito di un progetto, cofinanziato dalla Regione Emilia Romagna attraverso il Programma Regionale per la Ricerca Industriale, l’Innovazione e il Trasferimento Tecnologico (PRRIITT), sviluppato dal Dipartimento di Chimica Applicata e Scienza dei Materiali (DICASM) dell’Università di Bologna in collaborazione con la Facoltà di Ingegneria dell’Università di Ferrara e con la società Recupera s.r.l. che applicherà il processo nell’impianto pilota realizzato presso il proprio sito di biostabilizzazione e compostaggio ad Ostellato (FE). L’obiettivo è stato la verifica della possibilità di impiegare la frazione organica dei rifiuti indifferenziati per la produzione di biogas, e in particolare di metano, attraverso un processo di digestione anaerobica previo trattamento chimico oppure in codigestione con altri substrati organici facilmente fermentabili. E’ stata inoltre studiata la possibilità di impiego di reattori con biomassa adesa per migliorare la produzione specifica di metano e diminuire la lag phase. Dalla sperimentazione si può concludere che è possibile giungere allo sviluppo di metano dalla purea codigerendola assieme a refluo zootecnico. Per ottenere però produzioni significative la quantità di solidi volatili apportati dal rifiuto non deve superare il 50% dei solidi volatili complessivi. Viceversa, l’addizione di solfuri alla sola purea si è dimostrata ininfluente nel tentativo di sottrarre gli agenti inibitori della metanogenesi. Inoltre, l’impiego di supporti di riempimento lavorando attraverso processi batch sequenziali permette di eliminare, nei cicli successivi al primo, la lag phase dei batteri metanogeni ed incrementare la produzione specifica di metano.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

CAPITOLO 1 INTRODUZIONE Il lavoro presentato è relativo all’utilizzo a fini metrici di immagini satellitari storiche a geometria panoramica; in particolare sono state elaborate immagini satellitari acquisite dalla piattaforma statunitense CORONA, progettata ed impiegata essenzialmente a scopi militari tra gli anni ’60 e ’70 del secolo scorso, e recentemente soggette ad una declassificazione che ne ha consentito l’accesso anche a scopi ed utenti non militari. Il tema del recupero di immagini aeree e satellitari del passato è di grande interesse per un ampio spettro di applicazioni sul territorio, dall’analisi dello sviluppo urbano o in ambito regionale fino ad indagini specifiche locali relative a siti di interesse archeologico, industriale, ambientale. Esiste infatti un grandissimo patrimonio informativo che potrebbe colmare le lacune della documentazione cartografica, di per sé, per ovvi motivi tecnici ed economici, limitata a rappresentare l’evoluzione territoriale in modo asincrono e sporadico, e con “forzature” e limitazioni nel contenuto informativo legate agli scopi ed alle modalità di rappresentazione delle carte nel corso del tempo e per diversi tipi di applicazioni. L’immagine di tipo fotografico offre una rappresentazione completa, ancorché non soggettiva, dell’esistente e può complementare molto efficacemente il dato cartografico o farne le veci laddove questo non esista. La maggior parte del patrimonio di immagini storiche è certamente legata a voli fotogrammetrici che, a partire dai primi decenni del ‘900, hanno interessato vaste aree dei paesi più avanzati, o regioni di interesse a fini bellici. Accanto a queste, ed ovviamente su periodi più vicini a noi, si collocano le immagini acquisite da piattaforma satellitare, tra le quali rivestono un grande interesse quelle realizzate a scopo di spionaggio militare, essendo ad alta risoluzione geometrica e di ottimo dettaglio. Purtroppo, questo ricco patrimonio è ancora oggi in gran parte inaccessibile, anche se recentemente sono state avviate iniziative per permetterne l’accesso a fini civili, in considerazione anche dell’obsolescenza del dato e della disponibilità di altre e migliori fonti di informazione che il moderno telerilevamento ci propone. L’impiego di immagini storiche, siano esse aeree o satellitari, è nella gran parte dei casi di carattere qualitativo, inteso ad investigare sulla presenza o assenza di oggetti o fenomeni, e di rado assume un carattere metrico ed oggettivo, che richiederebbe tra l’altro la conoscenza di dati tecnici (per esempio il certificato di calibrazione nel caso delle camere aerofotogrammetriche) che sono andati perduti o sono inaccessibili. Va ricordato anche che i mezzi di presa dell’epoca erano spesso soggetti a fenomeni di distorsione ottica o altro tipo di degrado delle immagini che ne rendevano difficile un uso metrico. D’altra parte, un utilizzo metrico di queste immagini consentirebbe di conferire all’analisi del territorio e delle modifiche in esso intercorse anche un significato oggettivo che sarebbe essenziale per diversi scopi: per esempio, per potere effettuare misure su oggetti non più esistenti o per potere confrontare con precisione o co-registrare le immagini storiche con quelle attuali opportunamente georeferenziate. Il caso delle immagini Corona è molto interessante, per una serie di specificità che esse presentano: in primo luogo esse associano ad una alta risoluzione (dimensione del pixel a terra fino a 1.80 metri) una ampia copertura a terra (i fotogrammi di alcune missioni coprono strisce lunghe fino a 250 chilometri). Queste due caratteristiche “derivano” dal principio adottato in fase di acquisizione delle immagini stesse, vale a dire la geometria panoramica scelta appunto perché l’unica che consente di associare le due caratteristiche predette e quindi molto indicata ai fini spionaggio. Inoltre, data la numerosità e la frequenza delle missioni all’interno dell’omonimo programma, le serie storiche di questi fotogrammi permettono una ricostruzione “ricca” e “minuziosa” degli assetti territoriali pregressi, data appunto la maggior quantità di informazioni e l’imparzialità associabili ai prodotti fotografici. Va precisato sin dall’inizio come queste immagini, seppur rappresentino una risorsa “storica” notevole (sono datate fra il 1959 ed il 1972 e coprono regioni moto ampie e di grandissimo interesse per analisi territoriali), siano state molto raramente impiegate a scopi metrici. Ciò è probabilmente imputabile al fatto che il loro trattamento a fini metrici non è affatto semplice per tutta una serie di motivi che saranno evidenziati nei capitoli successivi. La sperimentazione condotta nell’ambito della tesi ha avuto due obiettivi primari, uno generale ed uno più particolare: da un lato il tentativo di valutare in senso lato le potenzialità dell’enorme patrimonio rappresentato da tali immagini (reperibili ad un costo basso in confronto a prodotti simili) e dall’altro l’opportunità di indagare la situazione territoriale locale per una zona della Turchia sud orientale (intorno al sito archeologico di Tilmen Höyük) sulla quale è attivo un progetto condotto dall’Università di Bologna (responsabile scientifico il Prof. Nicolò Marchetti del Dipartimento di Archeologia), a cui il DISTART collabora attivamente dal 2005. L’attività è condotta in collaborazione con l’Università di Istanbul ed il Museo Archeologico di Gaziantep. Questo lavoro si inserisce, inoltre, in un’ottica più ampia di quelle esposta, dello studio cioè a carattere regionale della zona in cui si trovano gli scavi archeologici di Tilmen Höyük; la disponibilità di immagini multitemporali su un ampio intervallo temporale, nonché di tipo multi sensore, con dati multispettrali, doterebbe questo studio di strumenti di conoscenza di altissimo interesse per la caratterizzazione dei cambiamenti intercorsi. Per quanto riguarda l’aspetto più generale, mettere a punto una procedura per il trattamento metrico delle immagini CORONA può rivelarsi utile all’intera comunità che ruota attorno al “mondo” dei GIS e del telerilevamento; come prima ricordato tali immagini (che coprono una superficie di quasi due milioni di chilometri quadrati) rappresentano un patrimonio storico fotografico immenso che potrebbe (e dovrebbe) essere utilizzato sia a scopi archeologici, sia come supporto per lo studio, in ambiente GIS, delle dinamiche territoriali di sviluppo di quelle zone in cui sono scarse o addirittura assenti immagini satellitari dati cartografici pregressi. Il lavoro è stato suddiviso in 6 capitoli, di cui il presente costituisce il primo. Il secondo capitolo è stato dedicato alla descrizione sommaria del progetto spaziale CORONA (progetto statunitense condotto a scopo di fotoricognizione del territorio dell’ex Unione Sovietica e delle aree Mediorientali politicamente correlate ad essa); in questa fase vengono riportate notizie in merito alla nascita e all’evoluzione di tale programma, vengono descritti piuttosto dettagliatamente gli aspetti concernenti le ottiche impiegate e le modalità di acquisizione delle immagini, vengono riportati tutti i riferimenti (storici e non) utili a chi volesse approfondire la conoscenza di questo straordinario programma spaziale. Nel terzo capitolo viene presentata una breve discussione in merito alle immagini panoramiche in generale, vale a dire le modalità di acquisizione, gli aspetti geometrici e prospettici alla base del principio panoramico, i pregi ed i difetti di questo tipo di immagini. Vengono inoltre presentati i diversi metodi rintracciabili in bibliografia per la correzione delle immagini panoramiche e quelli impiegati dai diversi autori (pochi per la verità) che hanno scelto di conferire un significato metrico (quindi quantitativo e non solo qualitativo come è accaduto per lungo tempo) alle immagini CORONA. Il quarto capitolo rappresenta una breve descrizione del sito archeologico di Tilmen Höyuk; collocazione geografica, cronologia delle varie campagne di studio che l’hanno riguardato, monumenti e suppellettili rinvenute nell’area e che hanno reso possibili una ricostruzione virtuale dell’aspetto originario della città ed una più profonda comprensione della situazione delle capitali del Mediterraneo durante il periodo del Bronzo Medio. Il quinto capitolo è dedicato allo “scopo” principe del lavoro affrontato, vale a dire la generazione dell’ortofotomosaico relativo alla zona di cui sopra. Dopo un’introduzione teorica in merito alla produzione di questo tipo di prodotto (procedure e trasformazioni utilizzabili, metodi di interpolazione dei pixel, qualità del DEM utilizzato), vengono presentati e commentati i risultati ottenuti, cercando di evidenziare le correlazioni fra gli stessi e le problematiche di diversa natura incontrate nella redazione di questo lavoro di tesi. Nel sesto ed ultimo capitolo sono contenute le conclusioni in merito al lavoro in questa sede presentato. Nell’appendice A vengono riportate le tabelle dei punti di controllo utilizzati in fase di orientamento esterno dei fotogrammi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La dissertazione, partendo dall’analisi dei dati particolari, dei quali approfondisce il concetto e le norme previste per la disciplina del trattamento, arriva ad una completa ed approfondita analisi dei dati genetici, partendo dal loro inquadramento storico e giungendo sino ad evidenziare la simmetria intercorrente tra gli stessi e il tessuto umano (il campione biologico) che, sotto un profilo squisitamente giuridico, è stato sottoposto al medesimo regime di tutela previsto per il dato genetico. La finalità della definizione dei dati genetici è quella di individuare la loro regolamentazione nell’ambito dell’ordinamento interno nonché ad evidenziare la genesi di tale normazione e, soprattutto, la tecnica utilizzata dall’autorità preposta, che ha inteso recepire (anche se il termine, per taluni atti, è improprio) nell’ambito dell’ordinamento italiano una moltitudine di atti normativi di rango internazione e sovranazionale, succedutisi sin dagli anni immediatamente successivi la fine del secondo conflitto mondiale. Mentre la prima parte della dissertazione commenta la normativa in materia di dati particolari, la seconda parte costituisce un corpo unico finalizzato a rappresentare la doppia faccia dei dati genetici, costituita, da un lato, dalla pericolosità -per i diritti della persona- del loro trattamento e, dall’altro, dalla indispensabilità del trattamento stesso per la tutela della salute dell’uomo, come singolo e come soggetto collettivo. Il lavoro pertanto si inserisce in un contesto in cui la regolamentazione nazionale dei dati genetici pare prima di tutto finalizzata anche alla codificazione di alcune libertà fondamentali fino al 2006 di creazione squisitamente e quasi esclusivamente dottrinale, al più con qualche accenno giurisprudenziale (v. sul punto il diritto di non sapere o, anche se si ritiene che lo stesso sia di fatto stato regolamentato dal Codice in materia di protezione dei dati personali, il diritto all’autodeterminazione informativa) dei quali la tesi in commento individua la chiave regolatrice nell’ambito delle norme contenute nell’Autorizzazione del Garante. L’esame della normativa nazionale, costituita appunto dall’Autorizzazione emanata dal Garante ai sensi dell’art. 90 del Codice è pertanto svolto mediante un commento e, in alcuni punti, una critica costruttiva finalizzata ad evidenziare l’estrema difficoltà nella normazione di un trattamento che, da un lato, rischia di aggredire irrimediabilmente i diritti della persona e dall’altro è indispensabile per la tutela degli stessi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Gli istoni sono proteine basiche che possono essere classificate in varie classi: H1, H2A, H2B, H3 e H4. Queste proteine formano l’ottamero proteico attorno al quale si avvolge il DNA per formare il nucleosoma che è l’unità fondamentale della cromatina. A livello delle code N-terminali, gli istoni possono essere soggetti a numerose modifiche posttraduzionali quali acetilazioni, metilazioni, fosforilazioni, ADP-ribosilazioni e ubiquitinazioni. Queste modifiche portano alla formazione di diversi siti di riconoscimento per diversi complessi enzimatici coinvolti in importanti processi come la riparazione e la replicazione del DNA e l’assemblaggio della cromatina. La più importante e la più studiata di queste modifiche è l’acetilazione che avviene a livello dei residui amminici della catena laterale dell’amminoacido lisina. I livelli corretti di acetilazione delle proteine istoniche sono mantenuti dall’attività combinata di due enzimi: istone acetil transferasi (HAT) e istone deacetilasi (HDAC). Gli enzimi appartenenti a questa famiglia possono essere suddivisi in varie classi a seconda delle loro diverse caratteristiche, quali la localizzazione cellulare, la dimensione, l’omologia strutturale e il meccanismo d’azione. Recentemente è stato osservato che livelli aberranti di HDAC sono coinvolti nella carcinogenesi; per questo motivo numerosi gruppi di ricerca sono interessati alla progettazione e alla sintesi di composti che siano in grado di inibire questa classe enzimatica. L’inibizione delle HDAC può infatti provocare arresto della crescita cellulare, apoptosi o morte cellulare. Per questo motivo la ricerca farmaceutica in campo antitumorale è mirata alla sintesi di inibitori selettivi verso le diverse classi di HDAC per sviluppare farmaci meno tossici e per cercare di comprendere con maggiore chiarezza il ruolo biologico di questi enzimi. Il potenziale antitumorale degli inibitori delle HDAC deriva infatti dalla loro capacità di interferire con diversi processi cellulari, generalmente non più controllati nelle cellule neoplastiche. Nella maggior parte dei casi l’attività antitumorale risiede nella capacità di attivare programmi di differenziamento, di inibire la progressione del ciclo cellulare e di indurre apoptosi. Inoltre sembra essere molto importante anche la capacità di attivare la risposta immunitaria e l’inibizione dell’angiogenesi. Gli inibitori delle HDAC possono essere a loro volta classificati in base alla struttura chimica, alla loro origine (naturale o sintetica), e alla loro capacità di inibire selettivamente le HDAC appartenenti a classi diverse. Non è ancora chiaro se la selettività di queste molecole verso una specifica classe di HDAC sia importante per ottenere un effetto antitumorale, ma sicuramente inibitori selettivi possono essere molto utili per investigare e chiarire il ruolo delle HDAC nei processi cellulari che portano all’insorgenza del tumore. Nel primo capitolo di questa tesi quindi è riportata un’introduzione sull’importanza delle proteine istoniche non solo da un punto di vista strutturale ma anche funzionale per il destino cellulare. Nel secondo capitolo è riportato lo stato dell’arte dell’analisi delle proteine istoniche che comprende sia i metodi tradizionali come il microsequenziamento e l’utilizzo di anticorpi, sia metodi più innovativi (RP-LC, HILIC, HPCE) ideati per poter essere accoppiati ad analisi mediante spettrometria di massa. Questa tecnica consente infatti di ottenere importanti e precise informazioni che possono aiutare sia a identificare gli istoni come proteine che a individuare i siti coinvolti nelle modifiche post-traduzionali. Nel capitolo 3 è riportata la prima parte del lavoro sperimentale di questa tesi volto alla caratterizzazione delle proteine istoniche mediante tecniche cromatografiche accoppiate alla spettrometria di massa. Nella prima fase del lavoro è stato messo a punto un nuovo metodo cromatografico HPLC che ha consentito di ottenere una buona separazione, alla linea di base, delle otto classi istoniche (H1-1, H1-2, H2A-1, H2A-2, H2B, H3-1, H3-2 e H4). La separazione HPLC delle proteine istoniche ha permesso di poter eseguire analisi accurate di spettrometria di massa mediante accoppiamento con un analizzatore a trappola ionica tramite la sorgente electrospray (ESI). E’ stato così possibile identificare e quantificare tutte le isoforme istoniche, che differiscono per il tipo e il numero di modifiche post-traduzionali alle quali sono soggette, previa estrazione da colture cellulari di HT29 (cancro del colon). Un’analisi così dettagliata delle isoforme non può essere ottenuta con i metodi immunologici e permette di eseguire un’indagine molto accurata delle modifiche delle proteine istoniche correlandole ai diversi stadi della progressione del ciclo e alla morte cellulare. Il metodo messo a punto è stato convalidato mediante analisi comparative che prevedono la stessa separazione cromatografica ma accoppiata a uno spettrometro di massa avente sorgente ESI e analizzatore Q-TOF, dotato di maggiore sensibilità e risoluzione. Successivamente, per identificare quali sono gli specifici amminoacidi coinvolti nelle diverse modifiche post-traduzionali, l’istone H4 è stato sottoposto a digestione enzimatica e successiva analisi mediante tecniche MALDI-TOF e LC-ESI-MSMS. Queste analisi hanno permesso di identificare le specifiche lisine acetilate della coda N-terminale e la sequenza temporale di acetilazione delle lisine stesse. Nel quarto capitolo sono invece riportati gli studi di inibizione, mirati a caratterizzare le modifiche a carico delle proteine istoniche indotte da inibitori delle HDAC, dotati di diverso profilo di potenza e selettività. Dapprima Il metodo messo a punto per l’analisi delle proteine istoniche è stato applicato all’analisi di istoni estratti da cellule HT29 trattate con due noti inibitori delle HDAC, valproato e butirrato, somministrati alle cellule a dosi diverse, che corrispondono alle dosi con cui sono stati testati in vivo, per convalidare il metodo per studi di inibizione di composti incogniti. Successivamente, lo studio è proseguito con lo scopo di evidenziare effetti legati alla diversa potenza e selettività degli inibitori. Le cellule sono state trattate con due inibitori più potenti, SAHA e MS275, alla stessa concentrazione. In entrambi i casi il metodo messo a punto ha permesso di evidenziare l’aumento dei livelli di acetilazione indotto dal trattamento con gli inibitori; ha inoltre messo in luce differenti livelli di acetilazione. Ad esempio il SAHA, potente inibitore di tutte le classi di HDAC, ha prodotto un’estesa iperacetilazione di tutte le proteine istoniche, mentre MS275 selettivo per la classe I di HDAC, ha prodotto modifiche molto più blande. E’ stato quindi deciso di applicare questo metodo per studiare la dose e la tempo-dipendenza dell’effetto di quattro diversi inibitori delle HDAC (SAHA, MS275, MC1855 e MC1568) sulle modifiche post-traduzionali di istoni estratti da cellule HT29. Questi inibitori differiscono oltre che per la struttura chimica anche per il profilo di selettività nei confronti delle HDAC appartenenti alle diverse classi. Sono stati condotti quindi studi di dose-dipendenza che hanno consentito di ottenere i valori di IC50 (concentrazione capace di ridurre della metà la quantità relativa dell’istone meno acetilato) caratteristici per ogni inibitore nei confronti di tutte le classi istoniche. E’ stata inoltre calcolata la percentuale massima di inibizione per ogni inibitore. Infine sono stati eseguiti studi di tempo-dipendenza. I risultati ottenuti da questi studi hanno permesso di correlare i livelli di acetilazione delle varie classi istoniche con la selettività d’azione e la struttura chimica degli inibitori somministrati alle cellule. In particolare, SAHA e MC1855, inibitori delle HDAC di classi I e II a struttura idrossamica, hanno causato l’iperacetilazione di tutte le proteine istoniche, mentre MC1568 (inibitore selettivo per HDAC di classe II) ha prodotto l’iperacetilazione solo di H4. Inoltre la potenza e la selettività degli inibitori nel provocare un aumento dei livelli di acetilazione a livello delle distinte classi istoniche è stata correlata al destino biologico della cellula, tramite studi di vitalità cellulare. E’ stato osservato che il SAHA e MC1855, inibitori potenti e non selettivi, somministrati alla coltura HT29 a dose 50 μM producono morte cellulare, mentre MS275 alla stessa dose produce accumulo citostatico in G1/G0. MC1568, invece, non produce effetti significatici sul ciclo cellulare. Questo studio ha perciò dimostrato che l’analisi tramite HPLC-ESI-MS delle proteine istoniche permette di caratterizzare finemente la potenza e la selettività di nuovi composti inibitori delle HDAC, prevedendone l’effetto sul ciclo cellulare. In maggiore dettaglio è risultato che l’iperacetilazione di H4 non è in grado di provocare modifiche significative sul ciclo cellulare. Questo metodo, insieme alle analisi MALDI-TOF e LC-ESI-MSMS che permettono di individuare l’ordine di acetilazione delle lisine della coda N-terminale, potrà fornire importanti informazioni sugli inibitori delle HDAC e potrà essere applicato per delineare la potenza, la selettività e il meccanismo di azione di nuovi potenziali inibitori di questa classe enzimatica in colture cellulari tumorali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi della candidata presenta - attraverso lo studio della normativa e della giurisprudenza rilevanti in Italia, Francia e Germania – un’analisi dell'ambito soggettivo di applicazione del diritto costituzionale d'asilo e del suo rapporto con il riconoscimento dello status di rifugiato ai sensi della Convenzione di Ginevra del 1951, nonchè della sua interazione con le altre forme di protezione della persona previste dal diritto comunitario e dal sistema CEDU di salvaguardia dei diritti fondamentali. Dal breve itinerario comparatistico percorso, emerge una forte tendenza alla neutralizzazione dell’asilo costituzionale ed alla sua sovrapposizione con la fattispecie del rifugio convenzionale quale carattere comune agli ordinamenti presi in esame, espressione di una consapevole scelta di politica del diritto altresì volta ad assimilare la materia alla disciplina generale dell’immigrazione al fine di ridimensionarne le potenzialità espansive (si pensi alla latitudine delle formule costituzionali di cui agli artt. 10, co. 3 Cost. it. e 16a, co. 1 Grundgesetz) e di ricondurre l'asilo entro i tradizionali confini della discrezionalità amministrativa quale sovrana concessione dello Stato ospitante. L'esame delle fonti comunitarie di recente introduzione illumina l’indagine: in particolare, la stessa Direttiva 2004/83CE sulla qualifica di rifugiato e sulla protezione sussidiaria consolida quanto stabilito dalle disposizioni convenzionali, ma ne estende la portata in modo significativo, recependo gli esiti della lunga evoluzione giurisprudenziale compiuta dalle corti nazionali e dal Giudice di Strasburgo nell’interpretazione del concetto di “persecuzione” (specialmente, in relazione all’individuazione delle azioni e degli agenti persecutori). Con riferimento al sistema giuridico italiano, la tesi si interroga sulle prospettive di attuazione del dettato dell’art. 10, terzo comma della Costituzione, ed inoltre propone la disamina di alcuni istituti chiave dell’attuale normativa in materia di asilo, attraverso cui si riscontrano importanti profili di incompatibilità con la natura di diritto fondamentale costituzionalmente tutelato, conferita al diritto di asilo dalla volontà dei Costituenti e radicata nella ratio della norma stessa (il trattenimento del richiedente asilo; la procedura di esame della domanda, l’onere probatorio e le cause ostative al suo accoglimento; l’effettività della tutela giurisdizionale). Le questioni più problematiche ancora irrisolte investono proprio tali aspetti del procedimento - previsto per ottenere quello che alcuni atti europei, tra cui l'art. 18 della Carta di Nizza, definiscono right to asylum - come rivela la disciplina contenuta nella Direttiva 2005/85CE, recante norme minime per le procedure applicate negli Stati membri ai fini del riconoscimento e della revoca dello status di rifugiato. Infine, il fenomeno della esternalizzazione dei controlli compromette lo stesso accesso alle procedure, nella misura in cui rende "mobile" il confine territoriale dell’area Schengen (attraverso l'introduzione del criterio dello "Stato terzo sicuro", degli strumenti dell'esame preliminare delle domande e della detenzione amministrativa nei Paesi di transito, nonché per mezzo del presidio delle frontiere esterne), relegando il trattamento dei richiedenti asilo ad uno spazio in cui non sempre è monitorabile l'effettivo rispetto del principio del non refoulement, degli obblighi internazionali relativi all’accoglienza dei profughi e delle clausole di determinazione dello Stato competente all'esame delle domande ai sensi del Regolamento n. 343/03, c.d. Dublino II (emblematico il caso del pattugliamento delle acque internazionali e dell'intercettazione delle navi prima del superamento dei confini territoriali). Questi delicati aspetti di criticità della disciplina procedimentale limitano il carattere innovativo delle recenti acquisizioni comunitarie sull’ambito di operatività delle nuove categorie definitorie introdotte (le qualifiche di rifugiato e di titolare di protezione sussidiaria e la complessa nozione di persecuzione, innanzitutto), richiedendo, pertanto, l’adozione di un approccio sistemico – piuttosto che analitico – per poter rappresentare in modo consapevole le dinamiche che concretamente si producono a livello applicativo ed affrontare la questione nodale dell'efficienza dell'attuale sistema multilivello di protezione del richiedente asilo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il lavoro sperimentale condotto nell’ambito della presente tesi è stato svolto su un impianto pilota a flusso continuo con schema predenitro/nitro in scala di laboratorio, alimentato con refluo sintetico ed installato presso i laboratori della Sezione ACS PROT IDR - Gestione Risorse Idriche dell’ENEA (sede di Bologna). Le finalità della sperimentazione erano mirate ad una verifica preliminare sull’utilizzo di segnali indiretti, quali pH, ORP, DO, nel monitoraggio in tempo reale dei processi biologici, mirata alla possibilità di implementare un sistema di controllo automatico di un impianto di depurazione, capace di minimizzare i costi di gestione e in grado di garantire, in ogni caso, elevate efficienze depurative. Nel presente studio sono stati esaminati gli aspetti metodologici e tecnologici alla base dell’automazione di un impianto di trattamento di acque reflue, avendo il duplice obiettivo di garantire una buona qualità dell’effluente e un contestuale risparmio energetico. In particolare si è studiato un problema molto diffuso: il controllo della rimozione dell’azoto in un sistema a fanghi attivi con predenitrificazione per l’ossidazione congiunta di carbonio ed azoto, ponendolo in relazione con la variazione dei tempi di commutazione in un processo SBR. L’obiettivo primario della sperimentazione effettuata è stato quello di portare il sistema in un regime di equilibrio stazionario, in modo da poter definire delle condizioni di regime per le quali, ad un ingresso costante e noto, corrispondesse un’uscita altrettanto costante che mantenesse tali condizioni fino a quando non fosse cambiato l’ingresso e/o le condizioni al contorno. A questo scopo si è provveduto, in primo luogo, allo studio di un influente sintetico con cui alimentare l’impianto, di composizione tale da simulare in tutte le sue caratteristiche un refluo civile reale e, successivamente, alla valutazione di una configurazione impiantistica idonea per il raggiungimento dell’equilibrio dei processi. La prima parte della sperimentazione è stata dedicata all’avviamento dell’impianto, effettuando un monitoraggio continuo dell’intero sistema allo scopo di impostare i parametri operativi e in modo da ottenere condizioni stabili per effettuare le successive sperimentazioni.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente studio ha come obbiettivo lo sviluppo di composti di origine naturale come potenziali farmaci antitumorali, attraverso la definizione dei loro specifici target cellulari e molecolari su diversi modelli cellulari ad alta predittività. Gli isotiocianati, contenuti nei vegetali appartenenti alla famiglia delle Crucifereae, sono dotati di una comprovata capacità di inibire la formazione di tumori in modelli animali preventivamente trattati con cancerogeni. Questa attività è riconducibile principalmente alla modulazione degli enzimi coinvolti nell’attivazione/detossificazione di xenobiotici e ad effetti citostatici e citossici, osservati su numerose linee cellulari. Un isotiocianato particolarmente promettente è il sulforafane (SFN). La ricerca condotta durante il periodo di dottorato si è, quindi, focalizzata sull’isotiocianato SFN e in particolare sulla sua capacità di modulare specifici eventi cellulari e molecolari coinvolti nel processo di leucemogenesi. Inizialmente è stato indagato il potenziale citostatico e citotossico del SFN su una linea cellulare T linfoblastoide (cellule Jurkat), con particolare attenzione agli effetti sulla proliferazione cellulare, all’induzione di apoptosi/necrosi e all’analisi di alcuni dei meccanismi molecolari coinvolti negli effetti citostatici e citotossici dell’isotiocianato ( livelli proteici di p53, bax e bcl-2). Successivamente, poiché requisiti fondamentali di un antitumorale sono selettività d’azione e scarsa tossicità, è stato indagato il potenziale citostatico e citotossico dell’isotiocianato SFN sulla controparte non trasformata delle cellule leucemiche T linfoblastoidi, analizzando gli stessi eventi studiati su cellule tumorali e alcuni dei meccanismi molecolari coinvolti (livelli proteici di ciclina D2, ciclina D3, chinasi ciclina dipendente (CDK) 4 e CDK6 ). Il SFN si è dimostrato in grado di indurre apoptosi sulle cellule Jurkat e di inibirne la proliferazione, mediante un blocco in fase G2/M del ciclo cellulare e un incremento dei livelli di p53 e bax. Il SFN è in grado di indurre effetti citostatici e citotossici anche su linfociti T non trasformati. Tuttavia, le dosi necessarie per esibire tali effetti sono ben più elevate di quelle attive su cellule leucemiche. Una tappa importante nello sviluppo di un farmaco antitumorale è, la definizione, dove possibile, dei suoi effetti in un modello ex vivo, altamente predittivo di quella che sarà la risposta farmacologica in vivo. Sono stati quindi valutati gli effetti del SFN su colture primarie di blasti provenienti da pazienti affetti da diversi tipi di leucemia , sia mieloide che linfoblastica. Il SFN non sembra possedere alcuna attività su campioni da pazienti affetti da LLC, mentre un importante attività proapoptotica si registra nei campioni da pazienti affetti da LMA, dove l’effetto del SFN è sorprendentemente marcato anche su campioni da pazienti multiresistenti. L’attività dell’isotiocianato sui campioni da pazienti affetti da LLA è decisamente più marcata sul campione da paziente affetto da LLA a cellule B, mentre sul campione di Leucemia Acuta Bifenotipica l’effetto proapoptotico del SFN si registra dopo tempi di trattamento brevi piuttosto che dopo tempi di trattamento più lunghi. In conclusione, i risultati ottenuti evidenziano che il SFN possiede un’interessante attività antileucemica in vitro e, dato di particolare rilevanza, anche ex vivo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The conversion coefficients from air kerma to ICRU operational dose equivalent quantities for ENEA’s realization of the X-radiation qualities L10-L35 of the ISO “Low Air Kerma rate” series (L), N10-N40 of the ISO “Narrow spectrum” series (N) and H10-H60 of the ISO “High Air-kerma rate” (H) series and two beams at 5 kV and 7.5 kV were determined by utilising X-ray spectrum measurements. The pulse-height spectra were measured using a planar high-purity germanium spectrometer (HPGe) and unfolded to fluence spectra using a stripping procedure then validate with using Monte Carlo generated data of the spectrometer response. HPGe portable detector has a diameter of 8.5 mm and a thickness of 5 mm. The entrance window of the crystal is collimated by a 0.5 mm thick Aluminum ring to an open diameter of 6.5 mm. The crystal is mounted at a distance of 5 mm from the Berillium window (thickness 25.4 micron). The Monte Carlo method (MCNP-4C) was used to calculate the efficiency, escape and Compton curves of a planar high-purity germanium detector (HPGe) in the 5-60 keV energy. These curves were used for the determination of photon spectra produced by the X-ray machine SEIFERT ISOVOLT 160 kV in order to allow a precise characterization of photon beams in the low energy range, according to the ISO 4037. The detector was modelled with the MCNP computer code and validated with experimental data. To verify the measuring and the stripping procedure, the first and the second half-value layers and the air kerma rate were calculated from the counts spectra and compared with the values measured using an a free-air ionization chamber. For each radiation quality, the spectrum was characterized by the parameters given in ISO 4037-1. The conversion coefficients from the air kerma to the ICRU operational quantities Hp(10), Hp(0.07), H’(0.07) and H*(10) were calculated using monoenergetic conversion coefficients. The results are discussed with respect to ISO 4037-4, and compared with published results for low-energy X-ray spectra. The main motivation for this work was the lack of a treatment of the low photon energy region (from a few keV up to about 60 keV).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il tema della Logistica Urbana è un argomento complesso che coinvolge diverse discipline. Infatti, non è possibile affrontare la distribuzione delle merci da un solo punto di vista. Da un lato, infatti, manifesta l’esigenza della città e della società in generale di migliorare la qualità della vita anche attraverso azioni di contenimento del traffico, dell’inquinamento e degli sprechi energetici. A questo riguardo, è utile ricordare che il trasporto merci su gomma costituisce uno dei maggiori fattori di impatto su ambiente, sicurezza stradale e congestione della viabilità urbana. Dall’altro lato vi sono le esigenze di sviluppo economico e di crescita del territorio dalle quali non è possibile prescindere. In questa chiave, le applicazioni inerenti la logistica urbana si rivolgono alla ricerca di soluzioni bilanciate che possano arrecare benefici sociali ed economici al territorio anche attraverso progetti concertati tra i diversi attori coinvolti. Alla base di tali proposte di pratiche e progetti, si pone il concetto di esternalità inteso come l’insieme dei costi esterni sostenuti dalla società imputabili al trasporto, in particolare al trasporto merci su gomma. La valutazione di questi costi, che rappresentano spesso una misurazione qualitativa, è un argomento delicato in quanto, come è facile immaginare, non può essere frutto di misure dirette, ma deve essere dedotto attraverso meccanismi inferenziali. Tuttavia una corretta definizione delle esternalità definisce un importante punto di partenza per qualsiasi approccio al problema della Logistica Urbana. Tra gli altri fattori determinanti che sono stati esplorati con maggiore dettaglio nel testo integrale della tesi, va qui accennata l’importanza assunta dal cosiddetto Supply Chain Management nell’attuale assetto organizzativo industriale. Da esso dipendono approvvigionamenti di materie prime e consegne dei prodotti finiti, ma non solo. Il sistema stesso della distribuzione fa oggi parte di quei servizi che si integrano con la qualità del prodotto e dell’immagine della Azienda. L’importanza di questo settore è accentuata dal fatto che le evoluzioni del commercio e l’appiattimento dei differenziali tra i sistemi di produzione hanno portato agli estremi la competizione. In questa ottica, minimi vantaggi in termini di servizio e di qualità si traducono in enormi vantaggi in termini di competitività e di acquisizione di mercato. A questo si aggiunge una nuova logica di taglio dei costi che porta a ridurre le giacenze di magazzino accorciando la pipeline di produzione ai minimi termini in tutte le fasi di filiera. Naturalmente questo si traduce, al punto vendita in una quasi totale assenza di magazzino. Tecnicamente, il nuovo modello di approvvigionamento viene chiamato just-in-time. La ricerca che è stata sviluppata in questi tre anni di Dottorato, sotto la supervisione del Prof. Piero Secondini, ha portato ad un approfondimento di questi aspetti in una chiave di lettura ad ampio spettro. La ricerca si è quindi articolata in 5 fasi: 1. Ricognizione della letteratura italiana e straniera in materia di logistica e di logistica urbana; 2. Studio delle pratiche nazionali ed europee 3. Analisi delle esperienze realizzate e delle problematiche operative legate ai progetti sostenuti dalla Regione Emilia Romagna 4. Il caso di studio di Reggio Emilia e redazione di più proposte progettuali 5. Valutazione dei risultati e conclusioni Come prima cosa si è quindi studiata la letteratura in materia di Logistica Urbana a livello nazionale. Data la relativamente recente datazione dei primi approcci nazionali ed europei al problema, non erano presenti molti testi in lingua italiana. Per contro, la letteratura straniera si riferisce generalmente a sistemi urbani di dimensione e configurazione non confrontabili con le realtà nazionali. Ad esempio, una delle nazioni che hanno affrontato per prime tale tematica e sviluppato un certo numero di soluzioni è stata il Giappone. Naturalmente, città come Tokyo e Kyoto sono notevolmente diverse dalle città europee ed hanno necessità ed esigenze assai diverse. Pertanto, soluzioni tecnologiche e organizzative applicate in questi contesti sono per la maggior parte inattuabili nei contesti del vecchio continente. Le fonti che hanno costituito maggiore riferimento per lo sviluppo del costrutto teorico della tesi, quindi, sono state i saggi che la Regione Emilia Romagna ha prodotto in occasione dello sviluppo del progetto City Ports di cui la Regione stessa era coordinatore di numerosi partners nazionali ed europei. In ragione di questo progetto di ricerca internazionale, l’Emilia Romagna ha incluso il trattamento della logistica delle merci negli “Accordi di Programma per il miglioramento della qualità dell’aria” con le province ed i capoluoghi. In Questo modo si è posta l’attenzione sulla sensibilizzazione delle Pubbliche Amministrazioni locali verso la mobilità sostenibile anche nell’ambito di distribuzione urbana delle merci. Si noti infatti che l’impatto sulle esternalità dei veicoli leggeri per il trasporto merci, quelli cioè che si occupano del cosiddetto “ultimo miglio” sono di due ordini di grandezza superiori rispetto a quelli dei veicoli passeggeri. Nella seconda fase, la partecipazione a convegni di ambito regionale e nazionale ha permesso di arricchire le conoscenze delle best-practice attuate in Italia per lo sviluppo di strumenti finalizzati ad condividere i costi esterni della mobilità delle merci con gli operatori logistici. In questi contesti è stato possibile verificare la disponibilità di tre linee di azione sulle quali, all’interno del testo della tesi si farà riferimento molto spesso: - linea tecnologica; - linea amministrativa; - linea economico/finanziaria. Nel discutere di questa tematica, all’interno di questi contesti misti in cui partecipavano esponenti della cultura accademica, delle pubbliche amministrazioni e degli operatori, ci si è potuti confrontare con la complessità che il tema assume. La terza fase ha costituito la preparazione fondamentale allo studio del caso di studio. Come detto sopra, la Regione Emilia Romagna, all’interno degli Accordi di Programma con le Province, ha deliberato lo stanziamento di co-finanziamenti per lo sviluppo di progetti, integrati con le pratiche della mobilità, inerenti la distribuzione delle merci in città. Inizialmente, per tutti i capoluoghi di provincia, la misura 5.2 degli A.d.P. prevedeva la costruzione di un Centro di Distribuzione Urbana e l’individuazione di un gestore dei servizi resi dallo stesso. Successive considerazioni hanno poi portato a modifiche della misura lasciando una maggiore elasticità alle amministrazioni locali. Tramite una esperienza di ricerca parallela e compatibile con quella del Dottorato finanziata da un assegno di ricerca sostenuto dall’Azienda Consorziale Trasporti di Reggio Emilia, si è potuto partecipare a riunioni e seminari presentati dalla Regione Emilia Romagna in cui si è potuto prendere conoscenza delle proposte progettuali di tutte le province. L’esperienza di Reggio Emilia costituisce il caso di studio della tesi di Dottorato. Le molteplici problematiche che si sono affrontate si sono protratte per tempi lunghi che hanno visto anche modifiche consistenti nell’assetto della giunta e del consiglio comunali. Il fatto ha evidenziato l’ennesimo aspetto problematico legato al mantenimento del patrimonio conoscitivo acquisito, delle metodiche adottate e di mantenimento della coerenza dell’impostazione – in termini di finalità ed obiettivi – da parte dell’Amministrazione Pubblica. Essendo numerosi gli attori coinvolti, in un progetto di logistica urbana è determinante per la realizzazione e la riuscita del progetto che ogni fattore sia allineato e ben informato dell’evoluzione del progetto. In termini di programmazione economica e di pianificazione degli interventi, inoltre, la pubblica amministrazione deve essere estremamente coordinata internamente. Naturalmente, questi sono fattori determinanti per ogni progetto che riguarda le trasformazioni urbane e lo sviluppo delle città. In particolare, i diversi settori (assessorati) coinvolti su questa tematica, fanno o possno fare entrare in situazioni critiche e rischiose la solidità politica dello schieramento di maggioranza. Basti pensare che la distribuzione delle merci in città coinvolge gli assessorati della mobilità, del commercio, del centro storico, dell’ambiente, delle attività produttive. In funzione poi delle filiere che si ritiene di coinvolgere, anche la salute e la sicurezza posso partecipare al tavolo in quanto coinvolte rispettivamente nella distribuzione delle categorie merceologiche dei farmaci e nella security dei valori e della safety dei trasporti. L’esperienza di Reggio Emilia è stata una opportunità preziosissima da molteplici punti di vista. Innanzitutto ha dato modo di affrontare in termini pratici il problema, di constatare le difficoltà obiettive, ad esempio nella concertazione tra gli attori coinvolti, di verificare gli aspetti convergenti su questo tema. Non ultimo in termini di importanza, la relazione tra la sostenibilità economica del progetto in relazione alle esigenze degli operatori commerciali e produttivi che ne configurano gli spazi di azione. Le conclusioni del lavoro sono molteplici. Da quelle già accennate relative alla individuazione delle criticità e dei rischi a quelle dei punti di forza delle diverse soluzioni. Si sono affrontate, all’interno del testo, le problematiche più evidenti cercando di darne una lettura costruttiva. Si sono evidenziate anche le situazioni da evitare nel percorso di concertazione e si è proposto, in tal proposito, un assetto organizzativo efficiente. Si è presentato inoltre un modello di costruzione del progetto sulla base anche di una valutazione economica dei risultati per quanto riguarda il Business Plan del gestore in rapporto con gli investimenti della P.A.. Si sono descritti diversi modelli di ordinanza comunale per la regolamentazione della circolazione dei mezzi leggeri per la distribuzione delle merci in centro storico con una valutazione comparativa di meriti ed impatti negativi delle stesse. Sono inoltre state valutate alcune combinazioni di rapporto tra il risparmio in termini di costi esterni ed i possibili interventi economico finanziario. Infine si è analizzato il metodo City Ports evidenziando punti di forza e di debolezza emersi nelle esperienze applicative studiate.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo studio del processo produttivo del riciclo di materiali provenienti da attività di C&D in un impianto di nuova realizzazione, presentato in questa tesi di laurea,è così articolato: nel primo capitolo si analizza la complicata evoluzione della normativa in materia di rifiuti (non solo da C&D) su scala europea e nazionale accennando i provvedimenti legislativi su scala regionale, con particolare riferimento alla Regione Veneto. Si esamineranno, pertanto, le direttive e le decisioni della Comunità Europea che hanno ispirato, a partire dal 1975, i provvedimenti legislativi nazionali, tra cui vale la pena di ricordare il “Decreto Ronchi”, emanato nel febbraio del 1997, l’attuale D.Lgs. 3/4/2006 n.152, e i Decreti Ministeriali di riferimento per la materia di studio, ovvero il D.M. 5/2/1998, riguardante l’individuazione dei rifiuti per cui è possibile procedere al loro trattamento in regime semplificato e l’ancora poco attuato D.M.8/5/2003 n.203, riferito all’utilizzo di materiale riciclato nelle Pubbliche Amministrazioni. Il secondo capitolo definisce, invece, le caratteristiche principali dei rifiuti da C&D, appartenenti alla categoria dei rifiuti inerti, e delinea le odierne problematiche inerenti a tali materiali. A conferma di queste, nella seconda parte del capitolo, sono presentati alcuni dati che fotografano oggettivamente gli scenari attuali in Europa e in Italia in riferimento alla produzione, al recupero e allo smaltimento di questa categoria di rifiuti. In seguito, il terzo capitolo inizia a definire gli aspetti relativi alla realizzazione di un impianto di studio per il riciclo di rifiuti da C&D. In esso si evidenziano le procedure amministrative, gli adempimenti burocratici e in generale tutti gli aspetti inerenti alla gestione dei rifiuti da C&D per l’esecuzione delle attività di recupero e smaltimento previste dal D.Lgs. n.152/2006, così come modificato dal recentissimo D.Lgs. n.4/2008. Il quarto capitolo definisce i termini per poter considerare i rifiuti da C&D trattati in impianto come MPS. L’attenzione è riposta sulla Direttiva 89/106/CEE, che impone obbligatoriamente, dal 01/06/2004, la marcatura CE per tutti i prodotti da costruzione e, quindi, anche per gli aggregati riciclati. Pertanto, in questo capitolo, vengono definite le prove richieste obbligatoriamente dal D.M 11/4/2007 in accordo con la norma europea UNI EN 13242 recante “Aggregati per materiali non legati e legati con leganti idraulici per l'impiego in opere di ingegneria civile e nella costruzione di strade" ed, in conclusione, viene studiata la Circolare n.5205/2005 che dovrebbe dare attuazione nel settore edile, stradale e ambientale al D.M. n.203/2003. Successivamente, il quinto capitolo delinea le caratteristiche principali degli impianti di trattamento per il recupero dei rifiuti da C&D, delineando le principali differenze tra gli impianti fissi e i mobili ed esaminando le diverse fasi del ciclo produttivo, anche in relazione ad un impianto di studio situato nella provincia di Verona. Infine, il sesto capitolo riassume i risultati delle prove di marcatura CE per gli aggregati riciclati prodotti nell’impianto descritto. Tali prove sono state eseguite presso il Laboratorio di Strade della Facoltà di Ingegneria dell’Università degli Studi di Bologna.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In un periodo di tre anni è stato svolto un lavoro mirato alla valutazione delle complicanze correlate all’utilizzo dello stenting carotideo. Dopo la preparazione di un protocollo con definizione di tutti i fattori di rischio sono stati individuati i criteri di inclusione ed esclusione attraverso i quali arruolare i pazienti. Da Luglio 2004 a Marzo 2007 sono stati inclusi 298 pazienti e sono state valutate le caratteristiche della placca carotidea, con particolare riferimento alla presenza di ulcerazione e/o di stenosi serrata, la tortuosità dei vasi e il tipo di arco aortico oltre a tutti i fattori di rischio demografici e metabolici. E’ stato valutato quanto e se questi fattori di rischio incrementino la percentuale di complicanze della procedura di stenting carotideo. I pazienti arruolati sono stati suddivisi in due gruppi a seconda della morfologia della placca: placca complicata (placca con ulcera del diametro > di 2 mm e placca con stenosi sub occlusiva 99%) e placca non complicata. I due gruppi sono stati comparati in termini di epidemiologia, sintomatologia neurologica preoperatoria, tipo di arco, presenza di stenosi o ostruzione della carotide controlaterale, tipo di stent e di protezione cerebrale utilizzati, evoluzione clinica e risultati tecnici. I dati sono stati valutati mediante analisi statistica di regressione logistica multipla per evidenziare le variabili correlate con l’insuccesso. Dei 298 pazienti consecutivi sottoposti a stenting, 77 hanno mostrato una placca complicata (25,8%) e 221 una placca non complicata (74,2%). I due gruppi non hanno avuto sostanziali differenze epidemiologiche o di sintomatologia preoperatoria. Il successo tecnico si è avuto in 272 casi (91,2%) e sintomi neurologici post-operatosi si sono verificati in 23 casi (23.3%). Tutti i sintomi sono stati temporanei. Non si sono avute differenze statisticamente significative tra i due gruppi in relazione alle complicanze neurologiche e ai fallimenti tecnici. L’età avanzata è correlata ad un incremento dei fallimenti tecnici. I risultati dello studio portano alla conclusione che la morfologia della placca non porta ad un incremento significativo dei rischi correlati alla procedura di stenting carotideo e che l’indicazione alla CAS può essere posta indipendentemente dalla caratteristica della placca.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo studio “Lotta biologica a Fusarium solani f.sp. cucurbitae su zucchino” si colloca nell’ambito della difesa integrata delle colture orticole dalle fitopatie fungine, in particolare quelle causate da patogeni ad habitat terricolo nei confronti dei quali è sempre più frequente il ricorso a mezzi di lotta diversi dai prodotti chimici. Interessante e innovativa appare la prospettiva di utilizzare microrganismi adatti a svilupparsi nel suolo, competenti per la rizosfera delle piante e con spiccate caratteristiche d’antagonismo verso i patogeni tellurici e di stimolazione delle difese sistemiche della pianta. Il marciume del colletto delle cucurbitacee, causato da diversi patogeni tra cui Fusarium solani f.sp. cucurbitae, rappresenta la principale malattia fungina di tipo tellurica che colpisce lo zucchino ed il melone nella Pianura Padana e che può portare a consistenti perdite produttive. Indagini condotte dal 2004 da parte del Diproval nell’areale bolognese, hanno evidenziato un’elevata frequenza del patogeno su zucchino coltivato soprattutto in tunnel. Considerata la carenza di conoscenze locali di F. solani f.sp. cucurbitae e di mezzi chimici di lotta efficaci, la ricerca svolta ha inteso approfondire la diagnosi della malattia e le caratteristiche biologiche degli isolati locali, e valutare la possibilità di utilizzare metodi biologici di lotta contro questo patogeno, nonché di studiare alcune delle possibili modalità d’azione di microrganismi antagonisti. Sono state pertanto prelevate, da zone diverse del Bolognese, campioni di piante di zucchino che presentavano sintomi di marciume del colletto ed è stato isolato il patogeno, che in base alle caratteristiche morfologiche macro e microscopiche, alle prove di patogenicità su diversi ospiti e a saggi biomolecolari, è stato identificato come Fusarium solani f. sp. cucurbitae W.C. Snyder & H.N. Hansen razza 1. Dagli isolati di campo sono state realizzate un centinaio di colture monosporiche venti delle quali sono state utilizzate per la prosecuzione delle prove. I venti ceppi sono stati saggiati per la loro patogenicità inoculandoli in terriccio sterile e con trapianto di giovani piante di zucchino. E’ risultata un’elevata variabilità del livello di virulenza tra i ceppi, stimata da 39% a 83% riguardo la gravità della malattia e da 61 a 96% per la frequenza di malattia. Sono state condotte prove di accrescimento miceliare che hanno evidenziato differenze tra i ceppi e tra gli esperimenti condotti a tre diverse temperature (17, 23 e 28°C) alla luce ed al buio. La crescita maggiore complessivamente è stata ottenuta a 23°C. I venti ceppi hanno anche mostrato di produrre, in vitro, vari livelli di enzimi di patogenesi quali cellulasi, poligalatturonasi, pectin liasi e proteasi. E’ stata evidenziata unan correlazione significativa tra attività cellulasica e pectin liasica con frequenza e gravità della malattia dei venti ceppi del patogeno. Le prove relative al contenimento della malattia sono state condotte in cella climatica. Sono stati considerati prodotti commerciali (Remedier, Rootshield, Cedomon, Mycostop, Proradix, Clonotry) a base rispettivamente dei seguenti microrganismi: Trichoderma harzianum ICC012 + T. viride ICC080, T. harzianum T22, Pseudomonas chlororaphis MA342, Streptomyces griseoviridis K61, P. fluorescens proradix DSM13134 e T. harzianum + Clonostachys rosea). I prodotti sono stati somministrati sul seme, al terreno e su seme+terreno (esperimenti 1 e 2) e in vivaio, al trapianto e vivaio+trapianto (esperimenti 3 e 4), riproducendo situazioni di pratico impiego. L’inoculazione del patogeno (un ceppo ad elevata patogenicità, Fs7 ed uno a bassa patogenicità, Fs37) è stata effettuata nel terreno distribuendo uno sfarinato secco di semi di miglio e cereali colonizzati dal patogeno. La malattia è stata valutata come intensità e gravità. I prodotti sono stati impiegati in situazioni di particolare stress, avendo favorito particolarmente la crescita del patogeno. Complessivamente i risultati hanno evidenziato effetti di contenimento maggiore della malattia nel caso del ceppo Fs37, meno virulento. La malattia è stata ridotta quasi sempre da tutti i formulati e quello che l’ha ridotta maggiormente è stato Cedomon. Il contenimento della malattia somministrando i prodotti solo nel terreno di semina o di trapianto è stato in generale quello più basso. Il contenimento più elevato è stato ottenuto con la combinazione di due tipologie di trattamento, seme+terreno e vivaio+trapianto. Le differenze tra i prodotti sono risultate più evidenti nel caso del ceppo Fs7. Per quanto riguarda lo studio di alcune delle modalità d’azione dei microrganismi contenuti nei formulati più efficaci, è stato verificato che tutti sono stati in grado di inibire, se pur in vario modo, la crescita del patogeno in vitro. Gli antagonisti più efficaci sono stati S. griseoviridis K61 (Mycostop) e P. fluorescens proradix DSM13134). I ceppi di Trichoderma, ed in particolare T.harzianum T22 (Rootshield), sono risultati i più attivi colonizzatori del substrato. Riguardo il fenomeno dell’antibiosi, il batterio P. fluorescens proradix DSM13134 ha mostrato di produrre i metaboliti non volatili più efficaci nel ridurre lo sviluppo del patogeno. Nelle condizioni sperimentali adottate anche i due ceppi di T. viride ICC080 e T. harzianum ICC012 hanno dimostrato di produrre metaboliti efficaci. Tali risultati, anche se relativi a prove in vitro, possono contribuire alla comprensione dei meccanismi dei microrganismi sul contenimento dell’infezione relativamente al rapporto diretto sul patogeno. E’ stato inoltre verificato che tutti i microrganismi saggiati sono dotati di competenza rizosferica e solo i batteri di endofitismo. Si conclude che, nonostante l’elevata pressione infettiva del patogeno che ha certamente influito negativamente sull’efficacia dei microrganismi studiati, i microrganismi antagonisti possono avere un ruolo nel ridurre l’infezione di F. solani f.sp. cucurbitae razza 1.