1000 resultados para gruppi di Lie teoria delle rappresentazioni analisi armonica su SU(2)


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro nasce dall’obiettivo di individuare strumenti statistici per indagare, sotto diversi aspetti, il flusso di lavoro di un Laboratorio di Anatomia Patologica. Il punto di partenza dello studio è l’ambiente di lavoro di ATHENA, software gestionale utilizzato nell’Anatomia Patologica, sviluppato dalla NoemaLife S.p.A., azienda specializzata nell’informatica per la sanità. A partire da tale applicativo è stato innanzitutto formalizzato il workflow del laboratorio (Capitolo 2), nelle sue caratteristiche e nelle sue possibili varianti, identificando le operazioni principali attraverso una serie di “fasi”. Proprio le fasi, unitamente alle informazioni addizionali ad esse associate, saranno per tutta la trattazione e sotto diversi punti di vista al centro dello studio. L’analisi che presentiamo è stata per completezza sviluppata in due scenari che tengono conto di diversi aspetti delle informazioni in possesso. Il primo scenario tiene conto delle sequenze di fasi, che si presentano nel loro ordine cronologico, comprensive di eventuali ripetizioni o cicli di fasi precedenti alla conclusione. Attraverso l’elaborazione dei dati secondo specifici formati è stata svolta un’iniziale indagine grafica di Workflow Mining (Capitolo 3) grazie all’ausilio di EMiT, un software che attraverso un set di log di processo restituisce graficamente il flusso di lavoro che li rappresenta. Questa indagine consente già di valutare la completezza dell’utilizzo di un applicativo rispetto alle sue potenzialità. Successivamente, le stesse fasi sono state elaborate attraverso uno specifico adattamento di un comune algoritmo di allineamento globale, l’algoritmo Needleman-Wunsch (Capitolo 4). L’utilizzo delle tecniche di allineamento applicate a sequenze di processo è in grado di individuare, nell’ambito di una specifica codifica delle fasi, le similarità tra casi clinici. L’algoritmo di Needleman-Wunsch individua le identità e le discordanze tra due stringhe di caratteri, assegnando relativi punteggi che portano a valutarne la similarità. Tale algoritmo è stato opportunamente modificato affinché possa riconoscere e penalizzare differentemente cicli e ripetizioni, piuttosto che fasi mancanti. Sempre in ottica di allineamento sarà utilizzato l’algoritmo euristico Clustal, che a partire da un confronto pairwise tra sequenze costruisce un dendrogramma rappresentante graficamente l’aggregazione dei casi in funzione della loro similarità. Proprio il dendrogramma, per la sua struttura grafica ad albero, è in grado di mostrare intuitivamente l’andamento evolutivo della similarità di un pattern di casi. Il secondo scenario (Capitolo 5) aggiunge alle sequenze l’informazione temporale in termini di istante di esecuzione di ogni fase. Da un dominio basato su sequenze di fasi, si passa dunque ad uno scenario di serie temporali. I tempi rappresentano infatti un dato essenziale per valutare la performance di un laboratorio e per individuare la conformità agli standard richiesti. Il confronto tra i casi è stato effettuato con diverse modalità, in modo da stabilire la distanza tra tutte le coppie sotto diversi aspetti: le sequenze, rappresentate in uno specifico sistema di riferimento, sono state confrontate in base alla Distanza Euclidea ed alla Dynamic Time Warping, in grado di esprimerne le discordanze rispettivamente temporali, di forma e, dunque, di processo. Alla luce dei risultati e del loro confronto, saranno presentate già in questa fase le prime valutazioni sulla pertinenza delle distanze e sulle informazioni deducibili da esse. Il Capitolo 6 rappresenta la ricerca delle correlazioni tra elementi caratteristici del processo e la performance dello stesso. Svariati fattori come le procedure utilizzate, gli utenti coinvolti ed ulteriori specificità determinano direttamente o indirettamente la qualità del servizio erogato. Le distanze precedentemente calcolate vengono dunque sottoposte a clustering, una tecnica che a partire da un insieme eterogeneo di elementi individua famiglie o gruppi simili. L’algoritmo utilizzato sarà l’UPGMA, comunemente applicato nel clustering in quanto, utilizzando, una logica di medie pesate, porta a clusterizzazioni pertinenti anche in ambiti diversi, dal campo biologico a quello industriale. L’ottenimento dei cluster potrà dunque essere finalmente sottoposto ad un’attività di ricerca di correlazioni utili, che saranno individuate ed interpretate relativamente all’attività gestionale del laboratorio. La presente trattazione propone quindi modelli sperimentali adattati al caso in esame ma idealmente estendibili, interamente o in parte, a tutti i processi che presentano caratteristiche analoghe.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Obiettivo del presente lavoro è approntare un’analisi interpretativa dell’operatività dalle Finanziarie regionali, valutarne gli investimenti in capitale di rischio e, in particolare, l’attività di private equity, evidenziando le tendenze in atto, i possibili percorsi evolutivi e le eventuali criticità. La metodologia adottata ha previsto un’articolazione del lavoro lungo due principali direttive: un’analisi di tipo quantitativo sui bilanci di sette esercizi (dal 2002 al 2008), con la finalità di indagare nel dettaglio gli aspetti economici, finanziari e patrimoniali delle Finanziarie regionali attive sul territorio italiano; un’analisi qualitativa basata su un’approfondita rassegna della letteratura internazionale e su interviste mirate ad un campione ampiamente rappresentativo della popolazione osservata. I risultati raggiunti fanno ragionevolmente supporre che sia in atto una profonda ristrutturazione dell’intero sistema delle Finanziarie, che ha visto innanzitutto aumentare il controllo pubblico nella compagine sociale. L’indagine contabile ha permesso di identificare la presenza di due modelli di business ben differenziati: alcune Finanziarie sono orientate ad attività con forte contenuto di intermediazione finanziaria; altre invece sono focalizzate sull’attività di erogazione di servizi sia finanziari di consulenza che reali. L’investimento in capitale di rischio costituisce un attività centrale per le Finanziarie regionali; l’analisi dedicata a tali impieghi ha permesso di individuare, tra esse, alcune realtà tipiche del merchant banking, e più di frequente, del modello di holding. Complessivamente le Finanziarie campionate detengono oltre 400 partecipazioni per un valore che supera 1,7 miliardi di euro; prevalentemente concentrati su una ristretta cerchia di realtà spesso con impatto strategico sul territorio, ovvero strumentali. Segnatamente all’attività di private equity, è stato possibile rilevare come la politica d’investimento delle Finanziarie regionali sia complementare rispetto a quella mediamente espressa dal mercato domestico, anche se restano critici, anche per le Finanziarie, gli investimenti su imprese target con fatturato compreso tra 2 e 10 milioni di euro. Le evidenze circa la struttura dei contratti segnalano una parziale conformità alla best practice individuata dalla letteratura internazionale. In particolare l’uso limitato dello stage financing, la bassa partecipazione alla gestione sono le principali criticità individuate. Infine, della fase di riorganizzazione che pare interessare il sistema delle Finanziarie, si trova conferma nella percezione dei suoi operatori. Interpellati sul futuro dell’attività di investimento in capitale di rischio, hanno fornito indicazioni che consentono di concludere l’esistenza di una polarizzazione delle Finanziarie su due gruppi: da un lato quelle che implementeranno, più o meno, l’attività di private equity, dall’altro quelle che, viceversa, abbandoneranno tale strumento. La normativa sulle società a partecipazione pubblica regionale e la scarsa autonomia nella gestione delle misure affidate sono ritenute, dalle Finanziarie “interessate”, il principale fattore di freno alla loro crescita nel mercato del private equity.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo lavoro di tesi rientra nel progetto europeo SaveMe, al quale partecipa il gruppo di ricerca del dipartimento di chimica organica nel quale ho svolto l’attività di tirocinio. Obiettivo finale di tale progetto è la sintesi di nanoparticelle a base di PLGA (acido poli(D,L-lattico-co-glicolico)) superficialmente funzionalizzate con biomolecole, per l’impiego nel trattamento e nella diagnosi del cancro al pancreas. L’obiettivo da raggiungere nel primo anno di ricerca per il mio gruppo era la sintesi delle nanoparticelle centrali (core nanosystems). Nel presente lavoro sono quindi riportati i metodi di sintesi di polimeri derivati da PLGA e suoi copolimeri con PEG (polietilenglicole) aventi vari gruppi funzionali terminali: acidi idrossamici, amminici e acidi carbossilici. I polimeri sintetizzati sono stati caratterizzati tramite test colorimetrici qualitativi, 1H-NMR, 13C-NMR, spettrometria IR e TGA. Sono state sintetizzate nanoparticelle polimeriche (PNPs), con le tecniche Oil/Water (O/W) e nanoprecipitazione (NP), basate sui polimeri ottenuti, aventi quindi funzioni acide, idrossamiche ed amminiche sulla superficie. Su queste PNPs è stato effettuata una decorazione superficiale con nanoparticelle metalliche di maghemite (CAN-Maghemite). Le nanoparticelle polimeriche sono state caratterizzate tramite DLS e delle PNPs decorate sono state ottenute immagini TEM. Sono riportati inoltre i test di viabilità cellulare delle nanoparticelle ottenute.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’attuale condizione che caratterizza il settore energetico richiede un necessario processo di riconversione che, oltre a favorire il risparmio energetico, riduca la dipendenza dai combustibili fossili ed accresca l’impiego di fonti energetiche rinnovabili, dando un contributo fondamentale alla riduzione delle emissioni di gas serra come diversi accordi internazionali richiedono. Si rende pertanto necessario accelerare i processi che da alcuni anni stanno favorendo l’utilizzo di energia da fonti rinnovabili. Tra queste, le fonti legate ai processi di trattamento biologico dei reflui stanno avendo un interessante sviluppo. Esistono numerosi processi biologici che consentono la produzione di energia in maniera indiretta, quali ad esempio i processi di digestione anaerobica finalizzati alla produzione di biogas e/o produzione biologica di idrogeno. In tale contesto si inserisce la tecnologia delle Microbial Fuel Cell, che consente la produzione diretta di energia elettrica, finalizzata al recupero energetico inteso al miglioramento dell’efficienza energetica e alla riduzione dei costi d’esercizio di impianti di trattamento biologico dei reflui. Il presente lavoro di Tesi di Dottorato sperimentale, svoltosi in collaborazione al laboratorio PROT.-IDR. della sede ENEA di Bologna, riporta i risultati dell’attività di ricerca condotta su una MFC (Microbial Fuel Cell) a doppio stadio biologico per il trattamento di reflui ad elevato carico organico e produzione continua di energia elettrica. E’ stata provata l’applicabilità della MFC con entrambi i comparti biotici utilizzando elettrodi di grafite non trattata ottenendo, con un carico organico in ingresso di circa 9 gd-1, valori di potenza massima prodotta che si attestano su 74 mWm-2, corrente elettrica massima generata di 175 mAm-2 ad una tensione di 421 mV, ed una conversione di COD in elettricità pari a 1,2 gCODm-2d-1. I risultati sono stati molto positivi per quanto riguarda le prestazioni depurative ottenute dalla MFC. L’efficienza di depurazione misurata ha raggiunto un valore massimo del 98% di rimozione del COD in ingresso, mentre e la concentrazione di azoto ammoniacale nell’effluente raccolto all’uscita del sedimentatore è sempre stata inferiore a 1 mgN-NH4+l-1. Tra gli obiettivi posti all’inizio della sperimentazione si è rivelata di notevole interesse la valutazione del possibile utilizzo della MFC come sistema per il monitoraggio on-line del COD e degli acidi grassi volatili (VFA) prodotti all’interno di un digestore anaerobico, attraverso la definizione di una correlazione tra i dati elettrici registrati in continuo e le concentrazioni di CODanaer e VFA misurate in diversi periodi della sperimentazione. L’analisi DGGE della biomassa catodica ha fornito uno strumento analitico utile allo studio della diversità della comunità microbica sospesa ed adesa al catodo e ha confermato la forte similarità delle specie batteriche riconosciute nei campioni analizzati. In particolare, le bande di sequenziamento ottenute sono affiliate ai gruppi batterici Firmicutes, -Proteobacteria,  -Proteobacteria, -Proteobacteria e Bacteroidetes. Da quanto emerso dalla sperimentazione condotta si può pertanto concludere che ad oggi le MFC sono in fase di evoluzione rispetto ai primi prototipi utilizzati per lo studio delle comunità microbiali e per la comprensione dei meccanismi di trasferimento elettronico. Sfruttarne la potenza prodotta in maniera commerciale diviene una grande sfida per il futuro, ed è opinione comune che le prime applicazioni pratiche delle MFC saranno come fonte di recupero energetico per i dispositivi utilizzati per il monitoraggio dell’ambiente e per il trattamento delle acque reflue.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

INDICE INTRODUZIONE 1 1. DESCRIZIONE DEL SISTEMA COSTRUTTIVO 5 1.1 I pannelli modulari 5 1.2 Le pareti tozze in cemento armato gettate in opera realizzate con la tecnologia del pannello di supporto in polistirene 5 1.3 La connessione tra le pareti e la fondazione 6 1.4 Le connessioni tra pareti ortogonali 7 1.5 Le connessioni tra pareti e solai 7 1.6 Il sistema strutturale così ottenuto e le sue caratteristiche salienti 8 2. RICERCA BIBLIOGRAFICA 11 2.1 Pareti tozze e pareti snelle 11 2.2 Il comportamento scatolare 13 2.3 I muri sandwich 14 2.4 Il “ferro-cemento” 15 3. DATI DI PARTENZA 19 3.1 Schema geometrico - architettonico definitivo 19 3.2 Abaco delle sezioni e delle armature 21 3.3 Materiali e resistenze 22 3.4 Valutazione del momento di inerzia delle pareti estese debolmente armate 23 3.4.1 Generalità 23 3.4.2 Caratteristiche degli elementi provati 23 3.4.3 Formulazioni analitiche 23 3.4.4 Considerazioni sulla deformabilità dei pannelli debolmente armati 24 3.4.5 Confronto tra rigidezze sperimentali e rigidezze valutate analiticamente 26 3.4.6 Stima di un modulo elastico equivalente 26 4. ANALISI DEI CARICHI 29 4.1 Stima dei carichi di progetto della struttura 29 4.1.1 Stima dei pesi di piano 30 4.1.2 Tabella riassuntiva dei pesi di piano 31 4.2 Analisi dei carichi da applicare in fase di prova 32 4.2.1 Pesi di piano 34 4.2.2 Tabella riassuntiva dei pesi di piano 35 4.3 Pesi della struttura 36 4.3.1 Ripartizione del carico sulle pareti parallele e ortogonali 36 5. DESCRIZIONE DEL MODELLO AGLI ELEMENTI FINITI 37 5.1 Caratteristiche di modellazione 37 5.2 Caratteristiche geometriche del modello 38 5.3 Analisi dei carichi 41 5.4 Modello con shell costituite da un solo layer 43 5.4.1 Modellazione dei solai 43 5.4.2 Modellazione delle pareti 44 5.4.3 Descrizione delle caratteristiche dei materiali 46 5.4.3.1 Comportamento lineare dei materiali 46 6. ANALISI DEL COMPORTAMENTO STATICO DELLA STRUTTURA 49 6.1 Azioni statiche 49 6.2 Analisi statica 49 7. ANALISI DEL COMPORTAMENTO DINAMICO DELLA STRUTTURA 51 7.1 Determinazione del periodo proprio della struttura con il modello FEM 51 7.1.1 Modi di vibrare corrispondenti al modello con solai e pareti costituiti da elementi shell 51 7.1.1.1 Modi di vibrare con modulo pari a E 51 7.1.1.2 Modi di vibrare con modulo pari a 0,5E 51 7.1.1.3 Modi di vibrare con modulo pari a 0,1E 51 7.1.2 Modi di vibrare corrispondenti al modello con solai infinitamente rigidi e pareti costituite da elementi shell 52 7.1.2.1 Modi di vibrare con modulo pari a E 52 7.1.2.2 Modi di vibrare con modulo pari a 0,5E 52 7.1.2.3 Modi di vibrare con modulo pari a 0,1E: 52 7.1.3 Modi di vibrare corrispondenti al modello con solai irrigiditi con bielle e pareti costituite da elementi shell 53 7.1.3.1 Modi di vibrare con modulo pari a E 53 7.1.3.2 Modi di vibrare con modulo pari a 0,5E 53 7.1.3.3 Modi di vibrare con modulo pari a 0,1E 53 7.2 Calcolo del periodo proprio della struttura assimilandola ad un oscillatore semplice 59 7.2.1 Analisi svolta assumendo l’azione del sisma in ingresso in direzione X-X 59 7.2.1.1 Analisi svolta assumendo il modulo elastico E pari a 300000 Kg/cm2 59 7.2.1.1.1 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 2/3 H e modulo elastico assunto pari ad E 59 7.2.1.1.2 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 1/2 H e modulo elastico assunto pari ad E 61 7.2.1.1.3 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 2/3 H, modulo elastico assunto pari ad E, e struttura resistente costituita dai soli “maschi murari” delle pareti parallele all’azione del sisma 63 7.2.1.1.4 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 1/2 H, modulo elastico assunto pari ad E, e struttura resistente costituita dai soli “maschi murari” delle pareti parallele all’azione del sisma 66 7.2.1.2 Analisi svolta assumendo il modulo elastico E pari a 150000 Kg/cm2 69 7.2.1.2.1 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 2/3 H e modulo elastico assunto pari a 0,5E 69 7.2.1.2.2 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 1/2 H e modulo elastico assunto pari a 0,5E 71 7.2.1.2.3 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 2/3 H, modulo elastico assunto pari a 0,5 E, e struttura resistente costituita dai soli “maschi murari” delle pareti parallele all’azione del sisma 73 7.2.1.2.4 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 1/2 H, modulo elastico assunto pari a 0,5 E, e struttura resistente costituita dai soli “maschi murari” delle pareti parallele all’azione del sisma 76 7.2.1.3 Analisi svolta assumendo il modulo elastico E pari a 30000 Kg/cm2 79 7.2.1.3.1 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 2/3 H e modulo elastico assunto pari a 0,1E 79 7.2.1.3.2 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 1/2 H e modulo elastico assunto pari a 0,1E 81 7.2.1.3.3 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 2/3 H, modulo elastico assunto pari a 0,1E, e struttura resistente costituita dai soli “maschi murari” delle pareti parallele all’azione del sisma 83 7.2.1.3.4 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 1/2 H, modulo elastico assunto pari a 0,1E, e struttura resistente costituita dai soli “maschi murari” delle pareti parallele all’azione del sisma 86 7.2.2 Analisi svolta assumendo l’azione del sisma in ingresso in direzione Y-Y 89 7.2.2.1 Analisi svolta assumendo il modulo elastico E pari a 300000 Kg/cm2 89 7.2.2.1.1 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 2/3 H e modulo elastico assunto pari ad E 89 7.2.2.1.2 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 1/2 H e modulo elastico assunto pari ad E 91 7.2.2.1.3 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 2/3 H, modulo elastico assunto pari ad E, e struttura resistente costituita dai soli “maschi murari” delle pareti parallele all’azione del sisma 93 7.2.2.1.4 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 1/2 H, modulo elastico assunto pari ad E, e struttura resistente costituita dai soli “maschi murari” delle pareti parallele all’azione del sisma 98 7.2.2.1.5 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 2/3 H e modulo elastico assunto pari ad E 103 7.2.2.1.6 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 1/2 H e modulo elastico assunto pari ad E 105 7.2.2.1.7 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 2/3 H, modulo elastico assunto pari ad E, e struttura resistente costituita dai soli “maschi murari” delle pareti parallele all’azione del sisma 107 7.2.2.1.8 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 1/2 H, modulo elastico assunto pari ad E, e struttura resistente costituita dai soli “maschi murari” delle pareti parallele all’azione del sisma 112 7.2.2.2 Analisi svolta assumendo il modulo elastico E pari a 150000 Kg/cm2 117 7.2.2.2.1 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 2/3 H e modulo elastico assunto pari a 0,5E 117 7.2.2.2.2 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 1/2 H e modulo elastico assunto pari a 0,5E 119 7.2.2.2.3 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 2/3 H, modulo elastico assunto pari a 0,5 E, e struttura resistente costituita dai soli “maschi murari” delle pareti parallele all’azione del sisma 121 7.2.2.2.4 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 1/2 H, modulo elastico assunto pari a 0,5 E, e struttura resistente costituita dai soli “maschi murari” delle pareti parallele all’azione del sisma 126 7.2.2.2.5 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 2/3 H e modulo elastico assunto pari a 0,5 E 131 7.2.2.2.6 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 1/2 H e modulo elastico assunto pari ad E 133 7.2.2.2.7 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 2/3 H, modulo elastico assunto pari a 0,5E, e struttura resistente costituita dai soli “maschi murari” delle pareti parallele all’azione del sisma 135 7.2.2.2.8 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 1/2 H, modulo elastico assunto pari a 0,5E, e struttura resistente costituita dai soli “maschi murari” delle pareti parallele all’azione del sisma 140 7.2.2.3 Analisi svolta assumendo il modulo elastico E pari a 30000 Kg/cm2 145 7.2.2.3.1 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 2/3 H e modulo elastico assunto pari a 0,1E 145 7.2.2.3.2 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 1/2 H e modulo elastico assunto pari a 0,1E 147 7.2.2.3.3 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 2/3 H, modulo elastico assunto pari a 0,1E, e struttura resistente costituita dai soli “maschi murari” delle pareti parallele all’azione del sisma 149 7.2.2.3.4 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 1/2 H, modulo elastico assunto pari a 0,1E, e struttura resistente costituita dai soli “maschi murari” delle pareti parallele all’azione del sisma 154 7.2.2.3.5 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 2/3 H e modulo elastico assunto pari a 0,1 E 159 7.2.2.3.6 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 1/2 H e modulo elastico assunto pari ad E 161 7.2.2.3.7 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 2/3 H, modulo elastico assunto pari a 0,1E, e struttura resistente costituita dai soli “maschi murari” delle pareti parallele all’azione del sisma 163 7.2.2.3.8 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 1/2 H, modulo elastico assunto pari a 0,1E, e struttura resistente costituita dai soli “maschi murari” delle pareti parallele all’azione del sisma 168 7.3 Calcolo del periodo proprio della struttura approssimato utilizzando espressioni analitiche 174 7.3.1 Approssimazione della struttura ad una mensola incastrata di peso Q=ql avente un peso P gravante all’estremo libero 174 7.3.1.1 Riferimenti teorici: sostituzione di masse distribuite con masse concentrate 174 7.3.1.2 Applicazione allo specifico caso di studio in esame con modulo elastico E=300000 kg/cm2 177 7.3.1.3 Applicazione allo specifico caso di studio in esame con modulo elastico E=30000 kg/cm2 179 7.3.2 Approssimazione della struttura ad una mensola incastrata alla base, di peso Q=ql, avente un peso P gravante all’estremo libero e struttura resistente costituita dai soli “maschi murari”delle pareti parallele all’azione del sisma 181 7.3.2.1 Applicazione allo specifico caso di studio in esame con modulo elastico E=300000 kg/cm2 181 7.3.2.2 Applicazione allo specifico caso di studio in esame con modulo elastico E=30000 kg/cm2 186 7.3.3 Approssimazione della struttura ad un portale avente peso Qp = peso di un piedritto, Qt=peso del traverso e un peso P gravante sul traverso medesimo 191 7.3.3.1 Riferimenti teorici: sostituzione di masse distribuite con masse concentrate 191 7.3.3.2 Applicazione allo specifico caso di studio in esame con modulo ellastico E=300000 kg/cm2 192 7.3.3.3 Applicazione allo specifico caso di studio in esame con modulo ellastico E=30000 kg/cm2 194 7.3.4 Approssimazione della struttura ad un portale di peso Qp = peso di un piedritto, Qt=peso del traverso e avente un peso P gravante sul traverso medesimo e struttura resistente costituita dai soli “maschi murari”delle pareti parallele all’azione del sisma 196 7.3.4.1 Applicazione allo specifico caso di studio in esame con modulo elastico E=300000 kg/cm2 196 7.3.4.2 Applicazione allo specifico caso di studio in esame con modulo elastico E=30000 kg/cm2 201 7.3.5 Approssimazione della struttura ad una mensola incastrata di peso Q=ql avente le masse m1,m2....mn concentrate nei punti 1,2….n 206 7.3.5.1 Riferimenti teorici: metodo approssimato 206 7.3.5.2 Applicazione allo specifico caso di studio in esame con modulo elastico E=300000 kg/cm2 207 7.3.5.3 Applicazione allo specifico caso di studio in esame con modulo elastico E=30000 kg/cm2 209 7.3.6 Approssimazione della struttura ad un telaio deformabile con tavi infinitamente rigide 211 7.3.6.1 Riferimenti teorici: vibrazioni dei telai 211 7.3.6.2 Applicazione allo specifico caso di studio in esame con modulo elastico E=300000 kg/cm2 212 7.3.6.3 Applicazione allo specifico caso di studio in esame con modulo elastico E=30000 kg/cm2 215 7.3.7 Approssimazione della struttura ad una mensola incastrata di peso Q=ql avente masse m1,m2....mn concentrate nei punti 1,2….n e studiata come un sistema continuo 218 7.3.7.1 Riferimenti teorici: metodo energetico; Masse ripartite e concentrate; Formula di Dunkerley 218 7.3.7.1.1 Il metodo energetico 218 7.3.7.1.2 Masse ripartite e concentrate. Formula di Dunkerley 219 7.3.7.2 Applicazione allo specifico caso di studio in esame con modulo elastico E=300000 kg/cm2 221 7.3.7.3 Applicazione allo specifico caso di studio in esame con modulo elastico E=30000 kg/cm2 226 7.4 Calcolo del periodo della struttura approssimato mediante telaio equivalente 232 7.4.1 Dati geometrici relativi al telaio equivalente e determinazione dei carichi agenti su di esso 232 7.4.1.1 Determinazione del periodo proprio della struttura assumendo diversi valori del modulo elastico E 233 7.5 Conclusioni 234 7.5.1 Comparazione dei risultati relativi alla schematizzazione dell’edificio con una struttura ad un grado di libertà 234 7.5.2 Comparazione dei risultati relativi alla schematizzazione dell’edificio con una struttura a più gradi di libertà e a sistema continuo 236 8. ANALISI DEL COMPORTAMENTO SISMICO DELLA STRUTTURA 239 8.1 Modello con shell costituite da un solo layer 239 8.1.1 Analisi dinamica modale con spettro di risposta avente un valore di PGA pari a 0,1g 239 8.1.1.1 Generalità 239 8.1.1.2 Sollecitazioni e tensioni sulla sezione di base 242 8.1.1.2.1 Combinazione di carico ”Carichi verticali più Spettro di Risposta scalato ad un valore di PGA pari a 0,1g” 242 8.1.1.2.2 Combinazione di carico ”Spettro di Risposta scalato ad un valore di 0,1g di PGA” 245 8.1.1.3 Spostamenti di piano 248 8.1.1.4 Accelerazioni di piano 248 8.1.2 Analisi Time-History lineare con accelerogramma caratterizzato da un valore di PGA pari a 0,1g 249 8.1.2.1 Generalità 249 8.1.2.2 Sollecitazioni e tensioni sulla sezione di base 251 8.1.2.2.1 Combinazione di carico ” Carichi verticali più Accelerogramma agente in direzione Ye avente una PGA pari a 0,1g” 251 8.1.2.2.2 Combinazione di carico ” Accelerogramma agente in direzione Y avente un valore di PGA pari a 0,1g ” 254 8.1.2.3 Spostamenti di piano assoluti 257 8.1.2.4 Spostamenti di piano relativi 260 8.1.2.5 Accelerazioni di piano assolute 262 8.1.3 Analisi dinamica modale con spettro di risposta avente un valore di PGA pari a 0,3g 264 8.1.3.1 Generalità 264 8.1.3.2 Sollecitazioni e tensioni sulla sezione di base 265 8.1.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente elaborato si inserisce all’interno del progetto THESEUS (Innovative Technologies for safer European coasts in a changing climate), nella sezione denominata “work package 3”. I principali obiettivi di questo studio sono: 1) valutare l’impatto delle differenti strategie di difesa di zone intertidale dell’ecosistema spiaggia lungo il litorale dell’Emilia-Romagna; 2) analizzare nel dettaglio la struttura e la distribuzione del microbivalve Lentidium mediterraneum, tipico do questa zona, per valutarne un eventuale utilizzo nei progetti di monitoraggio e analisi degli impatti antropici legati alle variazioni morfodinamiche. Sono state scelte tre spiagge: Cesenatico, in cui da molti anni sono presenti strutture di difesa rigide della spiaggia, e dove ogni anno, al termine della stagione estiva, vengono costruite delle dune artificiali, rimosse a fine primavera, per proteggere gli stabilimenti balneari dalle mareggiate invernali; Cervia, in cui sono presenti solo le dune artificiali stagionali; Lido di Dante, considerato naturale per l’assenza di strutture di protezione. Il campionamento è stato effettuato in 3 tempi per ciascun sito. 2 tempi senza le dune artificiali, e uno con. Per ciascun sito e ciascun tempo sono stati replicati 3 transetti, random, per ogni livello di marea. Sono stati prelevati campioni per un totale di 14879 individui e identificati 40 taxa. Da questi sono stati estratti gli esemplari di Lentidium mediterraneum da analizzare. Le analisi uni e multivariate effettuate sull’intera comunità hanno messo in evidenza differenze fra le spiagge, fra i tempi di campionamento e i livelli di marea. Si è, inoltre evidenziato come tali differenze fossero in parte dovute alle densità di Lentidium mediterraneum. Oltre alle analisi classiche nel presente lavoro di tesi è stato proposto un modello concettuale di trasporto del Lentidium mediterraneum che se validato confermerebbe la possibilità di utilizzare il microbivalve come “proxy biologico”.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

E’ stimato che circa 4.000 sostanze diverse vengano utilizzate nella medicina umana, fra cui soprattutto analgesici, antinfiammatori, contraccettivi, antibiotici, beta-bloccanti, regolatori lipidici, composti neuroattivi e molti altri. Inoltre un elevato numero di farmaci, spesso simili a quelli umani tra cui antibiotici e antinfiammatori, viene usato nella medicina veterinaria. L’uso può essere diverso nei diversi Paesi ma farmaci quali l’ibuprofene, la carbamazepina, o i beta-bloccanti vengono consumati in quantità di tonnellate per anno. Le analisi chimiche hanno riscontrato la presenza dei residui dei farmaci nelle acque reflue dai depuratori, nei fiumi e nei laghi in maniera ubiquitaria a concentrazioni nell’intervallo di 10-1000 ng/L. Come ci si aspetta, i farmaci sono molto concentrati nelle acque reflue degli ospedali, tuttavia la percentuale di farmaci provenienti dagli ospedali è stata valutata complessivamente non oltre il 20% del quantitativo totale. L’origine preponderante dei farmaci proviene dall’uso domiciliare, per cui gli impianti municipali di raccolta delle acqua di rifiuto sono la maggiore via di ingresso in ambiente. Una volta ingeriti e metabolizzati, i farmaci vengono escreti via urine o feci e introdotti nella rete fognaria fino alle sedi di trattamento delle acque. Altra sorgente è rappresentata dalle manifatture dei farmaci, dalle quali possono derivare scarichi illegali o accidentali. Una sorgente importante di farmaci, soprattutto di antibiotici, è rappresentata dagli allevamenti animali, sia in ambienti interni che al pascolo, e dall’acquacoltura. Nel primo caso in particolare vengono prodotti e raccolti una grande quantità di rifiuti, che di solito sono accumulati temporaneamente e poi dispersi sui suoli agricoli. I farmaci presenti nei suoli possono essere trasportati alle acque sotterranee, o dilavati a livello superficiale contribuendo ad aumentare il livello di farmaci nei corsi d’acqua oppure una volta sciolti nell’acqua interstiziale possono essere assunti dai vegetali. Gli impianti di depurazione attuali non sono pianificati per eliminare microinquinanti altamente polari come i farmaci, e in relazione alle differenti molecole la eliminazione può essere in percentuale diversa, spesso anche molto bassa. I test ecotossicologici di tipo acuto utilizzati per molto tempo per valutare la tossicità dei farmaci ambientali hanno riportato effetti soltanto a concentrazioni superiori a quelle ambientali; nei 2-3 anni più recenti tuttavia è stato messo in luce come, già a basse concentrazioni, alcuni farmaci modifichino le attività riproduttive o il metabolismo di pesci e molluschi. Da qui è nata l’esigenza di studiare quale sia la possibile interazione dei residui dei farmaci con la fauna acquatica a concentrazioni compatibili con quelle ambientali, e valutare il meccanismo d’azione sfruttando per quanto possibile le conoscenze disponibili per i farmaci messi in commercio. I farmaci infatti sono composti disegnati per avere effetti terapeutici attraverso specifici meccanismi d’azione. Negli organismi non bersaglio che risultano esposti ai residui dei farmaci in ambiente, queste sostanze potrebbero però indurre effetti simili a quelli specifici nel caso i bersagli molecolari siano stati conservati durante l’evoluzione. Inoltre, i farmaci manifestano effetti collaterali, in genere se usati a dosi elevate o per lungo tempo, e molto spesso si tratta di effetti ossidanti. E’ possibile che tali effetti siano indotti dai farmaci ambientali nei molluschi o nei pesci, magari a basse dosi se questi animali sono più sensibili dell’uomo. Lo scopo di questa tesi è stato quello di valutare nei mitili Mytilus galloprovincialis i potenziali effetti indotti dalla fluoxetina (farmaco antidepressivo), dal propranololo (farmaco β-bloccante), o dalla loro miscela con riferimento a quelli classificati come collaterali nell’uomo. In particolare, è stata studiata l’espressione di geni che codificano per gli enzimi antiossidanti catalasi (CAT), glutatione S transferasi (GST) e superossido dismutasi (SOD), mediatori della risposta allo stress ossidativo. I possibili effetti dei farmaci sono stati valutati dopo esposizione dei mitili Mytilus galloprovincialis per 7 giorni a fluoxetina (FX) e propranololo (PROP) ad un range di concentrazioni che comprendono quelle misurate in ambiente, e alla loro miscela alla concentrazione di 0,3 ng/l, scelta perché rappresentativa delle dosi inferiori dei due farmaci riscontrate in ambiente acquatico. I risultati hanno dimostrato che FX causa una generale diminuzione dell’espressione dei geni CAT, mentre per i geni codificanti per GST e SOD si osservano variazioni significative soltanto ad una concentrazione di FX, 300 e 3 ng/L rispettivamente. La riduzione dei livelli di espressione di CAT non sempre accompagnata dalla significativa variazione dei livelli di espressione di SOD e GST, può indicare che il sistema anti-ossidante non è in grado di adattarsi in modo efficiente all’alterazione indotta dall’esposizione a FX, portando ad un progressivo aumento dei livelli di stress. Per quanto riguarda gli effetti del PROP, i risultati ottenuti mostrano che nei mitili esposti a concentrazioni crescenti del farmaco i geni CAT e SOD risultano progressivamente sovra-espressi rispetto al controllo, anche se in maniera non significativa mentre i livelli di espressione di GST non sono significativamente alterati. I dati ottenuti esponendo i mitili alla miscela dei due farmaci, indicano che FX e PROP possono avere effetti interattivi sulla regolazione dei tre geni coinvolti nella risposta antiossidante. In presenza della miscela si osserva infatti una riduzione significativa dell’espressione del gene CAT, del gene GST mentre non ci sono effetti sul gene SOD. In conclusione, concentrazioni di PROP e FX nell’intervallo di quelle misurate in ambiente possono generare significativi effetti sui geni CAT, GST, e SOD. Come riscontrato nella precedente letteratura, l’attività o l’espressione degli enzimi antiossidanti risente molto dello stato fisiologico dei mitili e della stagionalità, quindi il ruolo degli enzimi antiossidanti come biomarker deve essere interpretato all’interno di batterie più ampie di risposte subletali degli organismi sentinella. Nel laboratorio questi dati sono stati ottenuti in precedenti lavoro di Tesi (Tosarelli, Tesi Magistrale in Biologia Marina, A.A. 2011; Inzolia, Tesi Magistrale in Biologia Marina, A.A. 2011). Le alterazioni ottenute a concentrazioni circa 1.000 volte inferiori rispetto a quelle efficaci nei test ecotossicologici acuti, dimostrano comunque che i farmaci possono avere effetti sugli organismi anche a concentrazioni molto basse come quelle ambientali. In particolare, poiché gli effetti ossidativi sono i più comuni effetti collaterali dei farmaci nell’Uomo che ne assuma elevate quantità o somministrazioni prolungate nel tempo, possiamo affermare che questi hanno luogo anche negli organismi non-target, a concentrazioni basse e dopo soli 7 giorni di esposizione. I dati della tesi non dimostrano che propranololo e fluoxetina hanno effetti deleteri sulle popolazioni o le comunità dei molluschi, ma debbono essere considerati come indicatori della vulnerabilità degli animali a questi composti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La necessità di conservazione e recupero di murature, di qualsiasi interesse storico/architettonico, ha evidenziato la necessità di conoscere il più dettagliatamente possibile le caratteristiche strutturali delle opere interessate: un intervento risulterà tanto più efficace e adatto agli scopi prefissi quanto maggiore sarà la conoscenza dell’opera, della sua evoluzione, dei materiali utilizzati per la realizzazione, della tecnica costruttiva e della struttura portante. Spesso è necessario eseguire interventi di adeguamento sismico di comuni edifici su cui poter intervenire più o meno indiscriminatamente, mentre, per opere di interesse storico è necessario ridurre al minimo l’invasività degli interventi: in tutti e due i casi, una buona riuscita dell’intervento dipende dalla conoscenza dell’organismo strutturale sul quale si deve operare. Come spesso accade, anche per opere di recente costruzione, risulta difficile poter recuperare i dati progettuali (disegni e calcoli) e spesso le tecniche e le tipologie utilizzate per le costruzioni si differenziavano da zona a zona, così come diversi erano i materiali da costruzione; risulta quindi evidente che per progettare una serie di interventi di recupero è necessario poter ottenere il maggior numero di informazioni al riguardo. Diverse sono le esperienze maturate in questo campo in tutta Europa e queste hanno mostrato come non è sufficiente intervenire con tecniche innovative per adeguare agli standard attuali di sicurezza opere del passato: infatti, in molti casi, l’applicazione sbagliata di queste tecniche o gli interventi progettati in modo non adeguato non hanno svolto il loro compito e in alcuni casi hanno peggiorato la situazione esistente. Dalle esperienze maturate è stato possibile osservare che anche le migliore tecniche di recupero non possono risultare efficaci senza un’adeguata conoscenza dello stato di degrado degli edifici, del loro assetto strutturale e delle possibili carenze. La diagnostica strutturale si vuole inserire proprio in questo livello potendo fornire ad un progettista tutte le informazioni necessarie per effettuare al meglio ed in maniera efficace gli interventi di recupero e restauro necessari. Oltre questi aspetti, le analisi diagnostiche possono essere utilizzate anche per verificare l’efficacia degli interventi effettuati. Diversi sono gli aspetti che si possono analizzare in un’indagine di diagnostica ed in base alle esigenze e alle necessità del rilievo da effettuare sono varie le tecniche a disposizione, ognuna con le sue peculiarità e potenzialità. Nella realizzazione di questa tesi sono state affrontate diverse problematiche che hanno previsto sia l’analisi di situazioni reali in cantiere, sia lo studio in laboratorio. La prima parte del presente elaborato prevede lo studio delle attività svolte a Palazzo Malvezzi, attuale sede della Provincia di Bologna. L’edificio, di interesse storico, ha subito diverse trasformazioni durate la sua vita ed in alcuni casi, queste, eseguite con tecnologie e materiali inadatti, hanno provocato variazioni nell’assetto statico della struttura; inoltre, il palazzo, è soggetto a movimenti a livello di fondazione in quanto è presente una faglia di subsidenza che attraversa l’edificio. Tutte queste problematiche hanno creato movimenti differenziali alla struttura in elevazione che si sono evidenziati con crepe distribuite in tutto l’edificio. Il primo aspetto analizzato (capitoli 4 e 5) è lo studio della profondidelle fessure presenti nel solaio della sala Rossa, sede dei comunicati stampa e delle conferenze della Provincia. Senza dubbio antiestetiche, le crepe presenti in una struttura, se sottovalutate, possono compromettere notevolmente le funzioni statiche dell’elemento in cui si sviluppano: la funzione di protezione fornita dal solaio o da qualsiasi altro elemento strutturale alle armature in questo immerse, viene meno, offrendo vie preferenziali a possibili situazioni di degrado, specialmente se in condizioni ambientali aggressive. E' facile intuire, quindi, che un aspetto all’apparenza banale come quello delle fessure non può essere sottovalutato. L’analisi è stata condotta utilizzando prove soniche ed impact-echo, tecniche che sfruttano lo stresso principio, la propagazione delle onde elastiche nel mezzo, ma che si differenziano per procedure di prova e frequenze generate nel test. Nel primo caso, la presenza del martello strumentato consente di valutare anche la velocità di propagazione delle onde elastiche, fenomeno utilizzato per ottenere indicazioni sulla compattezza del mezzo, mentre nel secondo non è possibile ricavare queste informazioni in quanto la tecnica si basa solamente sullo studio in frequenza del segnale. L’utilizzo dell’impact-echo è stato necessario in quanto la ristilatura effettuata sulle fessure scelte per l’analisi, non ha permesso di ottenere risultati utili tramite prove soniche ; infatti, le frequenze generate risultano troppo basse per poter apprezzare queste piccole discontinuità materiali. La fase di studio successiva ha previsto l’analisi della conformazione dei solai. Nel capitolo 6, tale studio, viene condotto sul solaio della sala Rossa con lo scopo di individuarne la conformazione e la presenza di eventuali elementi di rinforzo inseriti nelle ristrutturazioni avvenute nel corso della vita del palazzo: precedenti indagini eseguite con endoscopio, infatti, hanno mostrato una camera d’aria ed elementi metallici posizionati al di sotto della volta a padiglione costituente il solaio stesso. Le indagini svolte in questa tesi, hanno previsto l’utilizzo della strumentazione radar GPR: con questa tecnica, basata sulla propagazione delle onde elettromagnetiche all’interno di un mezzo, è possibile variare rapidamente la profondità d’ispezione ed il dettaglio ottenibile nelle analisi cambiando le antenne che trasmettono e ricevono il segnale, caratteristiche fondamentali in questo tipo di studio. I risultati ottenuti hanno confermato quanto emerso nelle precedenti indagini mostrando anche altri dettagli descritti nel capitolo. Altro solaio oggetto d’indagine è quello della sala dell’Ovale (capitoli 7 e 8): costruito per dividere l’antica sala da ballo in due volumi, tale elemento è provvisto al suo centro di un caratteristico foro ovale, da cui ne deriva il nome. La forma del solaio lascia supporre la presenza di una particolare struttura di sostegno che le precedenti analisi condotte tramite endoscopio, non sono riuscite a cogliere pienamente. Anche in questo caso le indagini sono state eseguite tramite tecnica radar GPR, ma a differenza dei dati raccolti nella sala Rossa, in questo caso è stato possibile creare un modello tridimensionale del mezzo investigato; inoltre, lo studio è stato ripetuto utilizzando un’antenna ad elevata risoluzione che ha consentito di individuare dettagli in precedenza non visibili. Un ulteriore studio condotto a palazzo Malvezzi riguarda l’analisi della risalita capillare all’interno degli elementi strutturali presenti nel piano interrato (capitolo 9): questo fenomeno, presente nella maggior parte delle opere civili, e causa di degrado delle stesse nelle zone colpite, viene indagato utilizzando il radar GPR. In questo caso, oltre che individuare i livelli di risalita osservabili nelle sezioni radar, viene eseguita anche un’analisi sulle velocità di propagazione del segnale e sulle caratteristiche dielettriche del mezzo, variabili in base al contenuto d’acqua. Lo scopo è quello di individuare i livelli massimi di risalita per poterli confrontare con successive analisi. Nella fase successiva di questo elaborato vengono presentate le analisi svolte in laboratorio. Nella prima parte, capitolo 10, viene ancora esaminato il fenomeno della risalita capillare: volendo studiare in dettaglio questo problema, sono stati realizzati dei muretti in laterizio (a 2 o 3 teste) e per ognuno di essi sono state simulate diverse condizioni di risalita capillare con varie tipologie di sale disciolto in acqua (cloruro di sodio e solfato di sodio). Lo scopo è di valutare i livelli di risalita osservabili per diverse tipologie di sale e per diverse concentrazioni dello stesso. Ancora una volta è stata utilizzata la tecnica radar GPR che permette non solo di valutare tali livelli, ma anche la distribuzione dell’umidità all’interno dei provini, riuscendo a distinguere tra zone completamente sature e zone parzialmente umide. Nello studio è stata valutata anche l’influenza delle concentrazioni saline sulla propagazione del segnale elettromagnetico. Un difetto delle tecniche di diagnostica è quello di essere strumenti qualitativi, ma non quantitativi: nel capitolo 11 viene affrontato questo problema cercando di valutare la precisione dei risultati ottenuti da indagini condotte con strumentazione radar GPR. Studiando gli stessi provini analizzati nel capitolo precedente, la tecnica radar è stata utilizzata per individuare e posizionare i difetti (muretti a 3 teste) e le pietre (muretti a 2 teste) inserite in questi elementi: i risultati ottenuti nella prova sono stati confrontati, infine, con la reale geometria. Nell’ultima parte (capitolo 12), viene esaminato il problema dell’individuazione dei vuoti all’interno di laterizi: per questo scopo sono state create artificialmente delle cavità di diversa forma e a diverse profondità all’interno di laterizi pieni che, dopo un trattamento in cella climatica per aumentarne la temperatura, sono stati sottoposti a riprese termografiche nella fase di raffreddamento. Lo scopo di queste prove è quello di valutare quale sia la massima differenza di temperatura superficiale causata dai diversi difetti e per quale intervallo di temperature questa si verifica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La catena respiratoria mitocondriale è principalmente costituita da proteine integrali della membrana interna, che hanno la capacità di accoppiare il flusso elettronico, dovuto alle reazioni redox che esse catalizzano, al trasporto di protoni dalla matrice del mitocondrio verso lo spazio intermembrana. Qui i protoni accumulati creano un gradiente elettrochimico utile per la sintesi di ATP ad opera dell’ATP sintasi. Nonostante i notevoli sviluppi della ricerca sulla struttura e sul meccanismo d’azione dei singoli enzimi della catena, la sua organizzazione sovramolecolare, e le implicazioni funzionali che ne derivano, rimangono ancora da chiarire in maniera completa. Da questa problematica trae scopo la presente tesi volta allo studio dell’organizzazione strutturale sovramolecolare della catena respiratoria mediante indagini sia cinetiche che strutturali. Il modello di catena respiratoria più accreditato fino a qualche anno fa si basava sulla teoria delle collisioni casuali (random collision model) che considera i complessi come unità disperse nel doppio strato lipidico, ma collegate funzionalmente tra loro da componenti a basso peso molecolare (Coenzima Q10 e citocromo c). Recenti studi favoriscono invece una organizzazione almeno in parte in stato solido, in cui gli enzimi respiratori si presentano sotto forma di supercomplessi (respirosoma) con indirizzamento diretto (channeling) degli elettroni tra tutti i costituenti, senza distinzione tra fissi e mobili. L’importanza della comprensione delle relazioni che si instaurano tra i complessi , deriva dal fatto che la catena respiratoria gioca un ruolo fondamentale nell’invecchiamento, e nello sviluppo di alcune malattie cronico degenerative attraverso la genesi di specie reattive dell’ossigeno (ROS). E’ noto, infatti, che i ROS aggrediscono, anche i complessi respiratori e che questi, danneggiati, producono più ROS per cui si instaura un circolo vizioso difficile da interrompere. La nostra ipotesi è che, oltre al danno a carico dei singoli complessi, esista una correlazione tra le modificazioni della struttura del supercomplesso, stress ossidativo e deficit energetico. Infatti, la dissociazione del supercomplesso può influenzare la stabilità del Complesso I ed avere ripercussioni sul trasferimento elettronico e protonico; per cui non si può escludere che ciò porti ad un’ulteriore produzione di specie reattive dell’ossigeno. I dati sperimentali prodotti a sostegno del modello del respirosoma si riferiscono principalmente a studi strutturali di elettroforesi su gel di poliacrilammide in condizioni non denaturanti (BN-PAGE) che, però, non danno alcuna informazione sulla funzionalità dei supercomplessi. Pertanto nel nostro laboratorio, abbiamo sviluppato una indagine di tipo cinetico, basata sull’analisi del controllo di flusso metabolico,in grado di distinguere, funzionalmente, tra supercomplessi e complessi respiratori separati. Ciò è possibile in quanto, secondo la teoria del controllo di flusso, in un percorso metabolico lineare composto da una serie di enzimi distinti e connessi da intermedi mobili, ciascun enzima esercita un controllo (percentuale) differente sull’intero flusso metabolico; tale controllo è definito dal coefficiente di controllo di flusso, e la somma di tutti i coefficienti è uguale a 1. In un supercomplesso, invece, gli enzimi sono organizzati come subunità di una entità singola. In questo modo, ognuno di essi controlla in maniera esclusiva l’intero flusso metabolico e mostra un coefficiente di controllo di flusso pari a 1 per cui la somma dei coefficienti di tutti gli elementi del supercomplesso sarà maggiore di 1. In questa tesi sono riportati i risultati dell’analisi cinetica condotta su mitocondri di fegato di ratto (RLM) sia disaccoppiati, che accoppiati in condizioni fosforilanti (stato 3) e non fosforilanti (stato 4). L’analisi ha evidenziato l’associazione preferenziale del Complesso I e Complesso III sia in mitocondri disaccoppiati che accoppiati in stato 3 di respirazione. Quest’ultimo risultato permette per la prima volta di affermare che il supercomplesso I+III è presente anche in mitocondri integri capaci della fosforilazione ossidativa e che il trasferimento elettronico tra i due complessi possa effettivamente realizzarsi anche in condizioni fisiologiche, attraverso un fenomeno di channeling del Coenzima Q10. Sugli stessi campioni è stata eseguita anche un analisi strutturale mediante gel-elettroforesi (2D BN/SDS-PAGE) ed immunoblotting che, oltre a supportare i dati cinetici sullo stato di aggregazione dei complessi respiratori, ci ha permesso di evidenziare il ruolo del citocromo c nel supercomplesso, in particolare per il Complesso IV e di avviare uno studio comparativo esteso ai mitocondri di cuore bovino (BHM), di tubero di patata (POM) e di S. cerevisiae.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo lavoro di tesi è finalizzato fondamentalmente allo studio di un’importante problematica che caratterizza gli impianti fotovoltaici: il mismatching, ovvero la disomogeneità nelle caratteristiche elettriche delle celle e quindi dei pannelli fotovoltaici, dal quale scaturisce che la potenza massima, risultante dal collegamento in serie/parallelo dei vari pannelli, è sempre inferiore alla somma delle potenze massime dei pannelli fotovoltaici prima della connessione. In particolare, si è realizzato con il software Simulink un modello flessibile che consente, attraverso una rappresentazione compatta di pochissimi blocchi, di simulare un campo fotovoltaico del tutto arbitrario, in una qualunque condizione operativa di temperatura e di ombreggiamento solare dei pannelli che compongono il campo stesso. A fronte di ciò si è condotta un’analisi approfondita degli effetti del mismatching in un generico campo fotovoltaico sottoposto a diverse disomogeneità per quanto concerne le condizioni operative di temperatura e irraggiamento solare dei vari pannelli. Il software ha permesso, inoltre, di evidenziare l’importanza delle protezioni da impiegare opportunamente negli impianti fotovoltaici; ad esempio, a livello di simulazioni, si è visto come il collegamento di un diodo di by-pass in antiparallelo ai pannelli in ombra permetta di limitare notevolmente l’impatto degli ombreggiamenti. Infine è stato condotto uno studio analitico del mismatching per difformità di fabbricazione di una serie di pannelli dei quali erano noti solo i punti di funzionamento di massima potenza, con la finalità di valutare la possibilità di migliorare la disposizione dei pannelli, e quindi ottimizzare la massima potenza erogabile dal corrispondente campo fotovoltaico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’analisi istologica riveste un ruolo fondamentale per la pianificazione di eventuali terapie mediche o chirurgiche, fornendo diagnosi sulla base dell’analisi di tessuti, o cellule, prelevati con biopsie o durante operazioni. Se fino ad alcuni anni fa l’analisi veniva fatta direttamente al microscopio, la sempre maggiore diffusione di fotocamere digitali accoppiate consente di operare anche su immagini digitali. Il presente lavoro di tesi ha riguardato lo studio e l’implementazione di un opportuno metodo di segmentazione automatica di immagini istopatologiche, avendo come riferimento esclusivamente ciò che viene visivamente percepito dall’operatore. L’obiettivo è stato quello di costituire uno strumento software semplice da utilizzare ed in grado di assistere l’istopatologo nell’identificazione di regioni percettivamente simili, presenti all’interno dell’immagine istologica, al fine di considerarle per una successiva analisi, oppure di escluderle. Il metodo sviluppato permette di analizzare una ampia varietà di immagini istologiche e di classificarne le regioni esclusivamente in base alla percezione visiva e senza sfruttare alcuna conoscenza a priori riguardante il tessuto biologico analizzato. Nella Tesi viene spiegato il procedimento logico seguito per la progettazione e la realizzazione dell’algoritmo, che ha portato all’adozione dello spazio colore Lab come dominio su cu cui calcolare gli istogrammi. Inoltre, si descrive come un metodo di classificazione non supervisionata utilizzi questi istogrammi per pervenire alla segmentazione delle immagini in classi corrispondenti alla percezione visiva dell’utente. Al fine di valutare l’efficacia dell’algoritmo è stato messo a punto un protocollo ed un sistema di validazione, che ha coinvolto 7 utenti, basato su un data set di 39 immagini, che comprendono una ampia varietà di tessuti biologici acquisiti da diversi dispositivi e a diversi ingrandimenti. Gli esperimenti confermano l’efficacia dell’algoritmo nella maggior parte dei casi, mettendo altresì in evidenza quelle tipologie di immagini in cui le prestazioni risultano non pienamente soddisfacenti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente studio indaga il rapporto tra il diritto internazionale e il potere, in particolare, il rapporto tra lo sviluppo e il funzionamento di alcuni principi fondamentali della coesistenza internazionale e le diseguaglianze di potere tra gli stati, nella prospettiva della “scuola inglese” della teoria delle relazioni internazionali. Quella a cui si farà riferimento è la scuola inglese “classica” riconosciuta come un corpo di pensiero derivante dall’opera di Martin Wight e Hedley Bull, e non la scuola inglese «moderna» o «nuova», che, in tempi più recenti, soprattutto nel corso degli anni ‘90, ha, più che altro, contribuito al successo della sua «invenzione» . Lo scopo è quello di mostrare, in primo luogo, come una delle caratteristiche distintive di questa scuola sia l’enfasi sulle regole, e, in special modo, sulle regole di diritto internazionale, sebbene in nessun posto la posizione di questi studiosi sull’argomento sia esposta in modo sistematico. Se la prima parte di questo lavoro, di tipo teoretico, tratta la questione della definizione operativa e della comprensione generale dell’istituzione del diritto internazionale, secondo l’approccio della scuola inglese classica, la seconda parte, di tipo empirico, tenta di verificare, tramite esemplificazioni storiche, tratte da eventi politici contemporanei, la valididelle principali conclusioni elaborate nella prima parte. E ciò con particolare riferimento alla distinzione, introdotta da Bull, delle due categorie analitiche di “pluralismo” e “solidarismo”, considerate come un’utile chiave di lettura per interpretare gli sviluppi della società internazionale e del diritto dopo la guerra fredda.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A causa della limitata estensione del campo di vista del sistema, con un microscopio ottico tradizionale non è possibile acquisire una singola immagine completamente a fuoco se l’oggetto è caratterizzato da una profondità non trascurabile. Fin dagli anni ’70, il problema dell’estensione della profondidi fuoco è stato ampiamente trattato in letteratura e molti metodi sono stati proposti per superare questo limite. Tuttavia, è molto difficile riuscire a decretare quale metodo risulti essere il migliore in una specifica applicazione, a causa della mancanza di una metrica validata e adatta ad essere utilizzata anche in casi reali, dove generalmente non si ha a disposizione un’immagine di riferimento da considerare come “la verità” (ground truth). L’Universal Quality Index (UQI) è ampiamente utilizzato in letteratura per valutare la qualità dei risultati in processi di elaborazione di immagini. Tuttavia, per poter calcolare questo indice è necessaria una ground truth. In effetti, sono state proposte in letteratura alcune estensioni dell’UQI per valutare il risultato dei metodi di fusione anche senza immagine di riferimento, ma nessuna analisi esaustiva è stata proposta per dimostrare la loro equivalenza con l’UQI standard nel valutare la qualità di un’immagine. In questo lavoro di Tesi, partendo dai limiti dei metodi attualmente utilizzati per l'estensione della profondidi campo di un microscopio, ed esposti in letteratura, per prima cosa è stato proposto un nuovo metodo, basato su approccio spaziale e fondato su analisi locale del segnale appositamente filtrato. Attraverso l’uso di sequenze di immagini sintetiche, delle quali si conosce la ground truth, è stato dimostrato, utilizzando metriche comuni in image processing, che il metodo proposto è in grado di superare le performance dei metodi allo stato dell'arte. In seguito, attraverso una serie di esperimenti dedicati, è stato provato che metriche proposte e ampiamente utilizzate in letteratura come estensione dell'UQI per valutare la qualità delle immagini prodotte da processi di fusione, sebbene dichiarate essere sue estensioni, non sono in grado di effettuare una valutazione quale quella che farebbe l'UQI standard. E’ quindi stato proposto e validato un nuovo approccio di valutazione che si è dimostrato in grado di classificare i metodi di fusione testati così come farebbe l’UQI standard, ma senza richiedere un’immagine di riferimento. Infine, utilizzando sequenze di immagini reali acquisite a differenti profondidi fuoco e l’approccio di valutazione validato, è stato dimostrato che il metodo proposto per l’estensione della profondidi campo risulta sempre migliore, o almeno equivalente, ai metodi allo stato dell’arte.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi propone una riflessione critica sulle pratiche della pianificazione urbanistica attraverso l’analisi di un significativo caso di studio, costituito dalla Darsena di Città a Ravenna. Questo approccio di ricerca è dal nostro punto di vista una conseguenza della difficoltà di governare le attuali problematiche di sviluppo dello spazio urbano attraverso gli strumenti tradizionali della pianificazione e dell’urbanistica. La tesi ha lo scopo di far emergere temi di dibattito attuale sulle aree di sviluppo urbano, in particolare la complessità dei compiti decisionali riguardanti aree oggetto di interventi di rigenerazione urbana. La definizione “area di sviluppo urbano” si pone come prodotto di un’attiva collaborazione tra Stato, mercato e società civile e costituisce dal nostro punto di vista una vera “questione sociale”. Prenderemo come riferimento il caso della Darsena di Città di Ravenna, oggetto della sperimentazione urbanistica degli ultimi trenta anni, sul quale diversi “stili” e strumenti di pianificazione si sono confrontati, nell’intento di guidare un processo di riqualificazione che ha portato ad oggi a risultati concreti assai limitati. Attraverso gli strumenti consultabili e un rapido sopralluogo infatti, possiamo intuire immediatamente come la realizzazione di interventi sull’area si limiti a casi localizzati come la riqualificazione della raffineria Almagià, la nuova sede dell’autorità portuale e l’ex molino Pineta, oltre agli interventi residenziali riconducibili all’edificio progettato dall’architetto Cino Zucchi e ai nuovi isolati attorno alla parte centrale di via Trieste. Le problematiche di fondo che hanno creato conflitti sono molte, dall’elevata divisione proprietaria alla cesura del comparto con il centro storico data dalla barriera ferroviaria, alla questione relativa al risanamento delle acque e dei suoli, solo per citare le più evidenti. Siamo quindi interessati a capire il problema dal punto di vista del processo di pianificazione per poi concentrare la nostra riflessione su possibili soluzioni che possano risolvere i conflitti che sembrano all’oggi non trovare una risposta condivisa. Per meglio comprendere come rapportarci al caso specifico si è cercato di analizzare alcuni aspetti teorici fondanti del “procedimento archetipico” di pianificazione urbana in contrapposizione con metodi di pianificazione “non convenzionali”. Come lo studio dei primi ci ha permesso di capire come si è arrivati all’attuale situazione di stallo nella trasformazione urbana della Darsena di Città, i secondi ci hanno aiutato a comprendere per quali ragioni i piani urbanistici di tipo “tradizionale” pensati per la Darsena di Città non sono stati portati a realizzazione. Consci che i fattori in gioco sono molteplici abbiamo deciso di affrontare questa tesi attraverso un approccio aperto al dialogo con le reali problematiche presenti sul territorio, credendo che la pianificazione debba relazionarsi con il contesto per essere in grado di proporre e finalizzare i suoi obiettivi. Conseguenza di questo è per noi il fatto che una sensibile metodologia di pianificazione debba confrontarsi sia con i processi istituzionali sia con le dinamiche e i valori socio-culturali locali. In generale gerarchie di potere e decisioni centralizzate tendono a prevalere su pratiche decisionali di tipo collaborativo; questa tesi si è proposta quindi l’obiettivo di ragionare sulle une e sulle altre in un contesto reale per raggiungere uno schema di pianificazione condiviso. La pianificazione urbanistica è da noi intesa come una previsione al futuro di pratiche di accordo e decisione finalizzate a raggiungere un obiettivo comune, da questo punto di vista il processo è parte essenziale della stessa pianificazione. Il tema è attuale in un contesto in cui l’urbanistica si è sempre confrontata in prevalenza con i temi della razionalizzazione della crescita, e con concetti da tempo in crisi che vanno oggi rimessi in discussione rispetto alle attuali istanze di trasformazione “sostenibile” delle città e dei territori. Potremmo riassumere le nostre riflessioni sull’urbanistica ed i nostri intenti rispetto al piano della Darsena di Città di Ravenna attraverso una definizione di Rem Koolhaas: l’urbanistica è la disciplina che genera potenziale, crea opportunità e causa eventi, mentre l’architettura è tradizionalmente la disciplina che manipola questo potenziale, sfrutta le possibilità e circoscrive. Il percorso di ragionamento descritto in questa tesi intende presentare attraverso alcune questioni significative l’evoluzione dello spazio urbano e delle pratiche di pianificazione, arrivando a formulare un “progetto tentativo” sul territorio della Darsena di Città.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo lavoro ha l’obbiettivo di valutare i risultati ottenuti su campioni stratificati sabbia/argilla attraverso l’applicazione della risonanza magnetica nucleare e di confrontare la risposta ottenuta tramite uno strumento di misura di laboratorio con quella di una sonda geofisica normalmente utilizzata per le analisi in pozzo. Tale lavoro si è reso necessario per comprendere le cause per cui la sonda CMR-Tool realizzata da Schlumberger non sia in grado di mettere in evidenza la stratificazione sabbia/argilla che caratterizza il bacino sedimentario dell’Adriatico in cui è presente un importante bacino di coltivazione di gas naturale. La tipica risposta NMR su una formazione stratificata sabbia/argilla è costituita da una distribuzione bimodale dei tempi di rilassamento che la sonda suddetta, nel caso specifico, non è in grado di produrre. Pertanto, per conoscere le cause per cui tale bimodalità della distribuzione non si presenti, è stato necessario confrontare i risultati derivanti dalla sonda CMR-Tool e quelli ottenuti con un rilassometro a basso campo (0,2T) presente nei laboratori LAGIRN della Facoltà di Ingegneria di Bologna. Le misure sono state eseguite su diversi campioni, stratificati e non, realizzati ad hoc con conformazioni diverse per i due strumenti. Si sono inoltre eseguite misure su 4 sabbie a diversa granulometria, per valutare l’andamento dei tempi di rilassamento in funzione della dimensione dei grani. A tal fine, il lavoro di tesi si struttura in cinque capitoli principali. Nei primi due capitoli si sono discusse in breve le metodologie e le tecniche di valutazione delle georisorse fluide e si sono introdotti i principi fisici della risonanza magnetica nucleare ed i meccanismi che regolano tale fenomeno nei mezzi porosi. Nel terzo e quarto capitolo sono descritte le applicazioni petrofisiche, le tecniche e le metodologie di indagine comunemente usate allo scopo di ricavare alcune grandezze fisiche di interesse e gli strumenti adoperati per ottenere le misure geofisiche in pozzo. Nell’ultimo capitolo sono invece esposti, in maniera completa e schematica, le prove sperimentali eseguite sia presso il laboratorio LAGIRN dell’Università di Bologna e presso quello Schlumberger di Pescara. Nella sua impostazione, il lavoro è stato sviluppato per essere studiato e compreso in maniera chiara, cercando di rendere la lettura la più semplice possibile, in relazione con la complessità caratteristica del fenomeno NMR. I risultati ottenuti hanno una valenza importante e di estrema attualità nell’ambito della valutazione delle georisorse fluide ed arricchiscono ancor di più le conoscenze riguardanti le applicazioni delle tecniche a risonanza magnetica nucleare sui mezzi porosi.