478 resultados para trattamento dati personali giuridici sensibili privacy tutela del lavoratore video sorveglianza
Resumo:
Background Recentemente la letteratura scientifica ha dimostrato come un corretto controllo posturale faciliti i movimenti dell’arto superiore. Ci sono evidenze secondo cui, applicando al paziente dei contenimenti sul tronco, si ha un miglioramento della funzionalità dell’arto superiore. Obiettivi L’obiettivo principale della tesi era quello di verificare come il sostegno del tronco con l’utilizzo di una stabile struttura assiale, attraverso un supporto esterno definito “trunk constraint”, incrementi il controllo posturale, per facilitare i movimenti frazionati degli arti superiori in persone con esiti di patologie neurologiche. Materiali e metodi Il caso clinico riguarda un uomo di 60 anni con esiti di emiparesi sinistra da ictus ischemico destro. E’ stato eseguito un protocollo di dieci sessioni di trattamento, di un’ora ciascuna, in cui veniva applicata la facilitazione attraverso trunk constraint in diversi setting riabilitativi. I dati sono stati raccolti tramite le scale: Trunk Control Test, Trunk Impairment Scale e Fugl-Meyer Assessment. Inoltre, è stata eseguita l’analisi osservazionale, attraverso videoripresa, di un gesto funzionale dell’arto superiore. Risultati I dati rilevati dimostrano degli effetti positivi rispetto alle ipotesi di partenza. Infatti sono stati riscontrati miglioramenti negli item delle scale somministrate e nella valutazione qualitativa dell’arto superiore. In particolare, si è evidenziato un miglioramento nel controllo del tronco nella scala Trunk Control Test e nella Trunk Impairment Scale e della funzione dell’arto superiore alla scala Fugl-Meyer Assessment. L’analisi osservazionale dei video dimostra un miglioramento del timing di attivazione durante la fase di reaching. Conclusioni I risultati ottenuti supportano il fatto che un incremento dell’attività antigravitaria del tronco, anche attraverso supporti esterni come la trunk constraint, possono facilitare un miglioramento funzionale dell’arto superiore.
Resumo:
Background:i soggetti con esiti di una lesione del SNC sono caratterizzati da un quadro clinico comprensivo di segni negativi e segni positivi come la spasticità e possono andare incontro a molteplici problematiche,come le contracture,che limitano il recupero motorio del paziente favorendo l’immobilità e l’aumento della spasticità,contribuendo alla persistenza della condizione stessa.Il casting si inserisce in questo contesto come trattamento conservativo sui fattori non neurali delle contracture e della spasticità e sembra portare beneficio anche ad alcuni meccanismi neurali della spasticità.Obiettivo:l’obiettivo di questa Scoping review è una mappatura della letteratura esistente sul ruolo del casting all’interno della riabilitazione dei soggetti neurologici,fornendo una descrizione dei protocolli nei vari studi e identificando evidenze e lacune per aiutare la ricerca futura.Metodi:sono state interrogate le banche dati PEDro,PubMed,Cochrane Library ponendo come limiti la lingua inglese,italiana e l’età dei partecipanti maggiore di 19 aa.Gli articoli ottenuti sono stati selezionati con i criteri di eleggibilità e sono stati inclusi SR,RCT,case report,case series e studi osservazionali.Risultati:la Review ha incluso 10 fonti di evidenza.Gli articoli fanno riferimento a diversi tipi di interventi di casting:unito alla tossina botulinica,allo splinting, allo stretching,al motor training o da solo.Conclusioni:dall’analisi delle fonti di evidenza emerge il potenziale degli interventi di casting in un contesto multidisciplinare.Si evidenzia la necessità di condurre ulteriori studi che descrivano i particolari del trattamento riabilitativo con casting,che si concentrino su una selezione di outcome e di scale di valutazione in linea con l'ICF e che approfondiscano il contributo del casting alla riabilitazione del soggetto neurologico,per guidare i clinici e i fisioterapisti nella scelta ed erogazione di tale intervento e fornire prove di efficacia ulteriori a suo supporto.
Resumo:
La fibromialgia (FMS) è una sindrome reumatica non infiammatoria, caratterizzata da dolore diffuso, presenza di “punti sensibili” alla palpazione (“tender points”, TP), affaticamento, disturbi del sonno e cognitivi, sintomi che comportano aumento del livello di disabilità ed effetti negativi sulla qualità della vita (QoL). L’idrokinesiterapia è l’esercizio aerobico assistito svolto in acqua, preferibilmente riscaldata, che sfrutta le proprietà dell’acqua per il recupero di condizioni patologiche. Indagare l’efficacia dell’idrokinesiterapia (HKT) su dolore, faticabilità e qualità di vita nelle persone affette da sindrome fibromialgica. E' stata condotta una ricerca sulle banche dati di soli studi primari inerenti all’efficacia dell’HKT sulla FMS. Sono stati ricercati studi di alta qualità (con valore ≥ a 6/10 alla PEDro scale) che includessero persone adulte con diagnosi di FMS, che prevedessero l’HKT come trattamento isolato e che misurassero dolore, fatigue e QoL. La qualità metodologica degli studi inclusi all’interno della revisione è stata valutata tramite la scala PEDro. I dati sono stati ricavati attraverso griglia di estrazione ed analizzati qualitativamente. Sono stati inclusi 6 studi che hanno soddisfatto i criteri d'eleggibilità, per un totale di 262 donne. 1 studio ha confrontato HKT con esercizio aerobico a secco 3 volte a settimana per 8 settimane, 1 studio con fisioterapia convenzionale 3 vt/sett per 3 settimane, 1 con HKT in mare 3 vt/sett per 12 settimane, 2 studi con gruppi di controllo 2 e 3 vt/sett per 16 e 32 settimane rispettivamente, 1 con programma educativo 1 vt/sett per 11 settimane. In tutti gli studi il gruppo sperimentale ha mostrato miglioramento degli outcome, ad eccezione dello studio con posologia di una vt/ sett che non ha registrato miglioramenti nei gruppi. Conclusioni: L’idrokinesiterapia può portare ad un miglioramento dei sintomi di dolore, fatica e della qualità della vita delle persone affette da fibromialgia.
Resumo:
Background. La percezione di malattia gioca un ruolo importante nei disturbi del comportamento alimentare. Leventhal nel suo modello teorico dell’illness perception spiega che la rappresentazione di malattia si divide in diverse componenti, come la percezione di controllo e le aspettative di durata nel tempo. Obiettivo. L’obiettivo di questo elaborato è quello di realizzare una rassegna sistematica della letteratura sulle caratteristiche e le implicazioni della percezione di malattia nei disturbi del comportamento alimentare. Metodi. Per compiere la revisione sistematica della letteratura si è fatto riferimento a due banche dati: Pubmed e Scopus. Sono stati individuati articoli inerenti all’argomento trattato attraverso l’incrocio di diverse parole chiave, poi, sono stati esclusi diversi articoli non inerenti. Infine, sono stati approfonditi e confrontati tra loro i risultati dei 13 studi inclusi. Risultati. Nell’anoressia nervosa spesso il paziente non riesce a ricondurre i propri sintomi a un disturbo del comportamento alimentare e la malattia viene avvertita come parte integrante della propria vita. Questa percezione di malattia si traduce in una scarsa aderenza terapeutica. Nella bulimia nervosa si ha una scarsa identità di malattia, ma è più probabile che si riconosca di avere un problema e si cerchi un trattamento. Nel disturbo da binge-eating si ha una maggiore percezione di malattia rispetto all’anoressia nervosa. I disturbi del comportamento alimentare inoltre sono caratterizzati da una scarsa consapevolezza emotiva. Conclusioni. Prendere in considerazione questo tema è importante in quanto, in base alla percezione di malattia del paziente, lo specialista, in particolare il dietista, può modificare la terapia per adeguarla alle caratteristiche del caso specifico. Le rappresentazioni di malattia forniscono infatti al dietista informazioni utili sul livello di disagio e sulla fase di motivazione al cambiamento in cui si trova il paziente.
Resumo:
La radioterapia è una terapia medica molto utilizzata in campo oncologico. I diversi tipi di radiazione e di tecniche permettono di trattare, con diversi fini, una vasta gamma di neoplasie. Secondo i dati dell’AIRO, l’Associazione Italiana di Radioterapia e Oncologia clinica, nel 2020 sono stati trattati con la radioterapia circa 100mila pazienti in Italia, che conta 183 centri di radioterapia tra pubblici e privati, cioè circa 3 centri per milione di abitanti. La Società Europea di Radioterapia Oncologica, basandosi sullo studio ESTRO-HERO del 2014, suggerisce come parametro di confronto a livello nazionale o internazionale il numero di apparecchiature di radioterapia per milione di abitanti, e le Direttive Europee ne raccomandano un valore minimo di 7 unità. In questo elaborato, espongo l’evoluzione della radioterapia tramite la presentazione delle sue diverse tipologie, per poi concentrarmi sulla irradiazione corporea totale (Total Body Irradiation – TBI) nel caso studio della leucemia linfoblastica acuta (LLA). Il Capitolo 1 introduce la radioterapia e la sua principale suddivisione in esterna e interna, con i relativi sottogruppi. Viene poi spiegato come si valuta il volume bersaglio e vengono presentati il personale e le fasi del trattamento. Il Capitolo 2 introduce alla leucemia e alla LLA. Viene poi spiegato il trattamento di trapianto e quello di condizionamento. Infine, espongo la tecnica della TBI, le sue prestazioni ed i suoi limiti. Nelle conclusioni e future direzioni, valuto il problema della tossicità ed espongo le principali evoluzioni nell’uso della TBI.
Resumo:
Il presente lavoro di tesi si pone come obiettivo la valutazione del rischio causato dalla movimentazione manuale dei carichi in un supermercato di proprietà di una società operante nel settore della grande distribuzione organizzata, al fine di ottenere degli indici di rischio rappresentativi della complessità dell’attività lavorativa, che consentano di implementare le misure di riduzione del rischio per garantire la tutela della salute e della sicurezza dei lavoratori. Le metodologie utilizzate per condurre la valutazione del rischio sono quelle contenute nella norma UNI ISO 11228 Ergonomics – Manual Handling; tra queste figurano la metodologia dello standard UNI ISO 11228-1, da applicare alle attività di sollevamento, abbassamento e trasporto manuale dei carichi, la metodologia dello standard UNI ISO 11228-2 per le operazioni di traino e spinta ed infine le metodologie dello standard UNI ISO 11228-3 per l’analisi della movimentazione di bassi carichi ad alta frequenza. Tra le mansioni svolte dagli addetti di un supermercato, quelle che coinvolgono la movimentazione manuale dei carichi sono le operazioni di allestimento delle scaffalature o dei banchi espositivi in area vendita, la sistemazione dei prodotti in zona riserva, il trasferimento della merce mediante roll-cointainers o transpallet manuali e le attività di cassa. Tali compiti possono comportare uno sforzo fisico notevole per la colonna vertebrale ed infatti i dati più recenti mostrano che i disturbi muscolo-scheletrici rappresentano la causa primaria di malattia professionale. Pertanto la valutazione del rischio causato dalla movimentazione manuale dei carichi richiede un’elevata attenzione da parte di chi si occupa di sicurezza sul lavoro e deve essere condotta secondo un approccio integrato, che consideri tutti gli elementi dell’attività lavorativa.
Resumo:
Il presente studio ha avuto l’obiettivo di indagare la produzione di bioetanolo di seconda generazione a partire dagli scarti lignocellulosici della canna da zucchero (bagassa), facendo riscorso al processo enzimatico. L’attività di ricerca è stata svolta presso il Dipartimento di Ingegneria Chimica dell’Università di Lund (Svezia) all’interno di rapporti scambio con l’Università di Bologna. Il principale scopo è consistito nel valutare la produzione di etanolo in funzione delle condizioni operative con cui è stata condotta la saccarificazione e fermentazione enzimatica (SSF) della bagassa, materia prima che è stata sottoposta al pretrattamento di Steam Explosion (STEX) con aggiunta di SO2 come catalizzatore acido. Successivamente, i dati ottenuti in laboratorio dalla SSF sono stati utilizzati per implementare, in ambiente AspenPlus®, il flowsheet di un impianto che simula tutti gli aspetti della produzione di etanolo, al fine di studiarne il rendimento energetico dell’intero processo. La produzione di combustibili alternativi alle fonti fossili oggigiorno riveste primaria importanza sia nella limitazione dell’effetto serra sia nel minimizzare gli effetti di shock geopolitici sulle forniture strategiche di un Paese. Il settore dei trasporti in continua crescita, consuma nei paesi industrializzati circa un terzo del fabbisogno di fonti fossili. In questo contesto la produzione di bioetanolo può portare benefici per sia per l’ambiente che per l’economia qualora valutazioni del ciclo di vita del combustibile ne certifichino l’efficacia energetica e il potenziale di mitigazione dell’effetto serra. Numerosi studi mettono in risalto i pregi ambientali del bioetanolo, tuttavia è opportuno fare distinzioni sul processo di produzione e sul materiale di partenza utilizzato per comprendere appieno le reali potenzialità del sistema well-to-wheel del biocombustibile. Il bioetanolo di prima generazione ottenuto dalla trasformazione dell’amido (mais) e delle melasse (barbabietola e canna da zucchero) ha mostrato diversi svantaggi: primo, per via della competizione tra l’industria alimentare e dei biocarburanti, in secondo luogo poiché le sole piantagioni non hanno la potenzialità di soddisfare domande crescenti di bioetanolo. In aggiunta sono state mostrate forti perplessità in merito alla efficienza energetica e del ciclo di vita del bioetanolo da mais, da cui si ottiene quasi la metà della produzione di mondiale di etanolo (27 G litri/anno). L’utilizzo di materiali lignocellulosici come scarti agricolturali e dell’industria forestale, rifiuti urbani, softwood e hardwood, al contrario delle precedenti colture, non presentano gli svantaggi sopra menzionati e per tale motivo il bioetanolo prodotto dalla lignocellulosa viene denominato di seconda generazione. Tuttavia i metodi per produrlo risultano più complessi rispetto ai precedenti per via della difficoltà di rendere biodisponibili gli zuccheri contenuti nella lignocellulosa; per tale motivo è richiesto sia un pretrattamento che l’idrolisi enzimatica. La bagassa è un substrato ottimale per la produzione di bioetanolo di seconda generazione in quanto è disponibile in grandi quantità e ha già mostrato buone rese in etanolo se sottoposta a SSF. La bagassa tal quale è stata inizialmente essiccata all’aria e il contenuto d’acqua corretto al 60%; successivamente è stata posta a contatto per 30 minuti col catalizzatore acido SO2 (2%), al termine dei quali è stata pretrattata nel reattore STEX (10L, 200°C e 5 minuti) in 6 lotti da 1.638kg su peso umido. Lo slurry ottenuto è stato sottoposto a SSF batch (35°C e pH 5) utilizzando enzimi cellulolitici per l’idrolisi e lievito di birra ordinario (Saccharomyces cerevisiae) come consorzio microbico per la fermentazione. Un obiettivo della indagine è stato studiare il rendimento della SSF variando il medium di nutrienti, la concentrazione dei solidi (WIS 5%, 7.5%, 10%) e il carico di zuccheri. Dai risultati è emersa sia una buona attività enzimatica di depolimerizzazione della cellulosa che un elevato rendimento di fermentazione, anche per via della bassa concentrazione di inibitori prodotti nello stadio di pretrattamento come acido acetico, furfuraldeide e HMF. Tuttavia la concentrazione di etanolo raggiunta non è stata valutata sufficientemente alta per condurre a scala pilota un eventuale distillazione con bassi costi energetici. Pertanto, sono stati condotti ulteriori esperimenti SSF batch con addizione di melassa da barbabietola (Beta vulgaris), studiandone preventivamente i rendimenti attraverso fermentazioni alle stesse condizioni della SSF. I risultati ottenuti hanno suggerito che con ulteriori accorgimenti si potranno raggiungere gli obiettivi preposti. E’ stato inoltre indagato il rendimento energetico del processo di produzione di bioetanolo mediante SSF di bagassa con aggiunta di melassa in funzione delle variabili più significative. Per la modellazione si è fatto ricorso al software AspenPlus®, conducendo l’analisi di sensitività del mix energetico in uscita dall’impianto al variare del rendimento di SSF e dell’addizione di saccarosio. Dalle simulazioni è emerso che, al netto del fabbisogno entalpico di autosostentamento, l’efficienza energetica del processo varia tra 0.20 e 0.53 a seconda delle condizioni; inoltre, è stata costruita la curva dei costi energetici di distillazione per litro di etanolo prodotto in funzione delle concentrazioni di etanolo in uscita dalla fermentazione. Infine sono già stati individuati fattori su cui è possibile agire per ottenere ulteriori miglioramenti sia in laboratorio che nella modellazione di processo e, di conseguenza, produrre con alta efficienza energetica bioetanolo ad elevato potenziale di mitigazione dell’effetto serra.
Resumo:
CAPITOLO 1 INTRODUZIONE Il lavoro presentato è relativo all’utilizzo a fini metrici di immagini satellitari storiche a geometria panoramica; in particolare sono state elaborate immagini satellitari acquisite dalla piattaforma statunitense CORONA, progettata ed impiegata essenzialmente a scopi militari tra gli anni ’60 e ’70 del secolo scorso, e recentemente soggette ad una declassificazione che ne ha consentito l’accesso anche a scopi ed utenti non militari. Il tema del recupero di immagini aeree e satellitari del passato è di grande interesse per un ampio spettro di applicazioni sul territorio, dall’analisi dello sviluppo urbano o in ambito regionale fino ad indagini specifiche locali relative a siti di interesse archeologico, industriale, ambientale. Esiste infatti un grandissimo patrimonio informativo che potrebbe colmare le lacune della documentazione cartografica, di per sé, per ovvi motivi tecnici ed economici, limitata a rappresentare l’evoluzione territoriale in modo asincrono e sporadico, e con “forzature” e limitazioni nel contenuto informativo legate agli scopi ed alle modalità di rappresentazione delle carte nel corso del tempo e per diversi tipi di applicazioni. L’immagine di tipo fotografico offre una rappresentazione completa, ancorché non soggettiva, dell’esistente e può complementare molto efficacemente il dato cartografico o farne le veci laddove questo non esista. La maggior parte del patrimonio di immagini storiche è certamente legata a voli fotogrammetrici che, a partire dai primi decenni del ‘900, hanno interessato vaste aree dei paesi più avanzati, o regioni di interesse a fini bellici. Accanto a queste, ed ovviamente su periodi più vicini a noi, si collocano le immagini acquisite da piattaforma satellitare, tra le quali rivestono un grande interesse quelle realizzate a scopo di spionaggio militare, essendo ad alta risoluzione geometrica e di ottimo dettaglio. Purtroppo, questo ricco patrimonio è ancora oggi in gran parte inaccessibile, anche se recentemente sono state avviate iniziative per permetterne l’accesso a fini civili, in considerazione anche dell’obsolescenza del dato e della disponibilità di altre e migliori fonti di informazione che il moderno telerilevamento ci propone. L’impiego di immagini storiche, siano esse aeree o satellitari, è nella gran parte dei casi di carattere qualitativo, inteso ad investigare sulla presenza o assenza di oggetti o fenomeni, e di rado assume un carattere metrico ed oggettivo, che richiederebbe tra l’altro la conoscenza di dati tecnici (per esempio il certificato di calibrazione nel caso delle camere aerofotogrammetriche) che sono andati perduti o sono inaccessibili. Va ricordato anche che i mezzi di presa dell’epoca erano spesso soggetti a fenomeni di distorsione ottica o altro tipo di degrado delle immagini che ne rendevano difficile un uso metrico. D’altra parte, un utilizzo metrico di queste immagini consentirebbe di conferire all’analisi del territorio e delle modifiche in esso intercorse anche un significato oggettivo che sarebbe essenziale per diversi scopi: per esempio, per potere effettuare misure su oggetti non più esistenti o per potere confrontare con precisione o co-registrare le immagini storiche con quelle attuali opportunamente georeferenziate. Il caso delle immagini Corona è molto interessante, per una serie di specificità che esse presentano: in primo luogo esse associano ad una alta risoluzione (dimensione del pixel a terra fino a 1.80 metri) una ampia copertura a terra (i fotogrammi di alcune missioni coprono strisce lunghe fino a 250 chilometri). Queste due caratteristiche “derivano” dal principio adottato in fase di acquisizione delle immagini stesse, vale a dire la geometria panoramica scelta appunto perché l’unica che consente di associare le due caratteristiche predette e quindi molto indicata ai fini spionaggio. Inoltre, data la numerosità e la frequenza delle missioni all’interno dell’omonimo programma, le serie storiche di questi fotogrammi permettono una ricostruzione “ricca” e “minuziosa” degli assetti territoriali pregressi, data appunto la maggior quantità di informazioni e l’imparzialità associabili ai prodotti fotografici. Va precisato sin dall’inizio come queste immagini, seppur rappresentino una risorsa “storica” notevole (sono datate fra il 1959 ed il 1972 e coprono regioni moto ampie e di grandissimo interesse per analisi territoriali), siano state molto raramente impiegate a scopi metrici. Ciò è probabilmente imputabile al fatto che il loro trattamento a fini metrici non è affatto semplice per tutta una serie di motivi che saranno evidenziati nei capitoli successivi. La sperimentazione condotta nell’ambito della tesi ha avuto due obiettivi primari, uno generale ed uno più particolare: da un lato il tentativo di valutare in senso lato le potenzialità dell’enorme patrimonio rappresentato da tali immagini (reperibili ad un costo basso in confronto a prodotti simili) e dall’altro l’opportunità di indagare la situazione territoriale locale per una zona della Turchia sud orientale (intorno al sito archeologico di Tilmen Höyük) sulla quale è attivo un progetto condotto dall’Università di Bologna (responsabile scientifico il Prof. Nicolò Marchetti del Dipartimento di Archeologia), a cui il DISTART collabora attivamente dal 2005. L’attività è condotta in collaborazione con l’Università di Istanbul ed il Museo Archeologico di Gaziantep. Questo lavoro si inserisce, inoltre, in un’ottica più ampia di quelle esposta, dello studio cioè a carattere regionale della zona in cui si trovano gli scavi archeologici di Tilmen Höyük; la disponibilità di immagini multitemporali su un ampio intervallo temporale, nonché di tipo multi sensore, con dati multispettrali, doterebbe questo studio di strumenti di conoscenza di altissimo interesse per la caratterizzazione dei cambiamenti intercorsi. Per quanto riguarda l’aspetto più generale, mettere a punto una procedura per il trattamento metrico delle immagini CORONA può rivelarsi utile all’intera comunità che ruota attorno al “mondo” dei GIS e del telerilevamento; come prima ricordato tali immagini (che coprono una superficie di quasi due milioni di chilometri quadrati) rappresentano un patrimonio storico fotografico immenso che potrebbe (e dovrebbe) essere utilizzato sia a scopi archeologici, sia come supporto per lo studio, in ambiente GIS, delle dinamiche territoriali di sviluppo di quelle zone in cui sono scarse o addirittura assenti immagini satellitari dati cartografici pregressi. Il lavoro è stato suddiviso in 6 capitoli, di cui il presente costituisce il primo. Il secondo capitolo è stato dedicato alla descrizione sommaria del progetto spaziale CORONA (progetto statunitense condotto a scopo di fotoricognizione del territorio dell’ex Unione Sovietica e delle aree Mediorientali politicamente correlate ad essa); in questa fase vengono riportate notizie in merito alla nascita e all’evoluzione di tale programma, vengono descritti piuttosto dettagliatamente gli aspetti concernenti le ottiche impiegate e le modalità di acquisizione delle immagini, vengono riportati tutti i riferimenti (storici e non) utili a chi volesse approfondire la conoscenza di questo straordinario programma spaziale. Nel terzo capitolo viene presentata una breve discussione in merito alle immagini panoramiche in generale, vale a dire le modalità di acquisizione, gli aspetti geometrici e prospettici alla base del principio panoramico, i pregi ed i difetti di questo tipo di immagini. Vengono inoltre presentati i diversi metodi rintracciabili in bibliografia per la correzione delle immagini panoramiche e quelli impiegati dai diversi autori (pochi per la verità) che hanno scelto di conferire un significato metrico (quindi quantitativo e non solo qualitativo come è accaduto per lungo tempo) alle immagini CORONA. Il quarto capitolo rappresenta una breve descrizione del sito archeologico di Tilmen Höyuk; collocazione geografica, cronologia delle varie campagne di studio che l’hanno riguardato, monumenti e suppellettili rinvenute nell’area e che hanno reso possibili una ricostruzione virtuale dell’aspetto originario della città ed una più profonda comprensione della situazione delle capitali del Mediterraneo durante il periodo del Bronzo Medio. Il quinto capitolo è dedicato allo “scopo” principe del lavoro affrontato, vale a dire la generazione dell’ortofotomosaico relativo alla zona di cui sopra. Dopo un’introduzione teorica in merito alla produzione di questo tipo di prodotto (procedure e trasformazioni utilizzabili, metodi di interpolazione dei pixel, qualità del DEM utilizzato), vengono presentati e commentati i risultati ottenuti, cercando di evidenziare le correlazioni fra gli stessi e le problematiche di diversa natura incontrate nella redazione di questo lavoro di tesi. Nel sesto ed ultimo capitolo sono contenute le conclusioni in merito al lavoro in questa sede presentato. Nell’appendice A vengono riportate le tabelle dei punti di controllo utilizzati in fase di orientamento esterno dei fotogrammi.
Resumo:
In questi ultimi anni il tema della sicurezza sismica degli edifici storici in muratura ha assunto particolare rilievo in quanto a partire soprattutto dall’ordinanza 3274 del 2003, emanata in seguito al sisma che colpì il Molise nel 2002, la normativa ha imposto un monitoraggio ed una classificazione degli edifici storici sotto tutela per quanto riguarda la vulnerabilità sismica (nel 2008, quest’anno, scade il termine per attuare quest’opera di classificazione). Si è posto per questo in modo più urgente il problema dello studio del comportamento degli edifici storici (non solo quelli che costituiscono monumento, ma anche e soprattutto quelli minori) e della loro sicurezza. Le Linee Guida di applicazione dell’Ordinanza 3274 nascono con l’intento di fornire strumenti e metodologie semplici ed efficaci per affrontare questo studio nei tempi previsti. Il problema si pone in modo particolare per le chiese, presenti in grande quantità sul territorio italiano e di cui costituiscono gran parte del patrimonio culturale; questi edifici, composti di solito da grandi elementi murari, non presentano comportamento scatolare, mancando orizzontamenti, elementi di collegamento efficace e muri di spina interni e sono particolarmente vulnerabili ad azioni sismiche; presentano inoltre un comportamento strutturale a sollecitazioni orizzontali che non può essere colto con un approccio globale basato, ad esempio, su un’analisi modale lineare: non ci sono modi di vibrare che coinvolgano una sufficiente parte di massa della struttura; si hanno valori dei coefficienti di partecipazione dei varii modi di vibrare minori del 10% (in generale molto più bassi). Per questo motivo l’esperienza e l’osservazione di casi reali suggeriscono un approccio di studio degli edifici storici sacri in muratura attraverso l’analisi della sicurezza sismica dei cosiddetti “macroelementi” in cui si può suddividere un edificio murario, i quali sono elementi che presentano un comportamento strutturale autonomo. Questo lavoro si inserisce in uno studio più ampio iniziato con una tesi di laurea dal titolo “Analisi Limite di Strutture in Muratura. Teoria e Applicazione all'Arco Trionfale” (M. Temprati), che ha studiato il comportamento dell’arco trionfale della chiesa collegiata di Santa Maria del Borgo a San Nicandro Garganico (FG). Suddividere un edificio in muratura in più elementi è il metodo proposto nelle Linee Guida, di cui si parla nel primo capitolo del presente lavoro: la vulnerabilità delle strutture può essere studiata tramite il moltiplicatore di collasso quale parametro in grado di esprimere il livello di sicurezza sismica. Nel secondo capitolo si illustra il calcolo degli indici di vulnerabilità e delle accelerazioni di danno per la chiesa di Santa Maria del Borgo, attraverso la compilazione delle schede dette “di II livello”, secondo quanto indicato nelle Linee Guida. Nel terzo capitolo viene riportato il calcolo del moltiplicatore di collasso a ribaltamento della facciata della chiesa. Su questo elemento si è incentrata l’attenzione nel presente lavoro. A causa della complessità dello schema strutturale della facciata connessa ad altri elementi dell’edificio, si è fatto uso del codice di calcolo agli elementi finiti ABAQUS. Della modellazione del materiale e del settaggio dei parametri del software si è discusso nel quarto capitolo. Nel quinto capitolo si illustra l’analisi condotta tramite ABAQUS sullo stesso schema della facciata utilizzato per il calcolo manuale nel capitolo tre: l’utilizzo combinato dell’analisi cinematica e del metodo agli elementi finiti permette per esempi semplici di convalidare i risultati ottenibili con un’analisi non-lineare agli elementi finiti e di estenderne la validità a schemi più completi e più complessi. Nel sesto capitolo infatti si riportano i risultati delle analisi condotte con ABAQUS su schemi strutturali in cui si considerano anche gli elementi connessi alla facciata. Si riesce in questo modo ad individuare con chiarezza il meccanismo di collasso di più facile attivazione per la facciata e a trarre importanti informazioni sul comportamento strutturale delle varie parti, anche in vista di un intervento di ristrutturazione e miglioramento sismico.
Resumo:
Oggetto di questa tesi è lo studio della qualità del servizio di trasporto erogato che condiziona la qualità percepita dall’utente, poiché spesso proprio a causa di un errato processo di pianificazione e gestione della rete, molte aziende non sono in grado di consolidare un alto livello di efficienza che permetta loro di attrarre e servire la crescente domanda. Per questo motivo, si è deciso di indagare sugli aspetti che determinano la qualità erogata e sui fattori che la influenzano, anche attraverso la definizione di alcuni indicatori rappresentativi del servizio erogato. L’area di studio considerata è stata quella urbana di Bologna, e sono state prese in esame due linee di ATC, la 19 e la 27, caratterizzate entrambe da una domanda di trasporto molto elevata. L’interesse è ricaduto in modo particolare sugli aspetti legati alla regolarità del servizio, ovvero al rispetto della cadenza programmata delle corse e alla puntualità, ossia il rispetto dell’orario programmato delle stesse. Proprio da questi due aspetti, infatti, dipende in larga misura la percezione della qualità che gli utenti hanno del servizio di trasporto collettivo. Lo studio è stato condotto sulla base di dati raccolti attraverso due campagne di rilevamento, una effettuata nel mese di maggio dell’anno 2008 e l’altra nel mese di settembre dello stesso anno. La scelta del periodo, della zona e delle modalità di rilevamento è strettamente connessa all’obiettivo prefissato. Il servizio è influenzato dalle caratteristiche del sistema di trasporto: sia da quelle legate alla domanda che da quelle legate all’offerta. Nel caso della domanda di trasporto si considera l’influenza sul servizio del numero di passeggeri saliti e del tempo di sosta alle fermate. Nel caso dell’offerta di trasporto si osservano soprattutto gli aspetti legati alla rete di trasporto su cui si muovono gli autobus, analizzando quindi i tempi di movimento e le velocità dei mezzi, per vedere come le caratteristiche dell’infrastruttura possano condizionare il servizio. A tale proposito è opportuno dire che, mentre i dati della prima analisi ci sono utili per lo studio dell’influenza del tempo di sosta sull’intertempo, nella seconda analisi si vuole cercare di effettuare ulteriori osservazioni sull’influenza del tempo di movimento sulla cadenza, prendendo in esame altri elementi, come ad esempio tratti di linea differenti rispetto al caso precedente. Un’attenzione particolare, inoltre, verrà riservata alla verifica del rispetto della cadenza, dalla quale scaturisce la definizione del livello di servizio per ciò che riguarda la regolarità. Per quest’ultima verrà, inoltre, determinato anche il LOS relativo alla puntualità. Collegato al problema del rispetto della cadenza è il fenomeno dell’accodamento: questo si verifica quando i mezzi di una stessa linea arrivano contemporaneamente ad una fermata uno dietro l’altro. L’accodamento ha, infatti, origine dal mancato rispetto della cadenza programmata tra i mezzi ed è un’evidente manifestazione del mal funzionamento di un servizio di trasporto. Verrà infine condotta un’analisi dei fattori che possono influenzare le prestazioni del servizio di trasporto pubblico, così da collocare i dati ottenuti dalle operazioni di rilevamento in un quadro più preciso, capace di sottolineare alcuni elementi di criticità e possibili rapporti di causalità.
Resumo:
L’argomento trattato in questo elaborato è il problema sempre più emergente dello smaltimento dei fanghi provenienti dalla depurazione delle acque reflue. La quantità di fanghi da smaltire, infatti, è in continuo aumento e continuerà a crescere nel corso dei prossimi anni a causa di trattamenti sempre più spinti di depurazione e della costruzione di nuovi impianti. Dopo aver analizzato i vari scenari possibili per lo smaltimento dei fanghi ed i relativi costi, si passa ad analizzare le varie tecniche utilizzate per l’essiccamento dei fanghi (dirette ed indirette), includendo anche tecniche di ultima generazione come l’essiccamento per via solare. Si è andati poi ad analizzare nel dettaglio il funzionamento dell’impianto di essiccamento termico dei fanghi di depurazione di Coriano (RN), situato presso il termovalorizzatore e che sfrutta il calore proveniente da questo come fonte di calore per essiccare i fanghi. Sono state evidenziate le varie parti che compongono l’impianto e le caratteristiche delle correnti in ingresso ed uscita. Si è passati poi ad analizzare il pericolo di esplosione, all’interno dello stesso impianto, dovuto alla presenza di miscele esplosive formate dalla polvere organica del fango e dall’aria. Si sono analizzate tutte le modifiche apportate all’impianto in modo tale da prevenire questo rischio di esplosione. Infine è stata condotta una valutazione economica per dimostrare che l’essiccamento dei fanghi risulta un processo molto conveniente, perché consente di ridurre i volumi da trattare, e, quindi, di conseguenza anche i costi dello smaltimento finale.
Resumo:
Il lavoro sperimentale condotto nell’ambito della presente tesi è stato svolto su un impianto pilota a flusso continuo con schema predenitro/nitro in scala di laboratorio, alimentato con refluo sintetico ed installato presso i laboratori della Sezione ACS PROT IDR - Gestione Risorse Idriche dell’ENEA (sede di Bologna). Le finalità della sperimentazione erano mirate ad una verifica preliminare sull’utilizzo di segnali indiretti, quali pH, ORP, DO, nel monitoraggio in tempo reale dei processi biologici, mirata alla possibilità di implementare un sistema di controllo automatico di un impianto di depurazione, capace di minimizzare i costi di gestione e in grado di garantire, in ogni caso, elevate efficienze depurative. Nel presente studio sono stati esaminati gli aspetti metodologici e tecnologici alla base dell’automazione di un impianto di trattamento di acque reflue, avendo il duplice obiettivo di garantire una buona qualità dell’effluente e un contestuale risparmio energetico. In particolare si è studiato un problema molto diffuso: il controllo della rimozione dell’azoto in un sistema a fanghi attivi con predenitrificazione per l’ossidazione congiunta di carbonio ed azoto, ponendolo in relazione con la variazione dei tempi di commutazione in un processo SBR. L’obiettivo primario della sperimentazione effettuata è stato quello di portare il sistema in un regime di equilibrio stazionario, in modo da poter definire delle condizioni di regime per le quali, ad un ingresso costante e noto, corrispondesse un’uscita altrettanto costante che mantenesse tali condizioni fino a quando non fosse cambiato l’ingresso e/o le condizioni al contorno. A questo scopo si è provveduto, in primo luogo, allo studio di un influente sintetico con cui alimentare l’impianto, di composizione tale da simulare in tutte le sue caratteristiche un refluo civile reale e, successivamente, alla valutazione di una configurazione impiantistica idonea per il raggiungimento dell’equilibrio dei processi. La prima parte della sperimentazione è stata dedicata all’avviamento dell’impianto, effettuando un monitoraggio continuo dell’intero sistema allo scopo di impostare i parametri operativi e in modo da ottenere condizioni stabili per effettuare le successive sperimentazioni.