894 resultados para sistema di gestione, OHSAS, sicurezza sul lavoro
Resumo:
I dispositivi impiantabili stanno acquisendo grande importanza nell’ambito delle applicazioni biomedicali, ciò è dovuto principalmente alla loro attitudine nell’adempiere funzioni di stimolazione, monitoraggio su organi interni e di comunicazione di segnali vitali al mondo esterno. La comunità scientifica, in particolare, concentra la sua attenzione sulle tecniche di alimentazione di tali dispositivi. Le batterie al litio hanno rappresentato, fino a qualche tempo fa, la sorgente di alimentazione primaria. Il bisogno crescente di minimizzare le dimensioni di questi dispositivi e migliorare la qualità di vita del paziente (evitare successive operazioni chirurgiche, rischi e infezioni a causa dei cavi percutanei), ha spinto nella ricerca di nuove soluzioni. Una di queste è rappresentata dalla Wireless Power Transfer (WPT). In questo lavoro di tesi, è stato proposto un sistema di alimentazione wireless transcutaneo. Il sistema sfrutta il principio dell’accoppiamento induttivo risonante, che consiste nella trasmissione di energia in campo vicino tra due risuonatori magneticamente accoppiati. Al fine di acquisire la massima efficienza, sono state effettuate operazioni di ottimizzazione geometrica sul trasmettitore e di adattamento sul modello circuitale. I software CST e LTspice hanno reso possibile le simulazioni sul sistema dal punto di vista elettromagnetico e circuitale. Gli sviluppi futuri prevedono di convalidare i risultati ottenuti realizzando prove “in vitro”.
Resumo:
In questo lavoro di tesi si è analizzato il problema di creare un sistema di assistenza allo shopping integrabile in applicazioni e-commerce web e mobile sviluppate con le tecnologie messe a disposizione da Marketcloud, ovvero un progetto che punta a fornire strumenti per la realizzazione, la manutenzione, la gestione, la diffusione e la pubblicizzazione di tali applicazioni limitando i costi e le problematiche di sviluppo a carico delle aziende che intendono fornire servizi di e-commerce. Dopo aver discusso gli aspetti principali del progetto Marketcloud, sono state analizzate le necessità delle aziende interessate allo sviluppo del sistema di assistenza in esame, così come le aspettative degli utenti (i clienti) finali, ed è stato discusso perché fosse necessario e preferibile, nel caso in esame, non utilizzare soluzioni già presenti sul mercato. Infine, è stata progettata ed implementata un’applicazione web che includesse tale sistema e che fosse immediatamente integrabile tra i servizi già sviluppati da Marketcloud, testandone risultati, prestazioni, problemi e possibili sviluppi futuri. Al termine del lavoro di implementazione, il sistema e l'applicazione garantiscono all'utente finale l'utilizzo di tre funzioni: ricerca per categoria, ricerca libera, recommendation di prodotti. Per gestire la ricerca libera, è stato implementato un sistema di filtri successivi, ed una rete neurale multi-livello dotata di un opportuno algoritmo di machine learning per poter apprendere dalle scelte degli utenti; per la recommendation di prodotti, è stato utilizzato un sistema di ranking (classificazione). Le prestazioni della rete neurale sono state oggetto di attenta analisi.
Resumo:
I Big Data hanno forgiato nuove tecnologie che migliorano la qualità della vita utilizzando la combinazione di rappresentazioni eterogenee di dati in varie discipline. Occorre, quindi, un sistema realtime in grado di computare i dati in tempo reale. Tale sistema viene denominato speed layer, come si evince dal nome si è pensato a garantire che i nuovi dati siano restituiti dalle query funcions con la rapidità in cui essi arrivano. Il lavoro di tesi verte sulla realizzazione di un’architettura che si rifaccia allo Speed Layer della Lambda Architecture e che sia in grado di ricevere dati metereologici pubblicati su una coda MQTT, elaborarli in tempo reale e memorizzarli in un database per renderli disponibili ai Data Scientist. L’ambiente di programmazione utilizzato è JAVA, il progetto è stato installato sulla piattaforma Hortonworks che si basa sul framework Hadoop e sul sistema di computazione Storm, che permette di lavorare con flussi di dati illimitati, effettuando l’elaborazione in tempo reale. A differenza dei tradizionali approcci di stream-processing con reti di code e workers, Storm è fault-tolerance e scalabile. Gli sforzi dedicati al suo sviluppo da parte della Apache Software Foundation, il crescente utilizzo in ambito di produzione di importanti aziende, il supporto da parte delle compagnie di cloud hosting sono segnali che questa tecnologia prenderà sempre più piede come soluzione per la gestione di computazioni distribuite orientate agli eventi. Per poter memorizzare e analizzare queste moli di dati, che da sempre hanno costituito una problematica non superabile con i database tradizionali, è stato utilizzato un database non relazionale: HBase.
Resumo:
La dialisi, le cui basi sono state fondate a metà ottocento dal chimico Thomas Graham, è la terapia, alternativa al trapianto, utilizzata su pazienti affetti da insufficienza renale. Ad oggi tale terapia ha un numero sempre maggiore di utilizzatori, più di 2,5 milioni di persone al mondo, ragione per cui ha un impatto sempre più grande sul sistema sanitario. La terapia, ha come scopo principale quello ripristinare gli equilibri idro-elettrolitico e acido-base del sangue del paziente utilizzando principi quali ultrafiltrazione, convezione e diffusione. Per raggiungere questo obiettivo, il sangue del paziente viene fatto scorrere controcorrente al liquido di dialisi, di composizione nota, ai capi di una membrana semipermeabile. Nel caso dell’emodialisi tutto il processo si svolge in circolazione extracorporea. La dialisi viene eseguita quando i reni del paziente non riescono più a espletare la loro funzione, con conseguente accumulo di tossine e di liquidi, che nel giro di pochi giorni porterebbe alla morte se non si interviene. Data la sua funzione, una parte importante della macchina che esegue l’emodialisi, è il sistema di controllo dell’ultrafiltrazione, che permette di rimuovere in maniera controllata i liquidi che il paziente non riesce a smaltire in maniera autonoma. La rimozione di liquidi avviene mediante la creazione di un gradiente pressorio tra il lato sangue e il lato dializzato, che causa il passaggio di liquidi da una parte all’altra della membrana semipermeabile. Esistono vari metodi che permettono di realizzare questo processo, che si differenziano per la strategia utilizzata per creare i gradienti pressori; ognuno dei quali permette di ottenere una determinata accuratezza. Scopo del mio lavoro di tesi è stato quello di studiare e validare un nuovo sistema di realizzazione e controllo dell’ultrafiltrazione.
Resumo:
L’elaborato di tesi è stato redatto durante un’esperienza formativa presso la Parker Hannifin Manufacturing – Divisione Calzoni di Anzola dell’Emilia (BO). Il lavoro della tesi ha avuto per oggetto l’analisi di sicurezza e l’analisi dei guasti di un banco di assemblaggio e collaudo per motori oleodinamici a pistoni radiali. Il lavoro si è articolato in più fasi: una prima fase volta all’analisi funzionale (meccanica, idraulica, elettrica ed elettronica) dell’apparecchiatura, la fase successiva è stata dedicata allo studio delle varie normative necessarie a redigere il rapporto di sicurezza. Si sono poi valutati ed analizzati tutti i requisiti di sicurezza dell’apparecchiatura (valutazione del rischio) al fine di redigere il fascicolo tecnico. Infine, si è svolta l’analisi dei guasti (FMEA) secondo il metodo adottato in azienda. Il primo ed il secondo capitolo introducono la finalità industriale ed una descrizione generica dell’apparecchiatura. Nel terzo capitolo vi è una descrizione accurata del sistema idraulico e delle sue possibili configurazioni; il quarto nasce invece per approcciarsi alle normative di sicurezza a cui si è fatto riferimento. Infine, il quinto ed il sesto capitolo contengono rispettivamente il fascicolo tecnico e l’analisi dei guasti relativa all'apparecchiatura industriale studiata.
Resumo:
La presente relazione tecnica si propone di illustrare l’attività svolta dal Gruppo di Lavoro “Gestione e monitoraggio PON 2007/2013”, dalla data di costituzione (18 marzo 2013) alla data odierna rappresentando le esigenze che hanno portato alla sua costituzione, le criticità riscontrate e il rapporto analitico sulla gestione dei PON 7° PQ, concludendo con una proposta organizzativa per il DIITET, finalizzata al proseguimento delle attività di gestione dei progetti, che possa essere valida sia per la prosecuzione, a compimento, di tutte le fattispecie connesse al settimo Programma Quadro in chiusura, che per successivo Horizon 2020.
Resumo:
Lo scopo del presente lavoro è la realizzazione e l'ottimizzazione di un software che, tramite l'utilizzo di un controllo automatico Proporzionale-Integrativo-Derivativo: PID, gestisca la temperatura di un fornetto in camera a vuoto. È necessario che il sistema sia in grado di eseguire rampe regolari di temperatura di diversa pendenza scelta dall'utente, in modo che possa essere utilizzato in futuro per esperimenti di Desorbimento Termico da parte di vari materiali. La tesi è così suddivisa, nel primo capitolo sono illustrati i concetti teorici di base utilizzati nello sviluppo dei controlli automatici. Nel secondo capitolo è descritta la parte hardware: sono mostrate le diverse sezioni che compongono il fornetto e la camera a vuoto, è inoltre illustrato il cablaggio che permette l'interfaccia del forno alla scheda Arduino ed al software LabVIEW. La terza sezione è dedicata agli studi svolti per la realizzazione del sistema di controllo PID e per la sua ottimizzazione. Il quarto capitolo è invece dedicato alla descrizione del software creato per la gestione del fornetto. Nel quinto capitolo sono infine mostrati i metodi utilizzati per il calcolo delle costanti operative del PID ed i risultati sperimentali ottenuti.
Resumo:
MOTIVAZIONI DI PARTENZA Gli studi sul processo di aziendalizzazione delle pubbliche amministrazioni (Hood 1991, Mussari 1994, Valotti 2000) hanno evidenziato che esse possono essere considerate aziende per tre ragioni: istituzionale, costitutiva e comportamentale (Deidda Gagliardo 2002). In particolare, gli enti locali che intendano agire come aziende dovrebbero adottare sistemi (Bertini 1990) di programmazione e controllo (D’Alessio 1992, Borgonovi 2005), funzionali ad un miglioramento delle performances economico-sociali (Anselmi 1993, Farneti 2004). Il presente lavoro è incentrato sul sub-sistema di programmazione delle amministrazioni territoriali: si focalizza l’attenzione sugli enti locali emiliano-romagnoli in quanto caratterizzati da un buon livello di aziendalizzazione (Orelli 2005). RISULTATI ATTESI L’analisi verterà sugli strumenti di programmazione utilizzati dagli enti in oggetto e sui rapporti -orizzontali e verticali (Deidda Gagliardo 2007)- intercorrenti tra gli stessi, mirando a verificarne livello e modalità di applicazione. Lo studio partirà dai risultati della ricerca “Il contributo dei sistemi di programmazione e controllo alla governance locale in Emilia-Romagna”, coordinata dal Prof. Deidda Gagliardo e condotta, rispetto all’universo di 350 enti potenziali, sul campione delle 178 amministrazioni che hanno risposto, rappresentativo di tutte le fasce dimensionali e di tutte le zone geografiche della regione. Tale ricerca, chiusa a fine 2007, ha indagato l’arco temporale 1996 - 2006. Dall’analisi dei dati ci si attende che tutti gli enti osservati adottino gli strumenti di programmazione “obbligatori”, e che l’utilizzo di quelli “facoltativi” sia circoscritto a quelli più virtuosi. La metodologia di ricerca è di tipo misto: • fase deduttiva: sono stati studiati i principali contributi teorici; • fase induttiva: è stato somministrato un questionario strutturato a risposte chiuse ai responsabili dei servizi finanziari; • fase di feedback: si procederà all’analisi critica dei risultati al fine di verificare livello e modalità di utilizzo degli strumenti di programmazione.
Resumo:
L’obiettivo della tesi riguarda l’utilizzo di immagini aerofotogrammetriche e telerilevate per la caratterizzazione qualitativa e quantitativa di ecosistemi forestali e della loro evoluzione. Le tematiche affrontate hanno riguardato, da una parte, l’aspetto fotogrammetrico, mediante recupero, digitalizzazione ed elaborazione di immagini aeree storiche di varie epoche, e, dall’altra, l’aspetto legato all’uso del telerilevamento per la classificazione delle coperture al suolo. Nel capitolo 1 viene fatta una breve introduzione sullo sviluppo delle nuove tecnologie di rilievo con un approfondimento delle applicazioni forestali; nel secondo capitolo è affrontata la tematica legata all’acquisizione dei dati telerilevati e fotogrammetrici con una breve descrizione delle caratteristiche e grandezze principali; il terzo capitolo tratta i processi di elaborazione e classificazione delle immagini per l’estrazione delle informazioni significative. Nei tre capitoli seguenti vengono mostrati tre casi di applicazioni di fotogrammetria e telerilevamento nello studio di ecosistemi forestali. Il primo caso (capitolo 4) riguarda l’area del gruppo montuoso del Prado- Cusna, sui cui è stata compiuta un’analisi multitemporale dell’evoluzione del limite altitudinale degli alberi nell’arco degli ultimi cinquant’anni. E’ stata affrontata ed analizzata la procedura per il recupero delle prese aeree storiche, definibile mediante una serie di successive operazioni, a partire dalla digitalizzazione dei fotogrammi, continuando con la determinazione di punti di controllo noti a terra per l’orientamento delle immagini, per finire con l’ortorettifica e mosaicatura delle stesse, con l’ausilio di un Modello Digitale del Terreno (DTM). Tutto ciò ha permesso il confronto di tali dati con immagini digitali più recenti al fine di individuare eventuali cambiamenti avvenuti nell’arco di tempo intercorso. Nel secondo caso (capitolo 5) si è definita per lo studio della zona del gruppo del monte Giovo una procedura di classificazione per l’estrazione delle coperture vegetative e per l’aggiornamento della cartografia esistente – in questo caso la carta della vegetazione. In particolare si è cercato di classificare la vegetazione soprasilvatica, dominata da brughiere a mirtilli e praterie con prevalenza di quelle secondarie a nardo e brachipodio. In alcune aree sono inoltre presenti comunità che colonizzano accumuli detritici stabilizzati e le rupi arenacee. A questo scopo, oltre alle immagini aeree (Volo IT2000) sono state usate anche immagini satellitari ASTER e altri dati ancillari (DTM e derivati), ed è stato applicato un sistema di classificazione delle coperture di tipo objectbased. Si è cercato di definire i migliori parametri per la segmentazione e il numero migliore di sample per la classificazione. Da una parte, è stata fatta una classificazione supervisionata della vegetazione a partire da pochi sample di riferimento, dall’altra si è voluto testare tale metodo per la definizione di una procedura di aggiornamento automatico della cartografia esistente. Nel terzo caso (capitolo 6), sempre nella zona del gruppo del monte Giovo, è stato fatto un confronto fra la timberline estratta mediante segmentazione ad oggetti ed il risultato di rilievi GPS a terra appositamente effettuati. L’obiettivo è la definizione del limite altitudinale del bosco e l’individuazione di gruppi di alberi isolati al di sopra di esso mediante procedure di segmentazione e classificazione object-based di ortofoto aeree in formato digitale e la verifica sul campo in alcune zone campione dei risultati, mediante creazione di profili GPS del limite del bosco e determinazione delle coordinate dei gruppi di alberi isolati. I risultati finali del lavoro hanno messo in luce come le moderne tecniche di analisi di immagini sono ormai mature per consentire il raggiungimento degli obiettivi prefissi nelle tre applicazioni considerate, pur essendo in ogni caso necessaria una attenta validazione dei dati ed un intervento dell’operatore in diversi momenti del processo. In particolare, le operazioni di segmentazione delle immagini per l’estrazione di feature significative hanno dimostrato grandi potenzialità in tutti e tre i casi. Un software ad “oggetti” semplifica l’implementazione dei risultati della classificazione in un ambiente GIS, offrendo la possibilità, ad esempio, di esportare in formato vettoriale gli oggetti classificati. Inoltre dà la possibilità di utilizzare contemporaneamente, in un unico ambiente, più sorgenti di informazione quali foto aeree, immagini satellitari, DTM e derivati. Le procedure automatiche per l’estrazione della timberline e dei gruppi di alberi isolati e per la classificazione delle coperture sono oggetto di un continuo sviluppo al fine di migliorarne le prestazioni; allo stato attuale esse non devono essere considerate una soluzione ottimale autonoma ma uno strumento per impostare e semplificare l’intervento da parte dello specialista in fotointerpretazione.
Resumo:
Per garantire la sicurezza di tutte le operazioni in volo (avvicinamento, decollo, holding, ecc..) il decreto legge del 15 marzo del 2006 n. 151 ha imposto la redazione di opportune cartografie basate sul Regolamento ENAC per la Costruzione e l’Esercizio degli Aeroporti e sulla normativa internazionale ICAO così da poterle annettere agli Strumenti Urbanistici del territorio e governare lo sviluppo delle costruzioni. La sicurezza delle operazioni in volo è garantita attraverso delle Superfici di Delimitazione Ostacoli che impongono dei vincoli plano-altimetrici nelle aree limitrofe agli Aeroporti, quindi costruzioni, alberi e lo stesso terreno non devono forare queste superfici altrimenti diventerebbero “Ostacoli” alla navigazione aerea. Per gli ostacoli già presenti sono definiti dei provvedimenti da adottarsi in funzione della superficie che questi forano: potranno essere abbattuti se ricadenti in aree critiche come in prossimità delle piste oppure essere segnalati in mappe in uso ai piloti e anche con segnali visivi posizionati sugli stessi. Per quanto riguarda le future costruzioni, queste non potranno mai diventare Ostacolo in quanto sarà obbligatorio rispettare i vincoli plano-altimetrici. La tesi di laurea in questione vuole illustrare come si è arrivati alla redazione delle sopraccitate mappe nel caso specifico dell'Aeroporto Guglielmo Marconi di Bologna; sono analizzate nel primo capitolo le caratteristiche fisiche degli Aeroporti per acquisire una certa padronanza su termini tecnici che compaiono nei capitoli successivi (è inoltre presente un glossario). Nel secondo capitolo è individuato il percorso normativo che ha portato alla redazione dell’ultima revisione al Codice della Navigazione. Il capitolo 3 introduce le superfici di delimitazione ostacoli secondo quanto esposto nel Regolamento per la Costruzione e l’Esercizio degli Aeroporti di ENAC; il capitolo 4 è dedicato al lay-out dell’Aeroporto Guglielmo Marconi di Bologna. Infine la tesi si conclude con il capitoli 5 nel quale sono esposte le fasi e le metodologie usate per la realizzazione delle planimetrie e con il capitolo 6 in cui si discute delle problematiche sorte a causa dell’orografia del territorio che deve tenersi nella giusta considerazione per la definizione dei suddetti vincoli aeronautici.
Resumo:
Con questo studio si è volto effettuare un confronto tra la generazione di energia termica a partire da cippato e da pellet, con particolare riferimento agli aspetti di carattere ambientale ed economico conseguenti la produzione delle due differenti tipologie di combustibile. In particolare, si sono ipotizzate due filire, una di produzione del cippato, una del pellet, e per ciascuna di esse si è condotta un'Analisi del Ciclo di Vita, allo scopo di mettere in luce, da un lato le fasi del processo maggiormente critiche, dall'altro gli impatti sulla salute umana, sugli ecosistemi, sul consumo di energia e risorse. Quest'analisi si è tradotta in un confronto degli impatti generati dalle due filiere al fine di valutare a quale delle due corrisponda il minore. E' stato infine effettuato un breve accenno di valutazione economica per stimare quale tipologia di impianto, a cippato o a pellet, a parità di energia prodotta, risulti più conveniente.
Resumo:
La presente tesi riguarda lo studio di procedimenti di ottimizzazione di sistemi smorzati. In particolare, i sistemi studiati sono strutture shear-type soggette ad azioni di tipo sismico impresse alla base. Per effettuare l’ottimizzazione dei sistemi in oggetto si agisce sulle rigidezze di piano e sui coefficienti di smorzamento effettuando una ridistribuzione delle quantità suddette nei piani della struttura. È interessante effettuare l’ottimizzazione di sistemi smorzati nell’ottica della progettazione antisismica, in modo da ridurre la deformata della struttura e, conseguentemente, anche le sollecitazioni che agiscono su di essa. Il lavoro consta di sei capitoli nei quali vengono affrontate tre procedure numerico-analitiche per effettuare l’ottimizzazione di sistemi shear-type. Nel primo capitolo si studia l’ottimizzazione di sistemi shear-type agendo su funzioni di trasferimento opportunamente vincolate. In particolare, le variabili di progetto sono le rigidezze di piano, mentre i coefficienti di smorzamento e le masse di piano risultano quantità note e costanti durante tutto il procedimento di calcolo iterativo; per effettuare il controllo dinamico della struttura si cerca di ottenere una deformata pressoché rettilinea. Tale condizione viene raggiunta ponendo le ampiezze delle funzioni di trasferimento degli spostamenti di interpiano pari all’ampiezza della funzione di trasferimento del primo piano. Al termine della procedura si ottiene una ridistribuzione della rigidezza complessiva nei vari piani della struttura. In particolare, si evince un aumento della rigidezza nei piani più bassi che risultano essere quelli più sollecitati da una azione impressa alla base e, conseguentemente, si assiste ad una progressiva riduzione della variabile di progetto nei piani più alti. L’applicazione numerica di tale procedura viene effettuata nel secondo capitolo mediante l’ausilio di un programma di calcolo in linguaggio Matlab. In particolare, si effettua lo studio di sistemi a tre e a cinque gradi di libertà. La seconda procedura numerico-analitica viene presentata nel terzo capitolo. Essa riguarda l’ottimizzazione di sistemi smorzati agendo simultaneamente sulla rigidezza e sullo smorzamento e consta di due fasi. La prima fase ricerca il progetto ottimale della struttura per uno specifico valore della rigidezza complessiva e dello smorzamento totale, mentre la seconda fase esamina una serie di progetti ottimali in funzione di diversi valori della rigidezza e dello smorzamento totale. Nella prima fase, per ottenere il controllo dinamico della struttura, viene minimizzata la somma degli scarti quadratici medi degli spostamenti di interpiano. Le variabili di progetto, aggiornate dopo ogni iterazione, sono le rigidezze di piano ed i coefficienti di smorzamento. Si pone, inoltre, un vincolo sulla quantità totale di rigidezza e di smorzamento, e i valori delle rigidezze e dei coefficienti di smorzamento di ogni piano non devono superare un limite superiore posto all’inizio della procedura. Anche in questo caso viene effettuata una ridistribuzione delle rigidezze e dei coefficienti di smorzamento nei vari piani della struttura fino ad ottenere la minimizzazione della funzione obiettivo. La prima fase riduce la deformata della struttura minimizzando la somma degli scarti quadrarici medi degli spostamenti di interpiano, ma comporta un aumento dello scarto quadratico medio dell’accelerazione assoluta dell’ultimo piano. Per mantenere quest’ultima quantità entro limiti accettabili, si passa alla seconda fase in cui si effettua una riduzione dell’accelerazione attraverso l’aumento della quantità totale di smorzamento. La procedura di ottimizzazione di sistemi smorzati agendo simultaneamente sulla rigidezza e sullo smorzamento viene applicata numericamente, mediante l’utilizzo di un programma di calcolo in linguaggio Matlab, nel capitolo quattro. La procedura viene applicata a sistemi a due e a cinque gradi di libertà. L’ultima parte della tesi ha come oggetto la generalizzazione della procedura che viene applicata per un sistema dotato di isolatori alla base. Tale parte della tesi è riportata nel quinto capitolo. Per isolamento sismico di un edificio (sistema di controllo passivo) si intende l’inserimento tra la struttura e le sue fondazioni di opportuni dispositivi molto flessibili orizzontalmente, anche se rigidi in direzione verticale. Tali dispositivi consentono di ridurre la trasmissione del moto del suolo alla struttura in elevazione disaccoppiando il moto della sovrastruttura da quello del terreno. L’inserimento degli isolatori consente di ottenere un aumento del periodo proprio di vibrare della struttura per allontanarlo dalla zona dello spettro di risposta con maggiori accelerazioni. La principale peculiarità dell’isolamento alla base è la possibilità di eliminare completamente, o quantomeno ridurre sensibilmente, i danni a tutte le parti strutturali e non strutturali degli edifici. Quest’ultimo aspetto è importantissimo per gli edifici che devono rimanere operativi dopo un violento terremoto, quali ospedali e i centri operativi per la gestione delle emergenze. Nelle strutture isolate si osserva una sostanziale riduzione degli spostamenti di interpiano e delle accelerazioni relative. La procedura di ottimizzazione viene modificata considerando l’introduzione di isolatori alla base di tipo LRB. Essi sono costituiti da strati in elastomero (aventi la funzione di dissipare, disaccoppiare il moto e mantenere spostamenti accettabili) alternati a lamine in acciaio (aventi la funzione di mantenere una buona resistenza allo schiacciamento) che ne rendono trascurabile la deformabilità in direzione verticale. Gli strati in elastomero manifestano una bassa rigidezza nei confronti degli spostamenti orizzontali. La procedura di ottimizzazione viene applicata ad un telaio shear-type ad N gradi di libertà con smorzatori viscosi aggiunti. Con l’introduzione dell’isolatore alla base si passa da un sistema ad N gradi di libertà ad un sistema a N+1 gradi di libertà, in quanto l’isolatore viene modellato alla stregua di un piano della struttura considerando una rigidezza e uno smorzamento equivalente dell’isolatore. Nel caso di sistema sheat-type isolato alla base, poiché l’isolatore agisce sia sugli spostamenti di interpiano, sia sulle accelerazioni trasmesse alla struttura, si considera una nuova funzione obiettivo che minimizza la somma incrementata degli scarti quadratici medi degli spostamenti di interpiano e delle accelerazioni. Le quantità di progetto sono i coefficienti di smorzamento e le rigidezze di piano della sovrastruttura. Al termine della procedura si otterrà una nuova ridistribuzione delle variabili di progetto nei piani della struttura. In tal caso, però, la sovrastruttura risulterà molto meno sollecitata in quanto tutte le deformazioni vengono assorbite dal sistema di isolamento. Infine, viene effettuato un controllo sull’entità dello spostamento alla base dell’isolatore perché potrebbe raggiungere valori troppo elevati. Infatti, la normativa indica come valore limite dello spostamento alla base 25cm; valori più elevati dello spostamento creano dei problemi soprattutto per la realizzazione di adeguati giunti sismici. La procedura di ottimizzazione di sistemi isolati alla base viene applicata numericamente mediante l’utilizzo di un programma di calcolo in linguaggio Matlab nel sesto capitolo. La procedura viene applicata a sistemi a tre e a cinque gradi di libertà. Inoltre si effettua il controllo degli spostamenti alla base sollecitando la struttura con il sisma di El Centro e il sisma di Northridge. I risultati hanno mostrato che la procedura di calcolo è efficace e inoltre gli spostamenti alla base sono contenuti entro il limite posto dalla normativa. Giova rilevare che il sistema di isolamento riduce sensibilmente le grandezze che interessano la sovrastruttura, la quale si comporta come un corpo rigido al di sopra dell’isolatore. In futuro si potrà studiare il comportamento di strutture isolate considerando diverse tipologie di isolatori alla base e non solo dispositivi elastomerici. Si potrà, inoltre, modellare l’isolatore alla base con un modello isteretico bilineare ed effettuare un confronto con i risultati già ottenuti per il modello lineare.
Resumo:
Il traffico veicolare è la principale fonte antropogenica di NOx, idrocarburi (HC) e CO e, dato che la sostituzione dei motori a combustione interna con sistemi alternativi appare ancora lontana nel tempo, lo sviluppo di sistemi in grado di limitare al massimo le emissioni di questi mezzi di trasporto riveste un’importanza fondamentale. Sfortunatamente non esiste un rapporto ottimale aria/combustibile che permetta di avere basse emissioni, mentre la massima potenza ottenibile dal motore corrisponde alle condizioni di elevata formazione di CO e HC. Gli attuali sistemi di abbattimento permettono il controllo delle emissioni da sorgenti mobili tramite una centralina che collega il sistema di iniezione del motore e la concentrazione di ossigeno del sistema catalitico (posto nella marmitta) in modo da controllare il rapporto aria/combustibile (Fig. 1). Le marmitte catalitiche per motori a benzina utilizzano catalizzatori “three way” a base di Pt/Rh supportati su ossidi (allumina, zirconia e ceria), che, dovendo operare con un rapporto quasi stechiometrico combustibile/comburente, comportano una minore efficienza del motore e consumi maggiori del 20-30% rispetto alla combustione in eccesso di ossigeno. Inoltre, questa tecnologia non può essere utilizzata nei motori diesel, che lavorano in eccesso di ossigeno ed utilizzano carburanti con un tenore di zolfo relativamente elevato. In questi ultimi anni è cresciuto l’interesse per il controllo delle emissioni di NOx da fonti veicolari, con particolare attenzione alla riduzione catalitica in presenza di un eccesso di ossigeno, cioè in condizioni di combustione magra. Uno sviluppo recente è rappresentato dai catalizzatori tipo “Toyota” che sono basati sul concetto di accumulo e riduzione (storage/reduction), nei quali l’NO viene ossidato ed accumulato sul catalizzatore come nitrato in condizioni di eccesso di ossigeno. Modificando poi per brevi periodi di tempo le condizioni di alimentazione da ossidanti (aria/combustibile > 14,7 p/p) a riducenti (aria/combustibile < 14,7 p/p) il nitrato immagazzinato viene ridotto a N2 e H2O. Questi catalizzatori sono però molto sensibili alla presenza di zolfo e non possono essere utilizzati con i carburanti diesel attualmente in commercio. Obiettivo di questo lavoro di tesi è stato quello di ottimizzare e migliorare la comprensione del meccanismo di reazione dei catalizzatori “storage-reduction” per l’abbattimento degli NOx nelle emissioni di autoveicoli in presenza di un eccesso di ossigeno. In particolare lo studio è stato focalizzato dapprima sulle proprietà del Pt, fase attiva nei processi di storage-reduction, in funzione del tipo di precursore e sulle proprietà e composizione della fase di accumulo (Ba, Mg ed una loro miscela equimolare) e del supporto (γ-Al2O3 o Mg(Al)O). Lo studio è stato inizialmente focalizzato sulle proprietà dei precursori del Pt, fase attiva nei processi di storage-reduction, sulla composizione della fase di accumulo (Ba, Mg ed una loro miscela equimolare) e del supporto (γ-Al2O3 o Mg(Al)O). E’ stata effettuata una dettagliata caratterizzazione chimico-fisica dei materiali preparati tramite analisi a raggi X (XRD), area superficiale, porosimetria, analisi di dispersione metallica, analisi in riduzione e/o ossidazione in programmata di temperatura (TPR-O), che ha permesso una migliore comprensione delle proprietà dei catalizzatori. Vista la complessità delle miscele gassose reali, sono state utilizzate, nelle prove catalitiche di laboratorio, alcune miscele più semplici, che tuttavia potessero rappresentare in maniera significativa le condizioni reali di esercizio. Il comportamento dei catalizzatori è stato studiato utilizzando differenti miscele sintetiche, con composizioni che permettessero di comprendere meglio il meccanismo. L’intervallo di temperatura in cui si è operato è compreso tra 200-450°C. Al fine di migliorare i catalizzatori, per aumentarne la resistenza alla disattivazione da zolfo, sono state effettuate prove alimentando in continuo SO2 per verificare la resistenza alla disattivazione in funzione della composizione del catalizzatore. I principali risultati conseguiti possono essere così riassunti: A. Caratteristiche Fisiche. Dall’analisi XRD si osserva che l’impregnazione con Pt(NH3)2(NO2)2 o con la sospensione nanoparticellare in DEG, non modifica le proprietà chimico-fisiche del supporto, con l’eccezione del campione con sospensione nanoparticellare impregnata su ossido misto per il quale si è osservata sia la segregazione del Pt, sia la presenza di composti carboniosi sulla superficie. Viceversa l’impregnazione con Ba porta ad una significativa diminuzione dell’area superficiale e della porosità. B. Caratteristiche Chimiche. L’analisi di dispersione metallica, tramite il chemiassorbimento di H2, mostra per i catalizzatori impregnati con Pt nanoparticellare, una bassa dispersione metallica e di conseguenza elevate dimensioni delle particelle di Pt. I campioni impregnati con Pt(NH3)2(NO2)2 presentano una migliore dispersione. Infine dalle analisi TPR-O si è osservato che: Maggiore è la dispersione del metallo nobile maggiore è la sua interazione con il supporto, L’aumento della temperatura di riduzione del PtOx è proporzionale alla quantità dei metalli alcalino terrosi, C. Precursore Metallo Nobile. Nelle prove di attività catalitica, con cicli ossidanti e riducenti continui in presenza ed in assenza di CO2, i catalizzatori con Pt nanoparticellare mostrano una minore attività catalitica, specie in presenza di un competitore come la CO2. Al contrario i catalizzatori ottenuti per impregnazione con la soluzione acquosa di Pt(NH3)2(NO2)2 presentano un’ottima attività catalitica, stabile nel tempo, e sono meno influenzabili dalla presenza di CO2. D. Resistenza all’avvelenamento da SO2. Il catalizzatore di riferimento, 17Ba1Pt/γAl2O3, mostra un effetto di avvelenamento con formazione di solfati più stabili che sul sistema Ba-Mg; difatti il campione non recupera i valori iniziali di attività se non dopo molti cicli di rigenerazione e temperature superiori ai 300°C. Per questi catalizzatori l’avvelenamento da SO2 sembra essere di tipo reversibile, anche se a temperature e condizioni più favorevoli per il 1.5Mg8.5Ba-1Pt/γAl2O3. E. Capacità di Accumulo e Rigenerabilità. Tramite questo tipo di prova è stato possibile ipotizzare e verificare il meccanismo della riduzione. I catalizzatori ottenuti per impregnazione con la soluzione acquosa di Pt(NH3)2(NO2)2 hanno mostrato un’elevata capacità di accumulo. Questa è maggiore per il campione bimetallico (Ba-Mg) a T < 300°C, mentre per il riferimento è maggiore per T > 300°C. Per ambedue i catalizzatori è evidente la formazione di ammoniaca, che potrebbe essere utilizzata come un indice che la riduzione dei nitrati accumulati è arrivata al termine e che il tempo ottimale per la riduzione è stato raggiunto o superato. Per evitare la formazione di NH3, sul catalizzatore di riferimento, è stata variata la concentrazione del riducente e la temperatura in modo da permettere alle specie adsorbite sulla superficie e nel bulk di poter raggiungere il Pt prima che l’ambiente diventi troppo riducente e quindi meno selettivo. La presenza di CO2 riduce fortemente la formazione di NH3; probabilmente perché la CO2, occupando i siti degli elementi alcalino-terrosi lontani dal Pt, impedisce ai nitriti/nitrati o all’H2 attivato di percorrere “elevate” distanze prima di reagire, aumentando così le possibilità di una riduzione più breve e più selettiva. F. Tempo di Riduzione. Si è migliorata la comprensione del ruolo svolto dalla concentrazione dell’agente riducente e dell’effetto della durata della fase riducente. Una durata troppo breve porta, nel lungo periodo, alla saturazione dei siti attivi, un eccesso alla formazione di NH3 Attraverso queste ultime prove è stato possibile formulare un meccanismo di reazione, in particolare della fase riducente. G. Meccanismo di Riduzione. La mobilità dei reagenti, nitriti/nitrati o H2 attivato è un elemento fondamentale nel meccanismo della riduzione. La vicinanza tra i siti di accumulo e quelli redox è determinante per il tipo di prodotti che si possono ottenere. La diminuzione della concentrazione del riducente o l’aumento della temperatura concede maggiore tempo o energia alle specie adsorbite sulla superficie o nel bulk per migrare e reagire prima che l’ambiente diventi troppo riducente e quindi meno selettivo.
Resumo:
La famiglia rappresenta un micro sistema all’interno del macro sistema società, che vive, si riproduce, rimane in equilibrio o cade in situazioni di squilibrio, implode e si rigenera, attraverso gli infiniti feedback comunicativi con l’ambiente esterno. I suoi componenti sono i medium di tale processo interattivo. Quindi: tutti gli eventi all’interno del nucleo familiare, compreso il conflitto, non possono considerarsi slegati dalla società circostante. La famiglia possiede una dimensione politica che si esplicita nella distribuzione di potere fra i suoi componenti. Tale distribuzione può assumere sia forme democratiche, che dispotiche. A forme di distribuzione del potere non democratiche si associano livelli elevati di conflitto. Quest’ultimo, tuttavia, è una dimensione inevitabile delle associazioni umane. Ciò che distingue le relazioni – familiari e non – non è tanto la presenza o assenza del conflitto, quanto piuttosto la modalità di espressione e di gestione di tale conflittualità. In tal senso, infatti, l’antagonismo relazionale si può tradurre in aggressione e violenza, prevaricazione, lesione della integrità e della libertà, oppure divenire occasione di crescita, di confronto, di mediazione e di negoziazione. La ricerca svolta all’interno del Dottorato in Criminologia dell’ Università di Bologna è finalizzata, attraverso un’integrazione teorica, ad individuare le variabili intervenienti nel contesto e nell’esperienza dei conflitti violenti in ambito di coppia, per accertare il loro eventuale ruolo predittivo del fenomeno. In particolare, s’indagano le modalità attraverso le quali la condizione socio-strutturale dei partner di coppia e la costruzione sociale dei ruoli di genere - con la relativa attribuzione di potere – e le condizioni lavorative, interagiscono nell’ espressione violenta della conflittualità. Il collettivo di riferimento - individuato grazie alla collaborazione di associazioni del privato sociale e di istituzioni pubbliche presenti e operanti nel territorio della Provincia di Trento eroganti prestazioni eterogenee alle famiglie - è composto da coppie sposate/conviventi alle quali è stato somministrato un questionario strutturato.
Resumo:
Oggetto di questa tesi è lo studio della qualità del servizio di trasporto erogato che condiziona la qualità percepita dall’utente, poiché spesso proprio a causa di un errato processo di pianificazione e gestione della rete, molte aziende non sono in grado di consolidare un alto livello di efficienza che permetta loro di attrarre e servire la crescente domanda. Per questo motivo, si è deciso di indagare sugli aspetti che determinano la qualità erogata e sui fattori che la influenzano, anche attraverso la definizione di alcuni indicatori rappresentativi del servizio erogato. L’area di studio considerata è stata quella urbana di Bologna, e sono state prese in esame due linee di ATC, la 19 e la 27, caratterizzate entrambe da una domanda di trasporto molto elevata. L’interesse è ricaduto in modo particolare sugli aspetti legati alla regolarità del servizio, ovvero al rispetto della cadenza programmata delle corse e alla puntualità, ossia il rispetto dell’orario programmato delle stesse. Proprio da questi due aspetti, infatti, dipende in larga misura la percezione della qualità che gli utenti hanno del servizio di trasporto collettivo. Lo studio è stato condotto sulla base di dati raccolti attraverso due campagne di rilevamento, una effettuata nel mese di maggio dell’anno 2008 e l’altra nel mese di settembre dello stesso anno. La scelta del periodo, della zona e delle modalità di rilevamento è strettamente connessa all’obiettivo prefissato. Il servizio è influenzato dalle caratteristiche del sistema di trasporto: sia da quelle legate alla domanda che da quelle legate all’offerta. Nel caso della domanda di trasporto si considera l’influenza sul servizio del numero di passeggeri saliti e del tempo di sosta alle fermate. Nel caso dell’offerta di trasporto si osservano soprattutto gli aspetti legati alla rete di trasporto su cui si muovono gli autobus, analizzando quindi i tempi di movimento e le velocità dei mezzi, per vedere come le caratteristiche dell’infrastruttura possano condizionare il servizio. A tale proposito è opportuno dire che, mentre i dati della prima analisi ci sono utili per lo studio dell’influenza del tempo di sosta sull’intertempo, nella seconda analisi si vuole cercare di effettuare ulteriori osservazioni sull’influenza del tempo di movimento sulla cadenza, prendendo in esame altri elementi, come ad esempio tratti di linea differenti rispetto al caso precedente. Un’attenzione particolare, inoltre, verrà riservata alla verifica del rispetto della cadenza, dalla quale scaturisce la definizione del livello di servizio per ciò che riguarda la regolarità. Per quest’ultima verrà, inoltre, determinato anche il LOS relativo alla puntualità. Collegato al problema del rispetto della cadenza è il fenomeno dell’accodamento: questo si verifica quando i mezzi di una stessa linea arrivano contemporaneamente ad una fermata uno dietro l’altro. L’accodamento ha, infatti, origine dal mancato rispetto della cadenza programmata tra i mezzi ed è un’evidente manifestazione del mal funzionamento di un servizio di trasporto. Verrà infine condotta un’analisi dei fattori che possono influenzare le prestazioni del servizio di trasporto pubblico, così da collocare i dati ottenuti dalle operazioni di rilevamento in un quadro più preciso, capace di sottolineare alcuni elementi di criticità e possibili rapporti di causalità.