58 resultados para Capacità teorica, Capacità pratica, Blocco fisso, Blocco mobile, Qualità della circolazione, Velocità
Resumo:
La tesi consiste nella progettazione di un blocco urbano nella Friedrichstadt nella città di Berlino. Il progetto cerca una soluzione al i problemi strutturali della città causati dagli interventi realizzati durante la DDR. Si cerca di instaurare un dialogo tra il complesso socialista e la struttura della città storica.
Resumo:
In questa tesi di laurea si affronta l’analisi di diversi modelli per il calcolo della capacità di un’intersezione a rotatoria: alcuni di questi sono di tipo empirico, altri invece sono di tipo teorico (teoria del gap acceptance). Innanzitutto si descrivono le caratteristiche di tutti i modelli studiati e si esaminano i risultati ottenuti nel calcolo della capacità al variare del flusso circolante, effettuato su un campione di venti rotatorie. In particolare si cerca di confrontare tra loro i vari modelli e di interpretare il significato dei parametri che compaiono nelle diverse formule. Successivamente si amplia l’analisi, utilizzando i dati raccolti come punto di partenza per una serie di altre elaborazioni ed interpolazioni. Alla base di questa seconda parte dello studio c’è l’idea di provare a vedere se sia possibile ricavare un nuovo modello, derivante da quelli studiati, che possa riassumerli in maniera semplice e aiutare a chiarire quali sono i parametri più importanti dai quali dipende il valore di capacità di una rotatoria. Questo nuovo modello dovrebbe eventualmente servire più che altro per interpretare i modelli studiati e per capire se uno di questi si comporti meglio degli altri in situazioni particolari oppure se sia più adatto in determinate condizioni di traffico piuttosto che in altre. Uno degli obiettivi principali di questo studio è infatti quello di provare a capire se la capacità di una rotatoria è influenzata maggiormente da aspetti geometrici, legati quindi alla forma e alle dimensioni della rotatoria stessa, oppure se un ruolo predominante è svolto da fattori comportamentali, legati quindi all’interazione tra i veicoli e ai processi di scelta degli utenti, che devono decidere se immettersi o meno nella rotatoria.
Resumo:
The aim of the present thesis, carried out at the Analytical Group of the Faculty of Industrial Chemistry in Bologna, is to develop a new electrochemical method for the determination of the Antioxidant Capacity (AOC). The approach is based on the deposition of a non-conducting polymeric film on the working electrode surface and the following exposition to the radicals OH· produced by H2O2 photolysis. The strongly oxidant action of hydroxyl radicals degrades, causing an increase of the Faradic current, relevant to the redox couple [Ru(NH3)6]2+/3+ monitored by cyclic voltammetry(CV); the presence of an antioxidant compound in solution slows down the radical action, thus protecting the polymeric film and blocking the charge transfer. The parameter adopted for the quantification of the AOC, was the induction time, called also lag phase, which is the time when the degradation of the film starts. Five pure compounds, among most commonly antioxidant, were investigated : Trolox®(an analogue water-soluble of vitamin E), (L)-ascorbic acid, gallic acid, pyrogallol and (-)- epicatechin. The AOC of each antioxidant was expressed by TEAC index (Trolox® Equivalent Antioxidant Capacity), calculated from the ratio between the slope of the calibration curve of the target compound and the slope of the calibration curve of Trolox®. The results from the electrochemical method, have been compared with those obtained from some other standardized methods, widely employed. The assays used for the comparison, have been: ORAC, a spectrofluorimetric method based on the decrease of fluorescein emission after the attack of alkylperoxide radicals, ABTS and DPPH that exploit the decoloration of stable nitrogen radicals when they are reduced in presence of an antioxidant compound and, finally, a potentiometric method based on the response of the redox couple [Fe(CN)6]3-/ [Fe(CN)6]4-. From the results obtained from pure compounds, it has been found that ORAC is the methodology showing the best correlation with the developed electrochemical method, maybe since similar radical species are involved. The comparison between the considered assays, was also extended to the analysis of a real sample of fruit juice. In such a case the TEAC value resulting from the electrochemical method is higher than those from standardized assays.
Resumo:
L'obiettivo del lavoro è quello di approfondire la conoscenza delle capacità di prestazione strutturale di elementi strutturali realizzate in blocco cassero soggette ad azioni di pressoflessione e taglio attraverso la creazione di un modello numerico che sia ben in grado di replicare i risultati ottenuti a livello sperimentale.
Resumo:
Lo scopo di questa tesi è quello di valutare l’utilizzo di tecnologie Web, per la creazione di applicazioni per dispositivi mobile, come alternativa allo sviluppo di applicazioni tramite linguaggi nativi. Tra i vari dispositivi mobile esistenti, quello che trova maggior interesse nello sviluppo della tesi è sicuramente lo smartphone, il più recente tra questi dispositivi, che rispetto agli altri dispositivi è caratterizzato da una maggior complessità dovuta a funzionalità e capacità più elevate. Quindi in questa tesi verrà analizzato l’aspetto legato alle applicazioni utilizzate da questo dispositivo mobile. Si è deciso di strutturare la tesi in diversi capitoli, che verranno illustrati qui in seguito, al fine di creare un percorso concettuale per arrivare ad analizzare l’argomento chiave della tesi, le applicazioni mobile basate su tecnologie Web, perciò nei primi due capitoli verrano trattati argomenti riguardanti il mondo dei dispositivi mobile, con particolare riguardo per lo smartphone, con lo scopo di dare una visione dell’ambiente che circonda questo argomento di tesi. Negli ultimi capitoli si entrerà nel cuore della tesi, dove verrà trattato l’argomento chiave nel dettaglio, con la specifica analisi di Tizen come caso di studio. Inoltre si è deciso di approfondire gli aspetti legati a questo argomento di tesi sviluppando un piccola applicazione, con lo scopo di andare a sperimentare le nozioni acquisite durante tutto questo percorso di studio.
Resumo:
La phytoremediation si colloca nel campo dei nuovi interventi di bonifica come una tecnica verde, sostenibile e a basso costo, che può sostituire le ordinarie tecniche ingegneristiche in condizioni di inquinamento da basso a moderato. Si basa sull'utilizzo di piante per contenere, rimuovere o degradare i contaminanti presenti in suolo, sedimenti e acque. In questo studio sono state valutate le capacità fitoestrattive della specie Dittrichia viscosa in suoli derivanti da attività mineraria. Il campionamento è stato realizzato in due siti minerari, il distretto minerario di Montevecchio (VS) e la miniera di Libiola (GE) ed in cinque siti non minerari utilizzati come riferimento e controllo. In ogni sito è stato campionato suolo rizosferico e campioni vegetali della specie D. viscosa. Lo studio si è focalizzato su cinque metalli pesanti molto diffusi e pericolosi: Cu, Ni, Pb, Zn e Cd. Per valutare a quale livello della pianta vengono accumulati, ogni campione vegetale è stato separato in tre porzioni, radici, fusto e foglie, che sono state analizzate separatamente; inoltre, sono state determinate le concentrazioni totali e biodisponibili dei cinque metalli nei suoli rizosferici campionati. Dallo studio è emerso che la specie D. viscosa tende ad accumulare i contaminanti indagati soprattutto a livello fogliare nonostante non sia sempre dimostrato nei campioni provenienti dal sito di Libiola. Grazie alle buone capacità che la pianta presenta nell'accumulare Ni e Zn nell'apparato radicale, e nel trasferire Zn, Pb e Cd nell'apparato fogliare, D. viscosa può essere considerata una buona candidata negli interventi di fitorimedio.
Resumo:
Questa tesi propone un progetto di riqualificazione funzionale ed energetica del Polo ospedaliero civile di Castel San Pietro Terme, un complesso di edilizia sanitaria attivo dal 1870, che la AUSL proprietaria ha ora programmato di riqualificare. Il complesso, costituito da diversi edifici realizzati in epoche successive con un volume lordo riscaldato di 41670 m3, occupa un’area di 18415 m2. Sottoposto nel corso del tempo a ripetute modifiche e ampliamenti,oggi si presenta come un insieme eterogeneo di volumi, disorganici nell’aspetto ed interessati da importanti criticità: • prestazioni energetiche largamente inadeguate; • insufficiente resistenza alle azioni sismiche; • inefficiente distribuzione interna degli ambienti e delle funzioni. Partendo da un’analisi che dal complesso ospedaliero si estende sull’intera area di Castel San Pietro Terme, è stato definito un progetto che tiene conto delle peculiarità e delle criticità del luogo. Il progetto propone la riqualificazione dell’area antistante l’ingresso storico dell’ospedale tramite il collegamento diretto al parco fluviale, oggi interrotto da viale Oriani e da un parcheggio. Sul complesso edificato viene invece progettato un insieme di interventi differenziati, che rispondono all’obiettivo primario di adattare il polo ospedaliero a nuove funzioni sanitarie. La riorganizzazione prevede: • L’eliminazione del reparto di chirurgia; • L’adeguamento delle degenze a funzioni di hospice e lungodegenza per malati terminali; • L’ampliamento del progetto Casa della Salute che prevede locali ambulatoriali. Il progetto ha assunto questo programma funzionale,puntando a mantenere e riqualificare quanto più possibile l’esistente. E’ stato quindi previsto di: • Demolire il corpo del blocco operatorio. • Ridefinire volumetricamente il corpo delle degenze • Prevedere la costruzione di nuovi volumi per ospitare i poliambulatori. Per assicurare un adeguato livello di prestazioni,l’intervento ha puntato a far conseguire all’intero complesso la classe energetica A e ad adeguare la capacità di risposta al sisma, in particolare del corpo delle degenze, che presenta le condizioni più critiche. Le simulazioni eseguite con il software Termolog Epix3 attestano un valore di fabbisogno energetico finale pari a 5,10 kWh/m3 anno, con una riduzione del 92,7% rispetto ai livelli di consumo attuali. E' stata posta particolare attenzione anche al comfortdegli ambienti di degenza, verificato tramite l’utilizzo del software di simulazione energetica in regime dinamico IESVE che ha permesso di monitorare gli effetti ottenuti in relazione ad ogni scelta progettuale. I nuovi padiglioni sono stati progettati per integrare in modo funzionale i locali ambulatoriali ed alcuni ambienti dedicati alle terapie complementari per i lungodegenti. La tecnologia a setti portanti Xlam è stata preferita per la velocità di realizzazione. La sovrastante copertura costituita da una membrana di ETFE sostenuta da travi curve in legno lamellare, oltre ad assicurare il comfort ambientale tramite lo sfruttamento di sistemi passivi, permette di limitare i requisiti dell’involucro dei volumi sottostanti.
Resumo:
La rituale ciclicità del cielo ed il mistero degli eventi che in esso accadono hanno portato tutte le popolazioni della Terra ad osservarlo e studiarlo fin dai tempi più remoti. È solo con l'avvento del telescopio però, che si viene a conoscenza di una gran moltitudine di oggetti celesti. I primi strumenti ottici in uso erano telescopi rifrattori. Questi presentavano un problema: l’aberrazione cromatica, che oggi sappiamo può essere parzialmente risolta utilizzando obiettivi a doppietto o tripletto acromatico. All’epoca per ovviare il problema, Newton, decise di utilizzare un sistema di specchi curvi e nel 1668 costruì il primo telescopio riflettore. L’era dei grandi telescopi riflettori iniziò nel 18° secolo. Uno dei più grandi telescopi costruiti all’epoca aveva una superficie ottica di circa 122 cm di diametro. Nel creare telescopi di dimensioni maggiori, ci si imbatte in vari problemi. La soluzione adottata nella costruzione di grandi telescopi fino agli anni '80, fu quella di costruire un imponente blocco monolitico come specchio primario. Questo portò alla costruzione di enormi e pesanti telescopi che si dovevano muovere con alta precisione. Spinti al limite delle capacità progettuali e costruttive dell'epoca, nacque un nuovo concetto costruttivo dei telescopi. Si passò da uno strumento passivo ad un sistema attivo, in cui la qualità dell'ottica era ottenuta da un controllo elettronico di strutture deformabili. Con l’ottica attiva fu possibile costruire telescopi di dimensioni sempre maggiori. Tuttavia ci si imbatte in un ulteriore problema: la qualità dell’immagine è degradata dalla turbolenza atmosferica. In questo trattato mi propongo di descrivere una recente tecnica di correzione per rimuovere le distorsioni del fronte d'onda causate dalla turbolenza: l’ottica adattiva.
Resumo:
In questa tesi è stato analizzato e tradotto nel linguaggio di alto livello AMPL un modello di ILP relativo alla pianificazione tattica del blocco operatorio. L'obiettivo è quello di permettere l'interfacciamento con numerosi solver -commerciali e non- al fine di analizzarne le prestazioni. In seguito a un'introduzione in merito al problema dell'Operating Room Management e a una descrizione del contesto sanitario regionale dell'Emilia-Romagna, si è proceduto alla descrizione formale del modello. Infine sono state eseguite numerose risoluzioni con i solver cplex e gurobi al variare di alcuni parametri in ingresso, tra cui il numero di sale operatorie, di infermieri e operatori sanitari, e di pazienti in lista d'attesa.
Resumo:
Questa tesi riguarda il problema della schedulazione degli interventi nel blocco operatorio di un presidio ospedaliero, noto anche come Operating Theatre Planning & Scheduling. Il blocco operatorio è la struttura che eroga servizi a più alto impatto sui costi di un presidio ospedaliero ed è legato ad attività ad alto rischio. E' quindi fondamentale gestire in modo ottimale questa risorsa. In questa tesi, si considera come caso studio l'applicazione reale di un presidio ospedaliero dell'Emilia Romagna con un orizzonte temporale di una settimana, ovvero la cosiddetta programmazione operativa. L'obiettivo è quello di ottenere un utilizzo efficiente del blocco operatorio, garantendo al contempo la priorità agli interventi più urgenti. Data la complessità del problema, vengono proposti algoritmi euristici che permettano di ottenere buone soluzioni in tempi di calcolo ridotti. Studi precedenti hanno infatti evidenziato la difficoltà di trovare soluzioni ottime al problema, mediante l'utilizzo di solver commerciali per modelli di Programmazione Lineare Intera, senza introdurre ipotesi semplificative. Sono stati elaborati tre algoritmi euristici costruttivi di tipo multi-start che permettono di generare soluzioni ammissibili con diverse caratteristiche. Gli algoritmi si differenziano principalmente per le modalità con cui collocano gli interventi nel tempo disponibile delle risorse (induction room, operating room, recovery room), cercando di migliorarne l’utilizzazione e dando priorità ai pazienti più urgenti. Gli algoritmi sono stati implementati utilizzando il linguaggio JAVA e sono stati testati su istanze realistiche fornite dal presidio ospedaliero. I risultati hanno evidenziato un alto grado di utilizzazione delle sale operatorie, un fattore molto rilevante per una ottimale gestione del blocco operatorio. E' stata, infine, svolta un'analisi di sensitività alla variabilità delle durate.
Resumo:
Il sistema di misurazione delle performance (PMS) ha ricevuto particolare attenzione dalla ricerca in ambito accademico e dalle aziende che ogni anno investono risorse nell’implementazione e nel miglioramento di questo strumento. I ruoli assegnati al PMS possono essere: misurazione della performance, implementazione della strategia, comunicazione, allineamento dei comportamenti, apprendimento e miglioramento. Queste differenti finalità sottolineano quanto sia strategica un’efficace implementazione di tale strumento. Negli ultimi anni le aziende si trovano a dover competere in ambienti sempre più turbolenti e mutevoli. La capacità di adattarsi al cambiamento è fondamentale, pertanto anche il PMS deve essere aggiornato per garantire un’implementazione di Key Performance Indicators (KPIs) che siano appropriati e rilevanti, considerando le nuove priorità aziendali e le condizioni al contorno. Questa tesi ha come obiettivo quello di analizzare la revisione del PMS, in quanto un inappropriato set di KPIs implementati possono causare un indebolimento del potenziale di tale strumento ed ancor peggio un fallimento degli investimenti riguardanti tale strumento. L’approccio metodologico di questa tesi è un multiple case-study. Per avere una visione più ampia di come viene sviluppata la revisione del PMS nella pratica si è deciso di inserire nel campione aziende di grandi dimensioni operanti in differenti settori industriali. Le informazioni raccolte attraverso le interviste, hanno permesso di fornire un contributo non presente in letteratura: una categorizzazione delle revisioni svolte dalle aziende e riflessioni su di esse. La limitazione di questo studio è legata ad un basso numero interviste svolte.
Resumo:
L'informatica musicale è una disciplina in continua crescita che sta ottenendo risultati davvero interessanti con l'impiego di sistemi artificiali intelligenti, come le reti neuronali, che permettono di emulare capacità umane di ascolto e di esecuzione musicale. Di particolare interesse è l'ambito della codifica di informazioni musicali tramite formati simbolici, come il MIDI, che permette un'analisi di alto livello dei brani musicali e consente la realizzazione di applicazioni sorprendentemente innovative. Una delle più fruttifere applicazioni di questi nuovi strumenti di codifica riguarda la classificazione di file audio musicali. Questo elaborato si propone di esporre i fondamentali aspetti teorici che concernono la classificazione di brani musicali tramite reti neuronali artificiali e descrivere alcuni esperimenti di classificazione di file MIDI. La prima parte fornisce alcune conoscenze di base che permettono di leggere gli esperimenti presenti nella seconda sezione con una consapevolezza teorica più profonda. Il fine principale della prima parte è quello di sviluppare una comparazione da diversi punti di vista disciplinari tra le capacità di classificazione musicale umane e quelle artificiali. Si descrivono le reti neuronali artificiali come sistemi intelligenti ispirati alla struttura delle reti neurali biologiche, soffermandosi in particolare sulla rete Feedforward e sull'algoritmo di Backpropagation. Si esplora il concetto di percezione nell'ambito della psicologia cognitiva con maggiore attenzione alla percezione uditiva. Accennate le basi della psicoacustica, si passa ad una descrizione delle componenti strutturali prima del suono e poi della musica: la frequenza e l'ampiezza delle onde, le note e il timbro, l'armonia, la melodia ed il ritmo. Si parla anche delle illusioni sonore e della rielaborazione delle informazioni audio da parte del cervello umano. Si descrive poi l'ambito che interessa questa tesi da vicino: il MIR (Music Information Retrieval). Si analizzano i campi disciplinari a cui questa ricerca può portare vantaggi, ossia quelli commerciali, in cui i database musicali svolgono ruoli importanti, e quelli più speculativi ed accademici che studiano i comportamenti di sistemi intelligenti artificiali e biologici. Si descrivono i diversi metodi di classificazione musicale catalogabili in base al tipo di formato dei file audio in questione e al tipo di feature che si vogliono estrarre dai file stessi. Conclude la prima sezione di stampo teorico un capitolo dedicato al MIDI che racconta la storia del protocollo e ne descrive le istruzioni fondamentali nonchè la struttura dei midifile. La seconda parte ha come obbiettivo quello di descrivere gli esperimenti svolti che classificano file MIDI tramite reti neuronali mostrando nel dettaglio i risultati ottenuti e le difficoltà incontrate. Si coniuga una presentazione dei programmi utilizzati e degli eseguibili di interfaccia implementati con una descrizione generale della procedura degli esperimenti. L'obbiettivo comune di tutte le prove è l'addestramento di una rete neurale in modo che raggiunga il più alto livello possibile di apprendimento circa il riconoscimento di uno dei due compositori dei brani che le sono stati forniti come esempi.
Resumo:
Il progetto descritto in questo documento consiste fondamentalmente nell'integrazione di applicazioni context-aware su dispositivi mobili con reti di sensori e nello studio delle problematiche derivanti, vantaggi e potenziali utilizzi. La rete è stata costruita sfruttando l'insieme di protocolli per comunicazioni via radio Zigbee, particolarmente adatti per interazione tra dispositivi a basso consumo energetico e che necessitano di uno scarso tasso di trasferimento di dati. Le informazioni ottenute da sensori di varia natura sono processate da microcontrollori Arduino, scelti per la loro versatilità di utilizzo e design open source. Uno o più dispositivi sono designati per aggregare i dati rilevati dai singoli nodi in un unico pacchetto di informazioni, semanticamente correlate tra loro, quindi emetterle in broadcast su una diversa interfaccia di rete, in modo che diverse applicazioni esterne in ascolto possano riceverle e manipolarle. Viene utilizzato un protocollo specifico per la comunicazione tra i microcontrollori e le applicazioni che si interfacciano con la rete, costruito su misura per dispositivi con risorse limitate. L'applicazione context-aware che interagisce con la rete è stata sviluppata su piattaforma Android, la cui particolare flessibilità favorisce una migliore capacità di gestire i dati ottenuti. Questa applicazione è in grado di comunicare con la rete, manipolare i dati ricevuti ed eventualmente intraprendere azioni specifiche in totale indipendenza dal suo utilizzatore. Obiettivo del progetto è quello di costruire un meccanismo di interazione tra le tecnologie più adattivo e funzionale possibile.