571 resultados para propoli,attività antimicrobica,acidi grassi,attività antiossidante,oli essenziali
Resumo:
L’obiettivo principale del progetto è di fare assumere al Museo Nazionale di Ravenna un ruolo attivo nella narrazione della storia della città. Questo era l’intento dei suoi fondatori, ma la vocazione iniziale si è indebolita nel tempo con l’aggiunta di collezioni piuttosto eterogenee, che oggi assumono un’importanza quasi paritaria a quella dei numerosi pezzi provenienti da edifici ravennati, in gran parte bizantini. Il Museo è ospitato nell’ex Monastero benedettino di San Vitale, che, oltre al Museo, accoglie la sede della Soprintendenza, l’Archivio di stato e vari laboratori. Il primo passo è dunque una nuova suddivisione di queste attività e una riprogettazione degli spazi aperti che circondano l’edificio, mirando, inoltre, ad una migliore lettura della stratificazione del complesso. Cuore del progetto sono la realizzazione di alcuni nuovi volumi (quali la hall, le addizioni per il lapidario e una sala per le mostre temporanee), l’aggiunta e la risistemazione dei servizi (accoglienza dei visitatori, archivi, laboratori), la revisione del percorso museale ed, infine, un sistema allestitivo modulare che possa adattarsi alle diverse necessità di un museo di queste dimensioni.
Resumo:
La Tesi affronta il tema della rigenerazione di un comparto urbano localizzato a ridosso del centro storico di Forlì. Coerentemente con le indicazioni dell’Amministrazione comunale, obiettivo dell’intervento è l’adeguamento degli edifici esistenti agli standard funzionali ed energetici e la rivitalizzazione dell’isolato, tramite nuove edificazioni e il riordino della viabilità, del verde e degli spazi pubblici. Della preesistenza più rilevante presente nel comparto, un edificio residenziale realizzato tra le due guerre è stata progettata la riqualificazione, preferendola alla ricostruzione per il valore testimoniale del manufatto e il più favorevole bilancio ambientale. Gli interventi di miglioramento si sono posti il limite di non snaturare i caratteri formali e la fisionomia strutturale dell’edificio, ma di aumentarne i livelli di comfort e l’efficienza energetica, puntando a rientrare in classe “A” secondo la classificazione dell’Emilia Romagna. A scala urbana il progetto propone la riqualificazione dell’intero isolato con l’obiettivo di rivitalizzarlo e di rivalutare la sua presenza all’interno del centro storico. Nonostante la sua favorevole collocazione, l’isolato vive una situazione di marginalizzazione, a causa dello scarso mix funzionale delle attività che ospita, della presenza di edifici incongrui e parzialmente abbandonati e della scarsa permeabilità verso l’esterno, che lo fanno percepire come una zona non sicura e ne abbattono i valori immobiliari. Per raggiungere l’obiettivo, il progetto è intervenuto sull’assetto della viabilità, dei parcheggi, degli spazi pubblici e del verde, puntando alla ricucitura del tessuto urbano con le preesistenze. Queste azioni hanno implicato la demolizione di manufatti di scarso pregio e la progettazione di nuovi edifici, condotta con particolare attenzione alla sostenibilità ambientale. Il progetto approfondisce la riqualificazione di un edificio esistente e la definizione di un nuovo intervento residenziale, ma investe anche il contesto urbano, considerando contemporaneamente i diversi aspetti ambientali, sociali e architettonici in modo coordinato e coerente alle diverse scale progettuali.
Resumo:
Questa tesi di laurea curriculare si propone come una lettura critica del percorso personale formativo universitario, attraverso l’analisi di tre specifiche e diverse esperienze progettuali, che hanno affrontato con varie accezioni il tema del “Riciclaggio” in architettura. Perché questa ricerca? Il riuso e la rivitalizzazione di materiali, edifici e intere parti di città si pone in stretta connessione con i principi di sviluppo sostenibile, perché concretizza un approccio conservativo di risorse, materiali o ambientali che hanno concluso un loro ciclo di vita; questi devono essere reinventati per essere re-immessei in un nuovo ciclo, producendo nuovo valore e vantaggi importanti in termini di risparmio e sostenibilità per la collettività. La notevole quantità di edifici e aree costruite non utilizzate presenti sul nostro territorio, insieme all’avanzamento della cultura del riciclo e delle tecnologie di recupero, impongono ad un architetto di ripensare un futuro per edifici e porzioni di città che hanno esaurito una fase del loro ciclo di vita, trovando un punto di equilibrio fra conservazione della memoria, adeguamento delle funzioni e innovazione delle tecniche. Oggi tutti i processi di produzione, tra cui quello dell’edilizia, sono tenuti al rispetto di norme e disposizioni per la riduzione dell’impatto ambientale, il risparmio e il recupero delle risorse: per questo i progettisti che nella scena mondiale hanno affrontato nelle loro opere la pratica del riciclo e del riuso si pongono come importanti riferimenti. La prima parte della tesi si compone di tre capitoli: nel primo viene introdotto il tema del consumo delle risorse. A questo proposito il riciclaggio di risorse, che in passato è stato considerato solo un modo per attenuare gli effetti negativi indotti dal nostro modello di sviluppo consumistico, oggi si presenta come un’opportunità di riflessione per molte attività di progettazione di oggetti, da quelli di consumo alle architetture, impegnate nella ricerca di soluzioni più sostenibili; nel secondo capitolo viene delineato il concetto di riciclo delle risorse come risposta allo sviluppo incontrollato e alla insostenibilità dello stile di vita indotto da un modello economico basato sulla pratica “usa e getta”. Nel terzo capitolo verrà esaminato il concetto di riciclo a varie scale d’intervento, dal riuso e riordino del territorio e della città, al riciclo degli edifici fino al riciclaggio di materiale. Saranno presentati alcuni casi studio significativi nel panorama mondiale. Nella seconda parte la tesi si propone una lettura critica di tre progetti realizzati durante la carriera universitaria, tutti caratterizzati dalla necessità di rapportarsi con importanti preesistenze, mediante strategie di rivitalizzazione dell’edificio o della porzione di città interessata dal progetto.
Resumo:
L’attività sperimentale presentata in questo elaborato riguarda lo studio di una particolare applicazione che impiega la tecnologia laser per la lavorazione di materiali compositi ed è stata interamente svolta, in particolar modo nella sua parte operativa, presso i laboratori della Facoltà di Ingegneria a Bologna. Il lavoro di tesi ha come obiettivo fondamentale la valutazione degli effetti che i parametri di processo possono avere sulla qualità risultante nel procedimento di ablazione per i materiali compositi. Per questa indagine sono stati utilizzati campioni piani (tutti identici tra loro) con rinforzo in fibra di carbonio e matrice in resina epossidica, i quali sono stati lavorati con un laser Nd:YAG (λ = 1064 nm) funzionante in regime continuo. L’idea alla base dell’intera attività sperimentale è stata quella di realizzare una ablazione ottimale, rimuovendo dai campioni esclusivamente la resina (in maniera locale) e tentando, allo stesso tempo, di ottenere il minimo danneggiamento possibile per le fibre. Le prove effettuate non costituiscono naturalmente un punto di arrivo, bensì rappresentano piuttosto un punto di partenza per acquisire informazioni preliminari che potranno consentire, nel prossimo futuro, di proseguire con il perfezionamento del processo e la messa a punto dei parametri, al fine di conseguire una lavorazione che dia risultati effettivamente ottimali ed interessanti per l’eventuale applicazione industriale.
Resumo:
La tesi di laurea presentata si inserisce nell’ampio contesto della Sicurezza Informatica, in particolare tratta il problema del testing dei sistemi di sicurezza concepiti per contrapporsi alle odierne minacce: gli attacchi mirati (Targeted Attacks) ed in generale le minacce avanzate persistenti (Advanced Persistent Threats). Il principale obiettivo del lavoro svolto è lo sviluppo e la discussione di una metodologia di test per sistemi di sicurezza focalizzati su questo genere di problemi. Le linee guida proposte hanno lo scopo di aiutare a colmare il divario tra quello che viene testato e quello che in realt`a deve essere affrontato realmente. Le attività svolte durante la preparazione della tesi sono state sia di tipo teorico, per quanto concerne lo sviluppo di una metodologia per affrontare al meglio il testing di sistemi di sicurezza a fronte di attacchi mirati, che ne di tipo sperimentale in quanto si sono utilizzati tali concetti per lo svolgimento di test su più strumenti di difesa in uno scenario d’interesse reale.
Resumo:
La sonnolenza durante la guida è un problema di notevole entità e rappresenta la causa di numerosi incidenti stradali. Rilevare i segnali che precedono la sonnolenza è molto importante in quanto, é possibile mettere in guardia i conducenti dei mezzi adottando misure correttive e prevenendo gli incidenti. Attualmente non esiste una metodica efficace in grado di misurare la sonnolenza in maniera affidabile, e che risulti di facile applicazione. La si potrebbe riconoscere da mutazioni di tipo comportamentale del soggetto come: presenza di sbadigli, chiusura degli occhi o movimenti di caduta della testa. I soggetti in stato di sonnolenza presentano dei deficit nelle loro capacità cognitive e psicomotorie. Lo stesso vale per i conducenti i quali, quando sono mentalmente affaticati non sono in grado di mantenere un elevato livello di attenzione. I tempi di reazione si allungano e la capacità decisionale si riduce. Ciò è associato a cambiamenti delle attività delta, theta e alfa di un tracciato EEG. Tramite lo studio dei segnali EEG è possibile ricavare informazioni utili sullo stato di veglia e sull'insorgenza del sonno. Come strumento di classificazione per elaborare e interpretare tali segnali, in questo studio di tesi sono state utilizzate le support vector machines(SVM). Le SVM rappresentano un insieme di metodi di apprendimento che permettono la classicazione di determinati pattern. Necessitano di un set di dati di training per creare un modello che viene testato su un diverso insieme di dati per valutarne le prestazioni. L'obiettivo è quello di classicare in modo corretto i dati di input. Una caratteristica delle SVM è una buona capacità di generalizzare indipendentemente dalla dimensione dello spazio di input. Questo le rende particolarmente adatte per l'analisi di dati biomedici come le registrazioni EEG multicanale caratterizzate da una certa ridondanza intrinseca dei dati. Nonostante sia abbastanza semplice distinguere lo stato di veglia dallo stato di sonno, i criteri per valutarne la transizione non sono ancora stati standardizzati. Sicuramente l'attività elettro-oculografica (EOG) riesce a dare informazioni utili riguardo l'insorgenza del sonno, in quanto essa è caratterizzata dalla presenza di movimenti oculari lenti rotatori (Slow Eye Movements, SEM) tipici della transizione dalla veglia alla sonno. L'attività SEM inizia prima dello stadio 1 del sonno, continua lungo tutta la durata dello stesso stadio 1, declinando progressivamente nei primi minuti dello stadio 2 del sonno fino a completa cessazione. In questo studio, per analizzare l'insorgere della sonnolenza nei conducenti di mezzi, sono state utilizzate registrazioni provenienti da un solo canale EEG e da due canali EOG. Utilizzare un solo canale EEG impedisce una definizione affidabile dell'ipnogramma da parte dei clinici. Quindi l'obiettivo che ci si propone, in primo luogo, è quello di realizzare un classificatore del sonno abbastanza affidabile, a partire da un solo canale EEG, al fine di verificare come si dispongono i SEM a cavallo dell'addormentamento. Quello che ci si aspetta è che effettivamente l'insorgere della sonnolenza sia caratterizzata da una massiccia presenza di SEM.
Resumo:
Il progetto di ricerca che ho svolto in questi mesi si è focalizzato sull'integrazione dei risultati raggiunti grazie all'elaborazione di nuovi dati sperimentali. Questi sono stati prelevati dalla corteccia visiva di macachi, attraverso l'utilizzo di tecniche di registrazione elettro-fisiologiche mediante array di micro-elettrodi[25], durante la presentazionedi alcuni filmati (sequenze di immagini o frames). Attraverso la tecnica del clustering, dalle registrazioni degli esperimenti sono stati raggruppati gli spike appartenenti ad uno stesso neurone, sfruttando alcune caratteristiche come la forma del potenziale d'azione. Da questa elaborazione e stato possibile risalire a quali stimoli hanno prodotto una risposta neurale. I dati messi a disposizione da Ringach non potevano essere trattati direttamente con le tecniche della spike-triggered average e della spike-triggered covariance a causa di alcune loro caratteristiche. Utilizzando filtri di Gabor bidimensionali e l'energia di orientazione e stato pero possibile modellare la risposta di cellule complesse in corteccia visiva primaria. Applicare questi modelli su dati ad alta dimensionalita immagini molto grandi), sfruttando la tecnica di standardizzazione (Z-score), ha permesso di individuare la regione, la scala e l'orientazione all'interno del piano immagine dei profili recettivi delle cellule di cui era stata registrata l'attività neurale. Ritagliare tale regione e applicare la spike-triggered covariance su dati della giusta dimensionalita, permetterebbe di risalire ai profili recettivi delle cellule eccitate in un preciso momento, da una specifica immagine e ad una precisa scala e orientazione. Se queste ipotesi venissero confermate si potrebbe marcare e rafforzare la bontà del modello utilizzato per le cellule complesse in V1 e comprendere al meglio come avviene l'elaborazione delle immagini.
Resumo:
Lo scopo del clustering è quindi quello di individuare strutture nei dati significative, ed è proprio dalla seguente definizione che è iniziata questa attività di tesi , fornendo un approccio innovativo ed inesplorato al cluster, ovvero non ricercando la relazione ma ragionando su cosa non lo sia. Osservando un insieme di dati ,cosa rappresenta la non relazione? Una domanda difficile da porsi , che ha intrinsecamente la sua risposta, ovvero l’indipendenza di ogni singolo dato da tutti gli altri. La ricerca quindi dell’indipendenza tra i dati ha portato il nostro pensiero all’approccio statistico ai dati , in quanto essa è ben descritta e dimostrata in statistica. Ogni punto in un dataset, per essere considerato “privo di collegamenti/relazioni” , significa che la stessa probabilità di essere presente in ogni elemento spaziale dell’intero dataset. Matematicamente parlando , ogni punto P in uno spazio S ha la stessa probabilità di cadere in una regione R ; il che vuol dire che tale punto può CASUALMENTE essere all’interno di una qualsiasi regione del dataset. Da questa assunzione inizia il lavoro di tesi, diviso in più parti. Il secondo capitolo analizza lo stato dell’arte del clustering, raffrontato alla crescente problematica della mole di dati, che con l’avvento della diffusione della rete ha visto incrementare esponenzialmente la grandezza delle basi di conoscenza sia in termini di attributi (dimensioni) che in termini di quantità di dati (Big Data). Il terzo capitolo richiama i concetti teorico-statistici utilizzati dagli algoritimi statistici implementati. Nel quarto capitolo vi sono i dettagli relativi all’implementazione degli algoritmi , ove sono descritte le varie fasi di investigazione ,le motivazioni sulle scelte architetturali e le considerazioni che hanno portato all’esclusione di una delle 3 versioni implementate. Nel quinto capitolo gli algoritmi 2 e 3 sono confrontati con alcuni algoritmi presenti in letteratura, per dimostrare le potenzialità e le problematiche dell’algoritmo sviluppato , tali test sono a livello qualitativo , in quanto l’obbiettivo del lavoro di tesi è dimostrare come un approccio statistico può rivelarsi un’arma vincente e non quello di fornire un nuovo algoritmo utilizzabile nelle varie problematiche di clustering. Nel sesto capitolo saranno tratte le conclusioni sul lavoro svolto e saranno elencati i possibili interventi futuri dai quali la ricerca appena iniziata del clustering statistico potrebbe crescere.
Resumo:
Nel mondo della sicurezza informatica, le tecnologie si evolvono per far fronte alle minacce. Non è possibile prescindere dalla prevenzione, ma occorre accettare il fatto che nessuna barriera risulterà impenetrabile e che la rilevazione, unitamente ad una pronta risposta, rappresenta una linea estremamente critica di difesa, ma l’unica veramente attuabile per poter guadagnare più tempo possibile o per limitare i danni. Introdurremo quindi un nuovo modello operativo composto da procedure capaci di affrontare le nuove sfide che il malware costantemente offre e allo stesso tempo di sollevare i comparti IT da attività onerose e sempre più complesse, ottimizzandone il processo di comunicazione e di risposta.
Resumo:
Il primo obiettivo di questo lavoro di tesi è quello di sviluppare il primo modello matematico di potenziale d'azione pacemaker umano: è vero che gli studi elettrofisiologici pubblicati sull'uomo non hanno ancora raggiunto la mole di risultati ottenuti, invece, sugli altri mammiferi da laboratorio, ma i tempi possono ritenersi "maturi", in quanto i dati disponibili in letteratura sono sufficienti e adeguati allo scopo. Il secondo obiettivo di questo lavoro di tesi nasce direttamente dall'esigenza clinica di definire le relazioni causa-effetto tra la mutazione T78M della proteina caveolina-3 e le varie forme di aritmie cardiache riscontrate, ad essa associate. Lo scopo è quello di stabilire quale sia il link tra genotipo della mutazione e fenotipo risultante, ovvero colmare il gap esistente tra i dati sperimentali in vitro in possesso ed i meccanismi di alterazione delle correnti ioniche affette, per arrivare a osservare l'effetto che ne deriva sull'attività elettrica delle cellule. Proprio in relazione a quest'ultimo punto, i due obiettivi del lavoro convergono: l'analisi degli effetti indotti dalla mutazione T78M è, infatti, effettuata sul modello di potenziale d'azione di nodo senoatriale umano sviluppato (oltre che su altri modelli atriali).
Resumo:
Questa relazione è frutto di un lavoro sperimentale svolto su diversi campioni di taralli del commercio forniti da un'azienda del settore, prodotti mediante ricette simili ed omogenei per dimensioni. Le attività di ricerca sono state focalizzare su: I) l'individuazione e la valutazione dei principali descrittori sensoriali in grado di caratterizzare la tipologia di prodotto; II) lo svolgimento di un'analisi sensoriale discriminante per verificare l'esistenza di differenze significativamente rilevabili tra taralli dello stesso tipo ma conservati per tempi differenti (0, 6, 12 mesi), al fine di fornire indicazioni utili per la definizione corretta della shelf-life del prodotto; III) la determinazione di specifici parametri fisici relazionati con l'apparenza e la texture dei taralli, per verificare la possibilità di utilizzare tali dati sia come supporto alla fase di allenamento del gruppo di assaggiatori, sia come approccio rapido per la valutazione della qualità e della freschezza di tali prodotti. Per la realizzazione degli obiettivi appena esposti, é stata applicata la tecnica QDA®. I dati delle singole sedute di analisi sono stati monitorati mediante PanelCheck. E' stato svolto un test triangolare attraverso cui definire se i taralli differenti per tempo di conservazione risultino significativamente discriminati per le caratteristiche sensoriali. Parallelamente alla QDA® e sullo stesso set di campioni, sono state applicate alcune analisi fisiche concernenti la valutazione dell’aspetto visivo e della texture del prodotto. Per la valutazione strumentale dell’apparenza dei campioni di taralli, si sono acquisite le immagini relative ai campioni oggetto di studio mediante un sistema di acquisizione e, successivamente, elaborate attraverso Image Pro - Plus v 6.2, per determinare elementi utili alla discriminazione dei campioni in esame. Per quanto concerne la determinazione della caratteristiche strutturali dei taralli è stato utilizzato il Texture Analyzer ed impiegato un test di penetrazione. E' stata infine condotta, mediante tecniche statistiche, un’analisi congiunta dei dati sensoriali e fisici.
Resumo:
La tesi sviluppa un corso di ottica attraverso la piattaforma e-learning di Ateneo Moodle. L'obiettivo è la proposta di alcuni argomenti di Fisica attraverso una metodologia nuova implementata con tecnologie informatiche di recente sviluppo. La prospettiva è quella dell'adozione di questo modello per la costruzione di un corso di Fisica Generale. Le caratteristiche rilevanti di questo approccio multimediale nell'ambito degli insegnamenti scientifici sono l'interattività tra gli studenti ed il corso, non precludendo il confronto tra i partecipanti all'attività didattica e la modularità del servizio formativo. A tal fine sono state inserite nell'insegnamento diverse features Moodle per realizzare questa architettura didattica.
Resumo:
Nella presente tesi sono riassunte le diverse posizioni epistemologiche riguardo alla relazione tra didattica e storia della matematica, insieme alle possibili funzioni di quest'ultima nell'attività scolastica. In particolare ci si è soffermati sull'opportunità di introdurre gli studenti ad un rapporto diretto con le fonti storiche. A tale scopo è stata condotta una sperimentazione in una classe di seconda Liceo, a cui sono stati proposti tre brani di diversi autori e secoli da esaminare in gruppo. Sono stati dettagliatamente descritti e successivamente analizzati i comportamenti messi in atto dagli studenti alla lettura delle fonti.
Resumo:
Tesi in Restauro Architettonico del chiostro di San Giovanni Battista a Faenza. L'edificio è situato in Vicolo San Giovanni Battista nel centro storico di Faenza. L'intervento prevede un restauro scientifico delle murature esistenti, e la progettazione di un nuovo volume in aggiunta per risolvere i problemi di accessibilità. La fase progettuale si sviluppa su tre campi: il volume in aggiunta in cui collocare elementi di collegamento, la rampa interna al chiostro per superare le differenze di quota e l’intervento al piano superiore in cui sviluppare uno spazio funzionale ad un attività.
Resumo:
Nata dal progetto di migrazione, in un ambiente consolidato, di una infrastruttura Wireless distribuita su territorio all'interno di una MAN (Metropolitan Area Network), si cerca di illustrare quali sono i passi fondamentali da seguire e con cosa ci si deve misurare per progettare una soluzione funzionale ed elaborare una strategia avendo a che fare con architetture complesse, dove la messa in esercizio di un servizio offerto ad un numero elevato di utenti prevede uno studio ben preciso delle attività da svolgere. Un'attenta analisi, ci consentirà di seguire e riadattare le scelte implementative in funzione delle esigenze infrastrutturali, illustrandone le difficoltà, gli imprevisti e le modifiche intraprese passo passo. Gli argomenti trattati tendono a far comprendere con quali problematiche si ha a che fare nella fase implementativa passando dalla fase di analisi a quella decisionale, quella di migrazione architetturale e di installazione, oltre che alla scelta delle componenti e delle tecnologie specifiche che, prima di essere portate a regime, devono essere sottoposte agli opportuni test per la comprensione/risoluzione di problematiche complesse; come le operazioni necessarie per operare con una efficace metodologia.