971 resultados para Palazzo Reale di Milano
Resumo:
Scopo di questo elaborato di tesi è la modellazione e l’implementazione di una estensione del simulatore Alchemist, denominata Biochemistry, che permetta di simulare un ambiente multi-cellulare. Al fine di simulare il maggior numero possibile di processi biologici, il simulatore dovrà consentire di modellare l’eterogeneità cellulare attraverso la modellazione di diversi aspetti dei sistemi cellulari, quali: reazioni intracellulari, segnalazione tra cellule adiacenti, giunzioni cellulari e movimento. Dovrà, inoltre, essere ammissibile anche l’esecuzione di azioni impossibili nel mondo reale, come la distruzione o la creazione dal nulla di molecole chimiche. In maniera più specifica si sono modellati ed implementati i seguenti processi biochimici: creazione e distruzione di molecole chimiche, reazioni biochimiche intracellulari, scambio di molecole tra cellule adiacenti, creazione e distruzione di giunzioni cellulari. È stata dunque posta particolare enfasi nella modellazione delle reazioni tra cellule vicine, il cui meccanismo è simile a quello usato nella segnalazione cellulare. Ogni parte del sistema è stata modellata seguendo fenomeni realmente presenti nei sistemi multi-cellulari, e documentati in letteratura. Per la specifica delle reazioni chimiche, date in ingresso alla simulazione, è stata necessaria l’implementazione di un Domain Specific Language (DSL) che consente la scrittura di reazioni in modo simile al linguaggio naturale, consentendo l’uso del simulatore anche a persone senza particolari conoscenze di biologia. La correttezza del progetto è stata validata tramite test compiuti con dati presenti in letteratura e inerenti a processi biologici noti e ampiamente studiati.
Resumo:
La misurazione del gradiente pressorio venoso (HVPG) viene utilizzata per diagnosticare la gravità della malattia del fegato ma si tratta di una pratica invasiva e che non può essere effettuata in tutti i pazienti. Per questo motivo sono state studiate nuove metodiche per riuscire ad analizzare la cirrosi, una tra le quali l’indagine ecografica. Un progetto in fase di svolgimento (progetto CLEVER) è stato avviato per riuscire a sviluppare, validare e trasferire nella pratica clinica un nuovo sistema basato sull'analisi di immagini ecografiche con mezzo di contrasto al fine di valutare la gravità della degenerazione della rete vascolare causata dalla cirrosi. L'obiettivo principale della ricerca è quello di sviluppare uno strumento completamente automatico per l'analisi in tempo reale della rete vascolare del fegato in grado di valutare la connettività vascolare e quantificare il grado di squilibrio della rete.
Resumo:
Il lavoro svolto si concentra sulla termografia attiva e su come essa possa essere usata come tecnica diagnostica non distruttiva. La sperimentazione ha visto la realizzazione di un modello di prova consisntente in una porzione di muro a forma di c costituito da mattoni pieni, intonacato solo su un lato. Attraverso il riscaldamento della porzione intonacata e tramite l'utilizzo di termocoppie sono state monitorate le temperature superficiali interne ed esterne e dell'ambiente interno ed esterno. In fase di raffreddamento il monitoraggio è stato implementato dalle riprese termografiche effettuate ad istanti di tempo regolari, riprendendo la superficie intonacata e riscaldata. Elaborando le immagini è stato possibile individuare sia la tessitura muraria che la discontinuità inserita in fase di costruzione. Per avere una verifica è stato realizzato, tramite un software, un modello bidimensionale dell'elemento studiato, ed è stato studiato il raffreddamento in condizioni dinamiche. Si osserva che i risultati ottenuti sono qualitativamente opposti a quelli riscontrati dalle immagini della sperimentazione, uno dei motivo può essere attribuito all'alta tridimensionalità del problema reale che il modello non tiene in considerazione.
Resumo:
Lo scopo della tesi è creare un’architettura in FPGA in grado di ricavare informazioni 3D da una coppia di sensori stereo. La pipeline è stata realizzata utilizzando il System-on-Chip Zynq, che permette una stretta interazione tra la parte hardware realizzata in FPGA e la CPU. Dopo uno studio preliminare degli strumenti hardware e software, è stata realizzata l’architettura base per la scrittura e la lettura di immagini nella memoria DDR dello Zynq. In seguito l’attenzione si è spostata sull’implementazione di algoritmi stereo (rettificazione e stereo matching) su FPGA e nella realizzazione di una pipeline in grado di ricavare accurate mappe di disparità in tempo reale acquisendo le immagini da una camera stereo.
Resumo:
In questa tesi, viene illustrato un metodo risolutivo al problema dell’allocazione e schedulazione, su risorse eterogenee con capacità unaria rinnovabile e cumulativa non rinnovabile, di applicazioni multitask periodiche, con periodi in relazione armonica, strutturate in attività indipendenti o sottoposte a vincoli di precedenza e con durate dipendenti dalla specifica risorsa di allocazione. L’obiettivo è quello di fornire un’implementazione del modello in grado di gestire l’allocazione e la schedulazione di istanze (i.e. insieme di applicazioni) variabili, caratterizzate da una serie di parametri. La struttura implementativa, realizzata secondo la Logic-based Benders decomposition, prevede la suddivisione del problema in due moduli. Il primo in grado di generare un’allocazione e realizzato con tecniche di programmazione lineare intera mista, il secondo con lo scopo di controllare l’ammissibilità di tale allocazione attraverso una schedulazione ottima e realizzato mediante tecniche di programmazione a vincoli. Il meccanismo di comunicazione tra i due moduli avviene mediante vincoli lineari, denominati tagli di Benders, che vengono aggiunti dopo ogni iterazione del sistema. L’efficacia del modello sarà valutata confrontando i risultati ottenuti attraverso una serie di test, con i valori forniti da un metodo di allocazione e schedulazione alternativo.
Resumo:
La tesi è il risultato di uno studio condotto sulle reti distribuzione dell’energia termica, elettrica e frigorifera; queste reti possono essere sviluppate per aumentare la diffusione della microgenerazione e generazione diffusa con l’obiettivo di renderle autonome elettricamente, termicamente e in alcuni casi indipendenti dal punto di vista del combustibile sfruttando possibilmente cogeneratori integrati e sistemi a fonte rinnovabile. In particolare la tesi si sofferma sull’analisi di criteri di gestione di una rete di teleriscaldamento esistente in modo da ridurne al minimo le dispersioni di energia termica in ambiente e gli scambi di energia elettrica con la rete nazionale. Lo sviluppo della tesi è stato suddiviso sostanzialmente in tre parti: la prima riguarda la caratterizzazione del comportamento di una rete di teleriscaldamento reale nel comprensorio urbano di Corticella a Bologna con determinati sistemi di produzione dell’energia elettrica e termica in centrale; nella seconda parte vengono analizzati nuovi sistemi in centrale di produzione e presso le utenze; infine la terza parte riguarda l’analisi economica ed energetica di tutte le soluzioni di gestione esaminate. Quindi ogni configurazione, data da nuovi sistemi di produzione delle fonti energetiche richieste e di gestione della rete, viene prima analizzata in riferimento a tre tipologie di scambio termico presso le utenze e poi valutata in termini di consumo di combustibile e di scambi di energia elettrica con la rete nazionale attraverso il costo di acquisto del gas naturale, il costo d’acquisto dell’energia elettrica dalla rete e il prezzo di vendita dell’energia elettrica alla rete. Sebbene le utenze vengano considerate sempre in assetto passivo all’interno di alcune configurazioni viene sfruttata la delocalizzazione della produzione di energia termica e la gestione della rete a bassa temperatura per ridurre il più possibile l’impatto ambientale della centrale e della rete di teleriscaldamento.
Resumo:
En este trabajo se presenta la concepción aristotélica de la filosofía primera como ciencia de los principios y de las causas primeras según el libro primero de la Metafísica. Para ello, se distinguen tres momentos sucesivos que constituyen el análisis de la naturaleza y la meta que debe alcanzar esta ciencia: 1) la concepción de la sabiduría como ciencia que se ocupa de ciertos principios y causas; 2) la sabiduría como ciencia de los primeros principios y de las causas; 3) la determinación de las cuatro causas primeras como tarea de la filosofía primera. De este modo, se pretende mostrar que la Metafísica de Aristóteles es un intento para explicar las últimas cuestiones, el último porqué, indicando cuatro géneros diferentes de respuesta.
Resumo:
La tesis mariológica de la conceptio per aurem, según la cual la Virgen María habría concebido a Jesucristo por el oído en el momento de escuchar del ángel el mensaje celestial anunciándole que, sin perder su virginidad, sería madre del Hijo de Dios encarnado, ha merecido hasta ahora muy pocos estudios académicos rigurosamente fundados en fuentes primarias. De hecho, en la literatura especializada son muy escasas las referencias a tal teoría y, cuando algún estudioso la evoca, casi siempre se contenta con aludir a ella, sin aportar pruebas documentales. Sin embargo, tal como lo revelan las nueve pinturas italianas aquí analizadas, esa teoría fue ilustrada mediante sutiles metáforas visuales en muchas obras pictóricas medievales, las cuales se inspiraron en una sólida tradición literaria. Además una pléyade de Padres de la Iglesia y teólogos medievales testimonia, mediante afirmaciones explícitas, que semejante teoría gozó de notable aceptación entre los maestros del pensamiento cristiano. Basándose en numerosos textos patrísticos y teológicos, este artículo intenta dos objetivos esenciales: exponer, ante todo, las distintas formulaciones teóricas propuestas por esos pensadores; y además, tratar de poner en luz los significados dogmáticos que subyacen bajo esa sorprendente tesis.
Resumo:
Lo scopo del mio elaborato è stato quello di valutare se il denaro potesse essere un veicolo di trasmissione di microrganismi. Esistono infatti reperti storici che indicano che il denaro veniva visto come probabile portatore di infezioni fatali come la “morte nera”, la peste bubbonica e le pandemie di polmoniti descritte in Europa. Vi sono anche altri studi che hanno indicato come patogeni isolati con maggiore frequenza dalle banconote microrganismi quali enterobatteri e stafilococchi. In questa sperimentazione mi sono occupato del campionamento microbiologico di banconote di vario taglio, raccolte prevalentemente in piccoli esercizi alimentari, sulle quali è stato fatto un tampone al fine di determinare la presenza di: coliformi totali, E. coli, S. aureus, altri stafilococchi, muffe, lieviti, carica batterica totale. Le analisi condotte hanno mostrato che nelle banconote non sono mai stati isolati ceppi di S. aureus, a differenza di quanto riportato nella letteratura. Simili considerazioni si possono fare anche per E. coli. Per quel che riguarda la carica batterica totale, le banconote più contaminate sono risultate essere quelle da 20 euro (valore medio 474 UFC/cm2). I tamponi microbiologici effettuati sui tagli da 50 euro sono stati gli unici ad essere caratterizzati da una elevata presenza di coliformi totali. In conclusione possiamo affermare che le banconote posso effettivamente costituire un importante veicolo di contaminazione microbica, che può poi trasferirsi anche su altri matrici, come prodotti alimentari. Considerando la pressione che viene esercitata dalle Autorità di controllo su tutte le fasi della catena alimentare, dalla produzione alla vendita al dettaglio, la variabile posta dalle possibili contaminazioni attraverso il maneggiamento e la circolazione delle banconote potrebbe quindi costituire un rischio reale, sia pure non ancora quantificato e forse non quantificabile.
Resumo:
Questa tesi tratta nello specifico lo studio di un impianto micro-ORC, capace di sfruttare acqua alla temperatura di circa 70-90°C come sorgente termica. Questo sistema presenta una potenza dichiarata dal costruttore pari a 3kW e un rendimento del 9%. In primo luogo, si descrivono le caratteristiche principali dei fluidi organici, in particolare quelle del freon R134a, impiegato nel banco prova. Vengono illustrati dettagliatamente l’impianto e la sensoristica utilizzata per le misurazioni delle varie grandezze fisiche. Tramite esse, con l’utilizzo di un programma di acquisizione dati appositamente relizzato in ambiente LabVIEW, è stato possibile calcolare in tempo reale tutti i parametri di funzionamento, necessari per la caratterizzazione del sistema. Per una veloce ed efficiente elaborazione dei dati registrati durante le prove in laboratorio, è stato realizzato un programma in linguaggio VBA. L’utilizzo di questo codice ha permesso, in primo luogo, di individuare e correggere eventuali errori di calcolo e acquisizione presenti in ambiente LabVIEW e, in secondo luogo, si è reso indispensabile per comprendere il funzionamento dell’impianto nelle varie fasi, come accensione, spegnimento e produzione di potenza. Sono state inoltre identificate le modalità di risposta del sistema al variare dei comandi impostabili dall’utente, quali il numero di giri della pompa e la variazione della temperatura della sorgente calda. Si sono poi osservate le risposte del sistema al variare delle condizioni esterne, come ad esempio la temperatura dell’acqua di condensazione. Una specifica prova è stata analizzata in questo elaborato. Durante tale prova il sistema ha lavorato in forte off-design, erogando una potenza elettrica pari a 255 W, raggiungendo un basso valore del rendimento (pari a 1.8%). L’analisi dei dati ha portato ad identificare nuovi limiti di funzionamento, legati ad esempio alla quantità di fluido interna al sistema.
Resumo:
Una Brain Computer Interface (BCI) è un dispositivo che permette la misura e l’utilizzo di segnali cerebrali al fine di comandare software e/o periferiche di vario tipo, da semplici videogiochi a complesse protesi robotizzate. Tra i segnali attualmente più utilizzati vi sono i Potenziali Evocati Visivi Steady State (SSVEP), variazioni ritmiche di potenziale elettrico registrabili sulla corteccia visiva primaria con un elettroencefalogramma (EEG) non invasivo; essi sono evocabili attraverso una stimolazione luminosa periodica, e sono caratterizzati da una frequenza di oscillazione pari a quella di stimolazione. Avendo un rapporto segnale rumore (SNR) particolarmente favorevole ed una caratteristica facilmente studiabile, gli SSVEP sono alla base delle più veloci ed immediate BCI attualmente disponibili. All’utente vengono proposte una serie di scelte ciascuna associata ad una stimolazione visiva a diversa frequenza, fra le quali la selezionata si ripresenterà nelle caratteristiche del suo tracciato EEG estratto in tempo reale. L’obiettivo della tesi svolta è stato realizzare un sistema integrato, sviluppato in LabView che implementasse il paradigma BCI SSVEP-based appena descritto, consentendo di: 1. Configurare la generazione di due stimoli luminosi attraverso l’utilizzo di LED esterni; 2. Sincronizzare l’acquisizione del segnale EEG con tale stimolazione; 3. Estrarre features (attributi caratteristici di ciascuna classe) dal suddetto segnale ed utilizzarle per addestrare un classificatore SVM; 4. Utilizzare il classificatore per realizzare un’interfaccia BCI realtime con feedback per l’utente. Il sistema è stato progettato con alcune delle tecniche più avanzate per l’elaborazione spaziale e temporale del segnale ed il suo funzionamento è stato testato su 4 soggetti sani e comparato alle più moderne BCI SSVEP-based confrontabili rinvenute in letteratura.
Resumo:
Negli ultimi anni, è aumentato notevolmente l'interesse per piante e prodotti vegetali, e composti da essi derivati od estratti, in alternativa ai conservanti chimici per prevenire o ritardare lo sviluppo microbico negli alimenti. Questo deriva dalla percezione negativa, ormai diffusa a livello pubblico, nei confronti di sostanze di sintesi che sono ampiamente utilizzate come conservanti nell’industria alimentare. Sono stati effettuati diversi studi sull’attività antimicrobica di questi composti negli alimenti, anche se il loro utilizzo a livello industriale è limitato. Ciò dipende dalla difficile standardizzazione di queste sostanze, dovuta alla variabilità della matrice alimentare che ne può alterarne l’attività antimicrobica. In questa sperimentazione si sono utilizzati l’olio essenziale di Sateureja montana e l’estratto di Cotinus coggygria e sono state fatte delle prove preliminari, determinandone le componenti volatili tramite gas-cromatografia abbinata a microestrazione in fase solida. Sono stati selezionati un ceppo di Listeria monocytogenes (Scott A) e uno di Saccharomyces cerevisiae (SPA), e sono stati utilizzati per realizzare curve di morte termica in sistema modello e in sistema reale. Dai risultati ottenuti si può affermare che Satureja montana e Cotinus coggygria possono essere presi in considerazione come antimicrobici naturali da impiegare per la stabilizzazione di alimenti, nonché per ridurre l’entità dei trattamenti termici atti a salvaguardare le proprietà nutrizionali ed organolettiche di alimenti, come ad esempio succhi di frutta, garantendone la sicurezza e qualità microbiologica.
Resumo:
Il presente elaborato di tesi si concretizza in un inquadramento generale relativo alle emissioni odorigene: cosa sono, i riferimenti normativi, come si misurano. Si è poi fatto riferimento a un caso reale, ovvero un impianto operante nella lavorazione dei semi oleosi che ha subito una modifica della propria configurazione impiantistica. Le emisisoni odorigene sono state modellate, mediante l'utilizzo del software Calpuff, in relazione a due stati: prima e dopo la modifica. Questo ha permesso di fare un confronto in termini di impatto sull'ambiente.
Resumo:
Il presente lavoro di tesi affronta diverse tematiche riguardanti la valutazione della vulnerabilità sismica del centro storico di Sansepolcro, con particolare riferimento all’analisi di fonti storiche perlopiù inedite e a indagini morfologiche sui tessuti edilizi. La zona della Valtiberina toscana è stata interessata da numerosi eventi sismici che spesso hanno raggiunto intensità elevate e che hanno provocato molti danni. Il susseguirsi di tali eventi ha fatto si che si sviluppasse una certa esperienza nell’affrontare le conseguenze dell’evento sismico. Ne sono testimonianza i documenti conservati presso l’Archivio Storico Comunale di Sansepolcro che riguardano gli eventi sismici del 1781 e del1789. Dalla corrispondenza tra le autorità di Firenze e di Sansepolcro è stato possibile ricostruire la cronologia delle azioni principali compiute nella gestione dell’emergenza. Tra le lavorazioni eseguite, molti furono i presidi antisismici utilizzati. Nell’ambito dell’analisi delle fonti di archivio si sono analizzati anche documenti più recenti, in particolare gli elaborati del Genio Civile conservati presso l’Archivio di Stato di Arezzo riguardanti gli eventi sismici del 1917 e 1919. Parallelamente alle ricerche archivistiche si è cercato di stabilire una correlazione tra la morfologia dei tessuti e la vulnerabilità sismica degli aggregati edilizi in relazione al loro processo evolutivo e al loro periodo storico di formazione. Una volta stabilita, per ogni aggregato, la fase di impianto, ci si è avvalsi del metodo di calcolo speditivo dell’indice di vulnerabilità in pianta (TPS). Lo scopo è quello di elaborare delle considerazioni generali per singoli aggregati campione, per poi estenderle agli aggregati omogenei. A conclusione del lavoro si è preso in considerazione il caso del Palazzo Aloigi-Luzzi e se ne sono calcolati gli indici analitici globali di vulnerabilità sismica, per avere un riscontro concreto di un singolo caso.
Resumo:
La caratterizzazione del parenchima polmonare è un aspetto cruciale per l’identificazione dell’enfisema e dell’air trapping in pazienti affetti da broncopneumopatia cronica ostruttiva (BPCO). L’innovazione presente in questo lavoro di tesi è quella di utilizzare a questo scopo l’analisi tessiturale mediante il metodo delle matrici di co-occorrenza su immagini di tomografia computerizzata (TC) acquisite in inspirio ed espirio co-registrate. La co-registrazione che ha portato le immagini acquisite in espirio sullo stesso sistema di riferimento di quelle acquisite in inspirio è avvenuta utilizzando la trasformazione diffeomorfa B-Spline SyN, implementata nel software ANTs, ed è stata applicata sia alle immagini TC che alle features estratte da esse. Dalle matrici di co-occorrenza è stata calcolata la feature Energia, che misura l’uniformità dei livelli di grigio contenuti nell’immagine, e quindi la sua omogeneità. Partendo dal fatto che le aree parenchimali affette da enfisema e air trapping hanno alti livelli di omogeneità dovuti alla presenza dell’aria intrappolata al loro interno, l’idea alla base di questo lavoro è stata quella di identificare queste aree attraverso gli alti valori che l’Energia assume in loro corrispondenza. Sono state quindi stabilite sperimentalmente alcune soglie basate sui valori assunti dall’Energia in inspirio e in espirio. Sulla base di queste il parenchima polmonare è stato clusterizzato in diverse aree identificanti i tessuti sani, quelli affetti da enfisema e quelli affetti dall’air trapping. La clusterizzazione ottenuta è risultata coerente con la reale distribuzione dell’enfisema e dell’air trapping nei pazienti analizzati, dimostrando la validità della tecnica utilizzata e aprendo nuovi scenari futuri alla caratterizzazione del parenchima polmonare in questa patologia.