932 resultados para topologia computazionale funzioni di taglia
Resumo:
Lo scopo di questa tesi di dottorato di ricerca consiste nel fornire la giusta collocazione della manutenzione fra le discipline dell'ingegneria, raccogliendo e formalizzando le metodologie di analisi di affidabilità e di pianificazione degli interventi all'interno di un unico processo di progettazione e di controllo. In linea di principio, un processo di analisi dei guasti e di programmazione della manutenzione deve essere in grado di fornire chiare e sicure risposte ai seguenti interrogativi: Quali sono le funzioni richieste e con quali criteri di prestazioni il sistema è chiamato ad assolverle? Qual'è l'andamento della disponibilità del sistema in funzione del tempo? Quanti guasti e di quale tipo si possono verificare durante la vita del sistema? Quali possono essere le conseguenze che ledono la sicurezza e la protezione ambientale? Quanti pezzi di ricambio sono necessari? Che tipo di interventi di manutenzione preventiva risultano tecnicamente fattibili? A quali scadenze devono essere programmati? A quanto ammonta la previsione del costo di esercizio del sistema? Quante squadre di manutenzione devono essere assegnate al sistema? Come deve essere organizzata la logistica di manutenzione? Con quali tecniche si prevede di riconoscere i guasti e quali procedure devono essere attivate per farvi fronte? E' possibile implementare tecniche di `condition monitoring' delle macchine? Su quali tempi di preavviso sui guasti si può contare? In tal senso, la manutenzione necessita delle tecniche e degli opportuni strumenti che siano in grado di misurarne l'efficacia e l'efficienza. L'efficacia in primo luogo, in quanto l'obiettivo principe consiste nel garantire che il sistema oggetto di studio continui a svolgere le proprie funzioni nei limiti di prestazioni accettabili, secondo le specifiche richieste degli utilizzatori. L'efficienza in secondo luogo, ma non per questo di minore importanza, in quanto perseguendo l'obiettivo di cui sopra, occorre impegnare il minimo di risorse possibili, organizzando con razionalità il supporto logistico del sistema al fine di raggiungere i massimi livelli di rendimento di gestione. La migliore strategia di manutenzione può essere pianificata, a priori, solo se si è in grado di prevedere con la necessaria precisione l'evoluzione del sistema nel suo contesto operativo futuro. E' allora possibile formulare un modello matematico del sistema, studiarne la dinamica ed osservare le reazioni alla simulazione di eventuali stimoli esterni. I metodi ed i modelli noti dell'ingegneria dei sistemi possono essere molto utili per la risoluzione di casi semplici, ma sovente richiedono la formulazione di ipotesi troppo restrittive che aumentano in modo inaccettabile la distanza del modello dalla realtà. Una strada alternativa ed affascinante, che ho percorso con entusiasmo durante questi tre anni di studi e ricerca, consiste nella simulazione numerica della vita del sistema, utilizzando il metodo Monte Carlo per la gestione dei processi stocastici di guasto e per l'esecuzione degli interventi di manutenzione. Ho quindi messo a punto il codice di simulazione RAMSES, perseguendo l'idea di costruire uno strumento di misura dell'efficacia e dell'efficienza di una politica di manutenzione simulata al calcolatore. Nella tesi si presentano i concetti di base dell'ingegneria dei sistemi applicata al caso della manutenzione e si introduce il formalismo della Reliability Centred Maintenance come miglior guida nella pianificazione delle schede di manutenzione. Si introducono le nozioni di base per fornire una struttura solida e corretta alla simulazione numerica dei sistemi riparabili e si presenta il codice RAMSES corredando le informazioni tecniche con i dovuti esempi ed applicazioni pratiche. Si conclude il lavoro, infine, con la presentazione di un modello di massima verosimiglianza particolarmente utile per le analisi dei dati sperimentali di guasto dei componenti.
Resumo:
Il Test di Risposta Termica (Thermal Response Test-TRT) (Mogenson,1983) è il test esistente con il più alto grado di accuratezza per la caratterizzazione del reservoir geotermico superficiale. Il test consiste in una simulazione in situ del funzionamento di un sistema a circuito chiuso di sfruttamento dell’energia geotermica, per un periodo limitato di tempo, attraverso l’iniezione o estrazione di calore a potenza costante all’interno del geo-scambiatore (Borehole Heat Exchanger-BHE). Dall’analisi della variazione delle temperature del fluido circolante, è possibile avere una stima delle proprietà termiche medie del volume del reservoir geotermico interessato dal test. Le grandezze principali per la caratterizzazione di un serbatoio geotermico sono la conduttività termica (λ), la capacità termica volumetrica (c), la temperatura indisturbata del suolo (Tg) e la resistenza termica del pozzo (Rb); la loro determinazione è necessaria per il corretto progettazione degli geo-scambiatori. I risultati del TRT sono tuttavia sensibili alle condizioni al contorno spazio-temporali quali ad es.: variazione della temperatura del terreno, movimento d’acqua di falda, condizioni metereologiche, eventi stagionali, ecc. Questo lavoro vuole: i) introdurre uno studio sui problemi di caratterizzazione del reservoir geotermico superficiale, in particolare analizzando l’effetto che il movimento d’acqua di falda ha sui parametri termici; ii) analizzare la sensitività dei risultati del test alle variabilità dei parametri caratteristici del funzionamento delle attrezzature. Parte del lavoro della mia tesi è stata svolta in azienda per un periodo di 4 mesi presso la “Groenholland Geo Energy systems” che ha sede ad Amsterdam in Olanda. Tre diversi esperimenti sono stati realizzati sullo stesso sito (stratigrafia nota del terreno: argilla, sabbia fine e sabbia grossa) usando una sonda profonda 30 metri e diversi pozzi per l’estrazione d’acqua e per monitorare gli effetti in prossimità del geo scambiatore. I risultati degli esperimenti sono stati molto diversi tra di loro, non solo in termini di dati registrati (temperature del fluido termovettore), ma in termini dei valori dei parametri ottenuti elaborando i dati. In particolare non è sufficiente adottare il modello classico della sorgente lineare infinita (Infinite Line Source Solution- ILS) (Ingersoll and Plass, 1948), il quale descrive il trasferimento di calore per conduzione in un mezzo omogeneo indefinito a temperatura costante. Infatti, lo scambio di calore avviene anche tramite convezione causata dal movimento d’acqua di falda, non identificabile mediante gli approcci classici tipo CUSUM test (Cumulative Sum test) (Brown e altri,1975) Lo studio della tesi vuole dare un quadro di riferimento per correlare la variabilità dei risultati con la variabilità delle condizioni al contorno. L’analisi integra le metodologie classiche (ILS) con un approccio geostatistico utile a comprendere i fenomeni e fluttuazioni che caratterizzano il test. Lo studio delle principali variabili e parametri del test, quali temperatura in ingresso e uscita del fluido termovettore, portata del fluido e potenza iniettata o estratta, è stato sviluppato mediante: il variogramma temporale, ovvero la semivarianza dell’accrescimento, che esprime il tipo di autocorrelazione temporale della variabile in esame; la covarianza incrociata temporale, ovvero la covarianza fra due variabili del sistema, che ne definisce quantitativamente il grado di correlazione in funzionamento del loro sfasamento temporale. L’approccio geostatistico proposto considera la temperatura del fluido Tf come una funzione aleatoria (FA) non stazionaria nel tempo (Chiles, 1999), il cui trend è formalmente definito, ma deve essere identificato numericamente. Si considera quindi un classico modello a residuo; in cui la FA è modellizzata come la somma di un termine deterministico, la media (il valore atteso) m(t),coincidente col modello descritto dalla teoria della sorgente lineare infinità, e di un termine aleatorio, la fluttuazione, Y(t). Le variabili portata e potenza sono invece considerate delle funzioni aleatorie stazionarie nel tempo, ovvero a media costante. Da questo studio di Tesi si sono raggiunte delle conclusioni molto importanti per lo studio del TRT: Confronto tra gli esperimenti in estrazione di calore, con e senza movimento d’acqua di falda: si studia l’effetto indotto dalla falda sul TRT. E’ possibile caratterizzare quantitativamente l’incremento della conducibilità termica equivalente legata a fenomeni convettivi dovuti al movimento d’acqua di falda. Inoltre, i variogrammi sperimentali evidenziano periodicità simili nei due casi e legate al funzionamento della pompa di calore e della componentistica associata ed alla circolazione del fluido termovettore all’interno della sonda. Tuttavia, la componente advettiva ha un effetto di smorzamento sulle piccole periodicità dei variogrammi, ma di aumento dell’ampiezza delle periodicità maggiori a causa del funzionamento della pompa di calore che deve fornire maggiore energia al sistema per bilanciare le dispersioni dovute al movimento d’acqua di falda. Confronto fra estrazione ed iniezione di calore, con movimento d’acqua di falda: si studia la significatività dei risultati nei due casi. L’analisi delle variografie evidenzia significative differenze nella struttura dei variogrammi sperimentali. In particolare, nel test con iniezione di calore i variogrammi sperimentali delle temperature hanno valori sistematicamente inferiori, circostanza che assicura una migliore precisione nella stima dei parametri termici. Quindi eseguire il TRT in iniezione di calore risulta più preciso. Dall’analisi dei variogrammi sperimentali delle singole variabili quali temperatura del fluido in ingresso e uscita all’interno del geoscambiatore è stato confermato il fenomeno di smorzamento delle oscillazioni da parte del terreno. Dall’analisi delle singole variabili del test (temperature, potenza, portata) è stata confermata l’indipendenza temporale fra portate e temperature. Ciò è evidenziato dalle diverse strutture dei variogrammi diretti e dalle covarianze incrociate prossime a zero. Mediante correlogrami è stato dimostrato la possibilità di calcolare il tempo impiegato dal fluido termovettore per circolare all’interno della sonda. L’analisi geostatistica ha permesso quindi di studiare in dettaglio la sensitività dei risultati del TRT alle diverse condizioni al contorno, quelle legate al reservoir e quelle legate al funzionamento delle attrezzature
Resumo:
The objective of this thesis was to improve the commercial CFD software Ansys Fluent to obtain a tool able to perform accurate simulations of flow boiling in the slug flow regime. The achievement of a reliable numerical framework allows a better understanding of the bubble and flow dynamics induced by the evaporation and makes possible the prediction of the wall heat transfer trends. In order to save computational time, the flow is modeled with an axisymmetrical formulation. Vapor and liquid phases are treated as incompressible and in laminar flow. By means of a single fluid approach, the flow equations are written as for a single phase flow, but discontinuities at the interface and interfacial effects need to be accounted for and discretized properly. Ansys Fluent provides a Volume Of Fluid technique to advect the interface and to map the discontinuous fluid properties throughout the flow domain. The interfacial effects are dominant in the boiling slug flow and the accuracy of their estimation is fundamental for the reliability of the solver. Self-implemented functions, developed ad-hoc, are introduced within the numerical code to compute the surface tension force and the rates of mass and energy exchange at the interface related to the evaporation. Several validation benchmarks assess the better performances of the improved software. Various adiabatic configurations are simulated in order to test the capability of the numerical framework in modeling actual flows and the comparison with experimental results is very positive. The simulation of a single evaporating bubble underlines the dominant effect on the global heat transfer rate of the local transient heat convection in the liquid after the bubble transit. The simulation of multiple evaporating bubbles flowing in sequence shows that their mutual influence can strongly enhance the heat transfer coefficient, up to twice the single phase flow value.
Resumo:
In un quadro internazionale di forte interesse verso uno sviluppo sostenibile e sfide energetiche per il futuro, il DIEM, in collaborazione con altri istituti di ricerca ed imprese private, sta progettando l’integrazione di componentistica avanzata su di una caldaia alimentata a biomasse. Lo scopo finale è quello di realizzare una caldaia a biomasse che produca energia in maniera più efficiente e con un impatto ambientale ridotto. L’applicazione è indirizzata inizialmente verso caldaie di piccola-media taglia (fino a 350 kW termici) vista la larga diffusione di questa tipologia di impianto. La componentistica in oggetto è: - filtro sperimentale ad alta efficienza per la rimozione del particolato; - celle a effetto Seebeck per la produzione di energia elettrica direttamente da energia termica senza parti meccaniche in movimento; - pompa Ogden per la produzione di energia meccanica direttamente da energia termica; La finalità dell’attività di ricerca è la progettazione dell’integrazione dei suddetti dispositivi con una caldaia a biomassa da 290 kW termici per la realizzazione di un prototipo di caldaia stand-alone ad impatto ambientale ridotto: in particolare, la caldaia è in grado, una volta raggiunte le condizioni di regime, di autoalimentare le proprie utenze elettriche, garantendo il funzionamento in sicurezza in caso di black-out o consentendo l’installazione della caldaia medesima in zone remote e prive di allaccio alla rete elettrica. Inoltre, la caldaia può fornire, tramite l'utilizzo di una pompa a vapore o pompa Ogden, energia meccanica per il pompaggio di fluidi: tale opportunità si ritiene particolarmente interessante per l'integrazione della caldaia nel caso di installazione in ambito agricolo. Infine, l'abbinamento di un filtro ad alta efficienza e basso costo consente l'abbattimento delle emissioni inquinanti, favorendo una maggiore diffusione della tecnologia senza ulteriori impatti sull'ambiente.
Resumo:
Come noto, il testosterone (T) gioca un ruolo importante in differenti funzioni fisiologiche. Il ruolo del T nelle donne è tuttavia largamente sconosciuto. Recenti studi riportano un ruolo del T nella modulazione della funzionalità sessuale femminile. SCOPO: Indagare gli effetti del T nelle donne, su parametri metabolici, ossei e composizione corporea e studiare gli effetti del T sulla proliferazione e innervazione della vagina. METODI: 16 soggetti FtM ovariectomizzati sono stati sottoposti a terapia con TU 1000 mg im + placebo o dutasteride. Alla settimana 0 e 54 sono stati valutati: parametri metabolici e composizione corporea. 16 campioni di tessuto vaginale ottenuti da soggetti FtM trattati con T, 16 donne PrM e 16 donne M sono stati analizzati. Sono stati valutati: morfologia, contenuto di glicogeno, espressione del Ki-67, recettori per estrogeni e androgeni ed innervazione. RISULTATI: La somministrazione di T in soggetti FtM determina aumento del colesterolo LDL e riduzione delle HDL. L’HOMA si riduce significativamente nel gruppo TU e tende ad aumentare nel gruppo TU+D. L’ematocrito aumenta. BMI, WHR e grasso tendono a ridursi, la massa magra ad aumentare. Non riportiamo cambiamenti del metabolismo osseo. Nel tessuto vaginale di FtM osserviamo perdita della normale architettura dell’epitelio. La somministrazione di T determina riduzione della proliferazione cellulare. I recettori per E e il PGP 9.5 sono significativamente ridotti nei FtM. La presenza di recettori per A è dimostrata nello stroma e nell’epitelio. L’espressione di AR si riduce con l’età e non cambia con la terapia con T nella mucosa, mentre aumenta nello stroma dopo somministrazione di T. CONCLUSIONI: Non riportiamo effetti avversi maggiori dopo somministrazione di T. La terapia con T determina ridotta proliferazione dell’epitelio vaginale. I recettori per AR sono presenti sia nello stroma che nell’epitelio. T aumenta l’espressione di AR nello stroma.
Resumo:
La cippatura è un processo produttivo fondamentale nella trasformazione della materia prima forestale in biomassa combustibile che coinvolgerà un numero sempre più crescente di operatori. Scopo dello studio è stato quantificare la produttività e il consumo di combustibile in 16 cantieri di cippatura e determinare i livelli di esposizione alla polvere di legno degli addetti alla cippatura, in funzione di condizioni operative differenti. Sono state identificate due tipologie di cantiere: uno industriale, con cippatrici di grossa taglia (300-400kW) dotate di cabina, e uno semi-industriale con cippatrici di piccola-media taglia (100-150kW) prive di cabina. In tutti i cantieri sono stati misurati i tempi di lavoro, i consumi di combustibile, l’esposizione alla polvere di legno e sono stati raccolti dei campioni di cippato per l’analisi qualitativa. Il cantiere industriale ha raggiunto una produttività media oraria di 25 Mg tal quali, ed è risultato 5 volte più produttivo di quello semi-industriale, che ha raggiunto una produttività media oraria di 5 Mg. Ipotizzando un utilizzo massimo annuo di 1500 ore, il cantiere semi-industriale raggiunge una produzione annua di 7.410 Mg, mentre quello industriale di 37.605 Mg. Il consumo specifico di gasolio (L per Mg di cippato) è risultato molto minore per il cantiere industriale, che consuma in media quasi la metà di quello semi-industriale. Riguardo all’esposizione degli operatori alla polvere di legno, tutti i campioni hanno riportato valori di esposizione inferiori a 5 mg/m3 (limite di legge previsto dal D.Lgs. 81/08). Nei cantieri semi-industriali il valore medio di esposizione è risultato di 1,35 mg/m3, con un valore massimo di 3,66 mg/m3. Nei cantieri industriali si è riscontrato che la cabina riduce drasticamente l’esposizione alle polveri di legno. I valori medi misurati all’esterno della cabina sono stati di 0,90 mg/m3 mentre quelli all’interno della cabina sono risultati pari a 0,20 mg/m3.
Resumo:
Lo scopo della tesi è quello di affrontare la progettazione con un approccio,quanto più attuale e per certi versi avanguardista, chiamato Parametric design (progettazione parametrica), accoppiato efficacemente col concetto di Arte generativa (in questo caso Architettura). Già nel 1957 Luigi Moretti affrontò il tema dell’architettura parametrico-generativa fondando l’IRMOU (Istituto per la Ricerca Matematica e Operativa applicata all'Urbanistica) e oggi è una mentalità molto diffusa nei più grandi studi del mondo. Il tema non è solo tecnologico o informatico strumentale, ma è proprio un modo di pensare e immaginare il possibile, costruito o naturale che sia. E’ un modo di vivere la propria creatività. L’aggettivo “generativa” è legato al fatto che l’arte in esame è generata seguendo regole preimpostate e ben definite dal progettista, coerentemente agli obiettivi e alle finalità del progetto. L’evoluzione delle stesse, seguendo relazioni molto semplici, può dar vita a risultati sorprendenti e inaspettati, dotati di una notevole complessità che però, se letta nell’insieme, è perfettamente in armonia con l’idea progettuale di partenza. Il fascino di questa materia è il legame entusiasmante che crea tra architettura, ingegneria, poesia, filosofia, matematica, biologia, fisica, pittura ecc ecc. Questo perché i concetti di evoluzione, di relazione e di generazione appartengono a tutto ciò che ci circonda, e quindi alla concezione umana di vita. E’ possibile in questo modo permeare il costrutto progettuale con principi e regole oggettivamente riconoscibili e apprezzabili dallo spettatore perché instrisi di una forte veridicità processuale. Il titolo "Oxymoron" è la traduzione inglese della figura retorica ossimoro,la quale è strettamente connessa all’ispirazione progettuale: proviene dall’indagine approfondita di processi evolutivi (distruttivi in questo caso) caratterizzanti realtà naturali che, esplorate con sempre più accuratezza, determinano morfologie e forme aventi profonde radici strutturali. La distruzione che crea lo spazio. La genesi stessa della forma segue predominanti algoritmi matematici governati e corretti da variabili di diversa natura che definiscono l'enviroment di influenze interagenti ed agenti sul campione di studio. In questo caso la ricerca è focalizzata su processi erosivi fisici e chimici, di agenti esterni (quali vento e sali rispettivamente) ,di cui materiali inorganici, quali minerali e aggregati degli stessi (rocce), sono soggetti. In particolare, l’interesse è approfondito su fenomeni apparentemente emergenti dei tafoni e dei cosiddetti Micro canyon. A tal scopo si sfrutterà un metodo di soft kill option (SKO) di ottimizzazione topologica (optimization topology) attraverso gli strumenti informatici più idonei quali software di modellazione parametrica e di calcolo computazionale. La sperimentazione sta proprio nell'utilizzare uno strumento concepito per uno scopo, con un'ottica strettamente ingegneristica, per un'altra meta, ossia ricavare e ottenere se possibile un metodo di lavoro o anche solo un processo generativo tale da riprodurre o simulare casi e situazioni riscontrabili in natura negli eventi soggetti a erosione. Il tutto coerente con le regole che stanno alla base della genesi degli stessi. Il parallelismo tra singolarità naturale e architettura risiede nella generazione degli spazi e nella combinazione di questi. L’ambizioso obiettivo è quello di innescare un ciclo generativo, che messo in comunicazione diretta con un contesto variegato ed eterogeneo, dia vita a una soluzione progettuale dall'alto contenuto morfologico e spaziale.
Resumo:
Il task del data mining si pone come obiettivo l'estrazione automatica di schemi significativi da grandi quantità di dati. Un esempio di schemi che possono essere cercati sono raggruppamenti significativi dei dati, si parla in questo caso di clustering. Gli algoritmi di clustering tradizionali mostrano grossi limiti in caso di dataset ad alta dimensionalità, composti cioè da oggetti descritti da un numero consistente di attributi. Di fronte a queste tipologie di dataset è necessario quindi adottare una diversa metodologia di analisi: il subspace clustering. Il subspace clustering consiste nella visita del reticolo di tutti i possibili sottospazi alla ricerca di gruppi signicativi (cluster). Una ricerca di questo tipo è un'operazione particolarmente costosa dal punto di vista computazionale. Diverse ottimizzazioni sono state proposte al fine di rendere gli algoritmi di subspace clustering più efficienti. In questo lavoro di tesi si è affrontato il problema da un punto di vista diverso: l'utilizzo della parallelizzazione al fine di ridurre il costo computazionale di un algoritmo di subspace clustering.
Resumo:
Negli ultimi decenni le nuove scoperte mediche e il miglioramento dello stile di vita nei paesi occidentali hanno determinato un aumento del consumo di sostanze terapeutiche, nonché della gamma di prodotti farmaceutici e parafarmaceutici comunemente utilizzati. Gli studi di cinetica dei farmaci dimostrano con certezza che essi, seppur metabolizzati, mantengono inalterato il loro potere d’azione, rimanendo biodisponibili anche una volta escreti dall’organismo. A causa della loro eccessiva polarità tali molecole sono inoltre difficilmente trattenute dai convenzionali impianti di depurazione dei reflui urbani, dai quali confluiscono inevitabilmente verso le acque fluviali e/o costiere le quali risultano. In ragione di ciò, la valutazione degli effetti che la loro presenza può provocare sulla qualità dei sistemi di approvigionamento idrico e sulla biologia delle specie tipiche degli ecosistemi acquatici, ha classificato tali composti come una nuova classe di inquinanti emergenti, il cui impatto ambientale non risulta ancora del tutto arginato attraverso adeguate contromisure legislative. I farmaci sono sostanze bioattive progettate per avere effetti specifici a bassissime concentrazioni negli organismi target attraverso specifici meccanismi d’azione. Nel caso in cui i bersagli cellulari su cui agiscono siano evolutivamente conservati negli organismi non target, essi possono esercitare le proprie funzioni attraverso i medesimi meccanismi di regolazione fisiologica attivati nelle specie target, dando origine a effetti specifici, o anche aspecifici, nel caso in cui tali bersagli siano deputati alla regolazioni di funzioni differenti. Pertanto lo scopo del presente lavoro di tesi è stato quello di analizzare le possibili alterazioni di carattere fisiologico in individui di mitilo mediterraneo (Mytilus galloprovincialis) esposti a concentrazioni ambientali di fluoxetina, farmaco antidepressivo appartenente alla classe degli inibitori selettivi del riassorbimento presinaptico della serotonina (SSRI). Più nel dettaglio, a seguito di un’esposizione per 7 giorni a dosaggi compresi tra 0.03 e 300 ng/L di FX, sono stati analizzati i livelli intracellulari di AMPc e l’attività dell’enzima PKA nei diversi trattamenti sperimentali effettuati. Inoltre sono stati valutati i livelli di espressione genica del recettore serotoninergico 5HTmyt1 e della la P-glicoproteina (Pgp, gene ABCB1), trasportatore di membrana responsabile del sistema di detossificazione noto come Multi-xenobiotic resistance (MXR). Nella ghiandola digestiva, la FX causa una diminuzione statisticamente significativa dei livelli di AMPc, dell’attività della PKA e dell’espressione del gene ABCB1 rispetto al controllo. Al contrario nel mantello il farmaco non produce alterazioni dei livelli intracellulari di AMPc e dell’attività della PKA mentre si apprezza una sottoespressione del gene ABCB1 nei trattamenti a dosaggi intermedi. In entrambi i tessuti si nota un aumento dell’espressione genica di 5HTmyt1 alle minori concentrazioni di FX, mentre ai dosaggi più alti non si registrano alterazioni significative rispetto al controllo. Nel loro insieme i risultati indicano che nei mitili, concentrazioni ambientali di FX producono significative alterazioni di diversi parametri fisiologici attraverso una modulazione specifica dei medesimi bersagli molecolari coinvolti nella terapia umana. La riduzione dei livelli di AMPc/PKA apprezzata nella ghiandola digestiva risulta in linea con la funzione inibitoria svolta dal recettore 5HTmyt1 su tale via di trasduzione, mentre l’assenza di variazioni significative registrata nel mantello supporta l’ipotesi di un’interazione tra il sistema serotoninergico e catecolaminergico nella regolazione dei processi legati al ciclo riproduttivo che si verificano in tale tessuto. In conclusione, i dati dimostrano che l’espressione del gene codificante la proteina Pgp è regolata dalla FX attraverso uno specifico meccanismo d'azione AMPc-dipendente modulato dalla serotonina; tuttavia, è ipotizzabile anche un effetto non specifico indotto dalla FX stessa, per esempio attraverso l’induzione di stress ossidativo. Inoltre essi evidenziano la presenza di un meccanismo di regolazione retroattivo sulla espressione dei recettori 5HTmyt1 in funzione delle concentrazioni extracellulari di serotonina modulate dall’azione della FX.
Resumo:
Ho progettato un sistema semi automatico per il disimballo di bobine di film plastico formato da una rulliera motorizzata, una catenaria a denti di cane, un dispenser di euro pallet e una pinza end-effector. Inoltre mi sono concentrato sullo studio della logistica dei carrelli elevatori dell'azienda, producendo una mappatura dettagliata per individuare percorsi anomali o inefficienze. Prima di dedicarmi a modellazione 3D e calcoli, ho cercato di reperire più informazioni possibili che mi potessero aiutare ad ottenere un prodotto che rispondesse a tutte le specifiche richieste. Per individuare le caratteristiche progettuali su cui concentrarmi ho elaborato delle tabelle QFD, compilate assieme agli operatori addetti al disimballo, ottenendo così un’oggettiva priorità sulle funzioni necessarie. La progettazione ha portato ad un macchinario sicuramente competitivo che risponde a pieno alle funzioni richieste, nei tempi e nei modi dettati dall’azienda.
Resumo:
Il problema dell'antibiotico-resistenza è un problema di sanità pubblica per affrontare il quale è necessario un sistema di sorveglianza basato sulla raccolta e l'analisi dei dati epidemiologici di laboratorio. Il progetto di dottorato è consistito nello sviluppo di una applicazione web per la gestione di tali dati di antibiotico sensibilità di isolati clinici utilizzabile a livello di ospedale. Si è creata una piattaforma web associata a un database relazionale per avere un’applicazione dinamica che potesse essere aggiornata facilmente inserendo nuovi dati senza dover manualmente modificare le pagine HTML che compongono l’applicazione stessa. E’ stato utilizzato il database open-source MySQL in quanto presenta numerosi vantaggi: estremamente stabile, elevate prestazioni, supportato da una grande comunità online ed inoltre gratuito. Il contenuto dinamico dell’applicazione web deve essere generato da un linguaggio di programmazione tipo “scripting” che automatizzi operazioni di inserimento, modifica, cancellazione, visualizzazione di larghe quantità di dati. E’ stato scelto il PHP, linguaggio open-source sviluppato appositamente per la realizzazione di pagine web dinamiche, perfettamente utilizzabile con il database MySQL. E’ stata definita l’architettura del database creando le tabelle contenenti i dati e le relazioni tra di esse: le anagrafiche, i dati relativi ai campioni, microrganismi isolati e agli antibiogrammi con le categorie interpretative relative al dato antibiotico. Definite tabelle e relazioni del database è stato scritto il codice associato alle funzioni principali: inserimento manuale di antibiogrammi, importazione di antibiogrammi multipli provenienti da file esportati da strumenti automatizzati, modifica/eliminazione degli antibiogrammi precedenti inseriti nel sistema, analisi dei dati presenti nel database con tendenze e andamenti relativi alla prevalenza di specie microbiche e alla chemioresistenza degli stessi, corredate da grafici. Lo sviluppo ha incluso continui test delle funzioni via via implementate usando reali dati clinici e sono stati introdotti appositi controlli e l’introduzione di una semplice e pulita veste grafica.
Resumo:
In questa tesi vengono introdotte le idee chiave della moderna crittografia, presentato il cifrario perfetto one-time pad e mostrate le criticità che l’utilizzo di tale schema presenta. L’idea di schemi di cifratura matematicamente sicuri deve essere superata a favore di schemi computazionalmente sicuri. A questo proposito diventa cruciale il concetto di pseudocasualità: come la sicurezza computazionale è un indebolimento della sicurezza perfetta, così la pseudocasualità è un indebolimento della pura casualità. E' quindi necessario avere dei metodi per definire la bontà di un generatore pseudocasuale di numeri. Il National Institute of Standars and Technology fornisce alcuni criteri per caratterizzare e scegliere generatori appropriati sulla base di test statistici. Alcuni di questi test sono stati implementati all’interno del portale di apprendimento CrypTool sviluppato da alcune Università e centri di ricerca di Germania e Austria.
Osmosis Theme Park: piano per la rigenerazione urbana della ex discarica di Küçükçekmece ad Istanbul
Resumo:
Questa tesi di laurea nasce dall’approfondimento del progetto che abbiamo sviluppato nel laboratorio di progettazione architettonica frequentato presso la Middle East Technical University, METU, di Ankara, Turchia, durante l’anno accademico 2011-12. La prima parte del corso, tenuto dai professori S. Özkan e Z. Mennan, consisteva nello studio e analisi critica dei progetti in concorso per il bando “Istanbul Theme Park” e nella riproposizione, da presentare a gruppi, di uno dei masterplan studiati, con le modifiche ritenute necessarie a fronte delle considerazioni fatte e di nuove idee progettuali. Lo step successivo è stato quello di approfondire individualmente la progettazione architettonica di un area di almeno 100.000 mq in scala 1:500 e di un edificio in dettaglio 1:200. Date le tempistiche molto ridotte del corso, che si completava in tredici settimane, abbiamo scelto di continuare il lavoro e approfondire, con l’aiuto della prof.ssa V. Orioli e dell’arch. E. Brighi, l’elaborazione del masterplan arrivando ad una definizione maggiore di tutta l’area e non solamente delle aree di interesse approfondite durante la permanenza in Turchia. Il progetto presentato è quindi il frutto di un anno di lavoro sulla riqualificazione di un area di 150 ettari precedentemente adibita a discarica, situata nella parte occidentale di Istanbul. L’obiettivo che abbiamo perseguito è stato quello di ricreare nella periferia della metropoli turca uno stralcio di città con caratteri più “europei”, comprendendo in un solo grande ambito di progetto tutte le funzioni necessarie alla vita di un quartiere cittadino ma anche le grandi strutture attrattive richieste dal concorso. Durante il nostro percorso abbiamo cercato anche di non perdere di vista il contesto in cui lavoravamo e le abitudini della società turca con cui ci andavamo a confrontare. Nonostante la forte occidentalizzazione delle zone ricche delle grandi città come Istanbul, Ankara e Izmir, gli stili di vita europeo e turco sono fondamentalmente differenti e progettare una città, o uno stralcio di essa, per un popolo diverso necessita la conoscenza dei suoi valori fondamentali e delle abitudini che ne scandiscono le giornate.
Resumo:
Recenti analisi sull’intero trascrittoma hanno rivelato una estensiva trascrizione di RNA non codificanti (ncRNA), le quali funzioni sono tuttavia in gran parte sconosciute. In questo lavoro è stato dimostrato che alte dosi di camptotecina (CPT), un farmaco antitumorale inibitore della Top1, aumentano la trascrizione di due ncRNA antisenso in 5’ e 3’ (5'aHIF-1α e 3'aHIF-1α rispettivamente) al locus genico di HIF-1α e diminuiscono i livelli dell’mRNA di HIF-1α stesso. Gli effetti del trattamento sono Top1-dipendenti, mentre non dipendono dal danno al DNA alla forca di replicazione o dai checkpoint attivati dal danno al DNA. I ncRNA vengono attivati in risposta a diversi tipi di stress, il 5'aHIF-1α è lungo circa 10 kb e possiede sia il CAP in 5’ sia poliadenilazione in 3’ (in letteratura è noto che il 3'aHIF-1α è un trascritto di 1,7 kb, senza 5’CAP né poliadenilazione). Analisi di localizzazione intracellulare hanno dimostrato che entrambi sono trascritti nucleari. In particolare 5'aHIF-1α co-localizza con proteine del complesso del poro nucleare, suggerendo un suo possibile ruolo come mediatore degli scambi della membrana nucleare. È stata dimostrata inoltre la trascrizione dei due ncRNA in tessuti di tumore umano del rene, evidenziandone possibili ruoli nello sviluppo del cancro. È anche noto in letteratura che basse dosi di CPT in condizioni di ipossia diminuiscono i livelli di proteina di HIF-1α. Dopo aver dimostrato su diverse linee cellulari che i due ncRNA sopracitati non potessero essere implicati in tale effetto, abbiamo studiato le variazioni dell’intero miRnoma alle nuove condizioni sperimentali. In tal modo abbiamo scoperto che il miR-X sembra essere il mediatore molecolare dell’abbattimento di HIF-1α dopo trattamento con basse dosi di CPT in ipossia. Complessivamente, questi risultati suggeriscono che il fattore di trascrizione HIF-1α venga finemente regolato da RNA non-codificanti indotti da danno al DNA.
Resumo:
Le reti di oggetti intelligenti costituiscono una realtà che si sta affermando nel mondo quotidiano. Dispositivi capaci di comunicare tra loro, oltre che svolgere la propria funzione primaria, possono comporre una nuvola che faccia riferimento al legittimo proprietario. Un aspetto fondamentale di questo scenario riguarda la sicurezza, in particolar modo per garantire una comunicazione protetta. Il soddisfacimento di questo requisito è fondamentale anche per altri punti come l'integrità dell'informazione condivisa e l'autenticazione. Lo strumento più antico e tutt'ora adatto alla riservatezza di una comunicazione è costituito dalla crittografia. Una tecnica crittografica è schematicamente composta da un algoritmo che, a seconda di una chiave e del messaggio in ingresso, restituisce in uscita un messaggio cifrato, il crittogramma. Questo viene poi inviato e al legittimo destinatario che, essendo in possesso della chiave e dell'algoritmo, lo converte nel messaggio originale. L'obiettivo è rendere impossibile ad un utente malevolo - non dotato di chiave - la ricostruzione del messaggio. L'assunzione che l'algoritmo possa essere noto anche a terze parti concentra l'attenzione sul tema della chiave. La chiave deve essere sufficientemente lunga e casuale, ma soprattutto deve essere nota ai due utenti che intendono instaurare la comunicazione. Quest'ultimo problema, noto come distribuzione della chiave, è stato risolto con il sistema RSA a chiave pubblica. Il costo computazionale di questa tecnica, specialmente in un contesto di dispositivi non caratterizzati da grandi potenze di calcolo, suggerisce però la ricerca di strade alternative e meno onerose. Una soluzione promettente ed attualmente oggetto di studio sembra essere costituita dalle proprietà del canale wireless. Un ponte radio è caratterizzato da una funzione di trasferimento che dipende dall'ambiente in cui ci si trova e, per il teorema di reciprocità, risulta essere lo stesso per i due utenti che l'hanno instaurato. Oggetto della tesi è lo studio ed il confronto di alcune delle tecniche possibili per estrarre una chiave segreta da un mezzo condiviso, come quello del canale wireless. Si presenterà il contesto in cui verrà sviluppato l'elaborato. Si affronteranno in particolare due casi di interesse, costituiti dalla attuale tecnologia di propagazione del segnale a banda stretta (impiegata per la maggior parte delle trasmissioni senza fili) per passare a quella relativamente più recente della banda Ultra-larga (UWB). Verranno poi illustrate delle tecniche per ottenere stringhe di bit dai segnali acquisiti, e saranno proposti dei metodi per la loro correzione da eventuali discordanze. Saranno infine riportate le conclusioni sul lavoro svolto e le possibili strade future.