663 resultados para Tesi Architettura Costruire nel costruito riuso riutilizzo
Resumo:
Il termine cloud ha origine dal mondo delle telecomunicazioni quando i provider iniziarono ad utilizzare servizi basati su reti virtuali private (VPN) per la comunicazione dei dati. Il cloud computing ha a che fare con la computazione, il software, l’accesso ai dati e servizi di memorizzazione in modo tale che l’utente finale non abbia idea della posizione fisica dei dati e la configurazione del sistema in cui risiedono. Il cloud computing è un recente trend nel mondo IT che muove la computazione e i dati lontano dai desktop e dai pc portatili portandoli in larghi data centers. La definizione di cloud computing data dal NIST dice che il cloud computing è un modello che permette accesso di rete on-demand a un pool condiviso di risorse computazionali che può essere rapidamente utilizzato e rilasciato con sforzo di gestione ed interazione con il provider del servizio minimi. Con la proliferazione a larga scala di Internet nel mondo le applicazioni ora possono essere distribuite come servizi tramite Internet; come risultato, i costi complessivi di questi servizi vengono abbattuti. L’obbiettivo principale del cloud computing è utilizzare meglio risorse distribuite, combinarle assieme per raggiungere un throughput più elevato e risolvere problemi di computazione su larga scala. Le aziende che si appoggiano ai servizi cloud risparmiano su costi di infrastruttura e mantenimento di risorse computazionali poichè trasferiscono questo aspetto al provider; in questo modo le aziende si possono occupare esclusivamente del business di loro interesse. Mano a mano che il cloud computing diventa più popolare, vengono esposte preoccupazioni riguardo i problemi di sicurezza introdotti con l’utilizzo di questo nuovo modello. Le caratteristiche di questo nuovo modello di deployment differiscono ampiamente da quelle delle architetture tradizionali, e i meccanismi di sicurezza tradizionali risultano inefficienti o inutili. Il cloud computing offre molti benefici ma è anche più vulnerabile a minacce. Ci sono molte sfide e rischi nel cloud computing che aumentano la minaccia della compromissione dei dati. Queste preoccupazioni rendono le aziende restie dall’adoperare soluzioni di cloud computing, rallentandone la diffusione. Negli anni recenti molti sforzi sono andati nella ricerca sulla sicurezza degli ambienti cloud, sulla classificazione delle minacce e sull’analisi di rischio; purtroppo i problemi del cloud sono di vario livello e non esiste una soluzione univoca. Dopo aver presentato una breve introduzione sul cloud computing in generale, l’obiettivo di questo elaborato è quello di fornire una panoramica sulle vulnerabilità principali del modello cloud in base alle sue caratteristiche, per poi effettuare una analisi di rischio dal punto di vista del cliente riguardo l’utilizzo del cloud. In questo modo valutando i rischi e le opportunità un cliente deve decidere se adottare una soluzione di tipo cloud. Alla fine verrà presentato un framework che mira a risolvere un particolare problema, quello del traffico malevolo sulla rete cloud. L’elaborato è strutturato nel modo seguente: nel primo capitolo verrà data una panoramica del cloud computing, evidenziandone caratteristiche, architettura, modelli di servizio, modelli di deployment ed eventuali problemi riguardo il cloud. Nel secondo capitolo verrà data una introduzione alla sicurezza in ambito informatico per poi passare nello specifico alla sicurezza nel modello di cloud computing. Verranno considerate le vulnerabilità derivanti dalle tecnologie e dalle caratteristiche che enucleano il cloud, per poi passare ad una analisi dei rischi. I rischi sono di diversa natura, da quelli prettamente tecnologici a quelli derivanti da questioni legali o amministrative, fino a quelli non specifici al cloud ma che lo riguardano comunque. Per ogni rischio verranno elencati i beni afflitti in caso di attacco e verrà espresso un livello di rischio che va dal basso fino al molto alto. Ogni rischio dovrà essere messo in conto con le opportunità che l’aspetto da cui quel rischio nasce offre. Nell’ultimo capitolo verrà illustrato un framework per la protezione della rete interna del cloud, installando un Intrusion Detection System con pattern recognition e anomaly detection.
Resumo:
La crescente disponibilità di dispositivi meccanici e -soprattutto - elettronici le cui performance aumentano mentre il loro costo diminuisce, ha permesso al campo della robotica di compiere notevoli progressi. Tali progressi non sono stati fatti unicamente per ciò che riguarda la robotica per uso industriale, nelle catene di montaggio per esempio, ma anche per quella branca della robotica che comprende i robot autonomi domestici. Questi sistemi autonomi stanno diventando, per i suddetti motivi, sempre più pervasivi, ovvero sono immersi nello stesso ambiente nel quale vivono gli essere umani, e interagiscono con questi in maniera proattiva. Essi stanno compiendo quindi lo stesso percorso che hanno attraversato i personal computer all'incirca 30 anni fa, passando dall'essere costosi ed ingombranti mainframe a disposizione unicamente di enti di ricerca ed università, ad essere presenti all'interno di ogni abitazione, per un utilizzo non solo professionale ma anche di assistenza alle attività quotidiane o anche di intrattenimento. Per questi motivi la robotica è un campo dell'Information Technology che interessa sempre più tutti i tipi di programmatori software. Questa tesi analizza per prima cosa gli aspetti salienti della programmazione di controllori per robot autonomi (ovvero senza essere guidati da un utente), quindi, come l'approccio basato su agenti sia appropriato per la programmazione di questi sistemi. In particolare si mostrerà come un approccio ad agenti, utilizzando il linguaggio di programmazione Jason e quindi l'architettura BDI, sia una scelta significativa, dal momento che il modello sottostante a questo tipo di linguaggio è basato sul ragionamento pratico degli esseri umani (Human Practical Reasoning) e quindi è adatto alla implementazione di sistemi che agiscono in maniera autonoma. Dato che le possibilità di utilizzare un vero e proprio sistema autonomo per poter testare i controllori sono ridotte, per motivi pratici, economici e temporali, mostreremo come è facile e performante arrivare in maniera rapida ad un primo prototipo del robot tramite l'utilizzo del simulatore commerciale Webots. Il contributo portato da questa tesi include la possibilità di poter programmare un robot in maniera modulare e rapida per mezzo di poche linee di codice, in modo tale che l'aumento delle funzionalità di questo risulti un collo di bottiglia, come si verifica nella programmazione di questi sistemi tramite i classici linguaggi di programmazione imperativi. L'organizzazione di questa tesi prevede un capitolo di background nel quale vengono riportare le basi della robotica, della sua programmazione e degli strumenti atti allo scopo, un capitolo che riporta le nozioni di programmazione ad agenti, tramite il linguaggio Jason -quindi l'architettura BDI - e perché tale approccio è adatto alla programmazione di sistemi di controllo per la robotica. Successivamente viene presentata quella che è la struttura completa del nostro ambiente di lavoro software che comprende l'ambiente ad agenti e il simulatore, quindi nel successivo capitolo vengono mostrate quelle che sono le esplorazioni effettuate utilizzando Jason e un approccio classico (per mezzo di linguaggi classici), attraverso diversi casi di studio di crescente complessità; dopodiché, verrà effettuata una valutazione tra i due approcci analizzando i problemi e i vantaggi che comportano questi. Infine, la tesi terminerà con un capitolo di conclusioni e di riflessioni sulle possibili estensioni e lavori futuri.
Resumo:
Il Test di Risposta Termica (Thermal Response Test-TRT) (Mogenson,1983) è il test esistente con il più alto grado di accuratezza per la caratterizzazione del reservoir geotermico superficiale. Il test consiste in una simulazione in situ del funzionamento di un sistema a circuito chiuso di sfruttamento dell’energia geotermica, per un periodo limitato di tempo, attraverso l’iniezione o estrazione di calore a potenza costante all’interno del geo-scambiatore (Borehole Heat Exchanger-BHE). Dall’analisi della variazione delle temperature del fluido circolante, è possibile avere una stima delle proprietà termiche medie del volume del reservoir geotermico interessato dal test. Le grandezze principali per la caratterizzazione di un serbatoio geotermico sono la conduttività termica (λ), la capacità termica volumetrica (c), la temperatura indisturbata del suolo (Tg) e la resistenza termica del pozzo (Rb); la loro determinazione è necessaria per il corretto progettazione degli geo-scambiatori. I risultati del TRT sono tuttavia sensibili alle condizioni al contorno spazio-temporali quali ad es.: variazione della temperatura del terreno, movimento d’acqua di falda, condizioni metereologiche, eventi stagionali, ecc. Questo lavoro vuole: i) introdurre uno studio sui problemi di caratterizzazione del reservoir geotermico superficiale, in particolare analizzando l’effetto che il movimento d’acqua di falda ha sui parametri termici; ii) analizzare la sensitività dei risultati del test alle variabilità dei parametri caratteristici del funzionamento delle attrezzature. Parte del lavoro della mia tesi è stata svolta in azienda per un periodo di 4 mesi presso la “Groenholland Geo Energy systems” che ha sede ad Amsterdam in Olanda. Tre diversi esperimenti sono stati realizzati sullo stesso sito (stratigrafia nota del terreno: argilla, sabbia fine e sabbia grossa) usando una sonda profonda 30 metri e diversi pozzi per l’estrazione d’acqua e per monitorare gli effetti in prossimità del geo scambiatore. I risultati degli esperimenti sono stati molto diversi tra di loro, non solo in termini di dati registrati (temperature del fluido termovettore), ma in termini dei valori dei parametri ottenuti elaborando i dati. In particolare non è sufficiente adottare il modello classico della sorgente lineare infinita (Infinite Line Source Solution- ILS) (Ingersoll and Plass, 1948), il quale descrive il trasferimento di calore per conduzione in un mezzo omogeneo indefinito a temperatura costante. Infatti, lo scambio di calore avviene anche tramite convezione causata dal movimento d’acqua di falda, non identificabile mediante gli approcci classici tipo CUSUM test (Cumulative Sum test) (Brown e altri,1975) Lo studio della tesi vuole dare un quadro di riferimento per correlare la variabilità dei risultati con la variabilità delle condizioni al contorno. L’analisi integra le metodologie classiche (ILS) con un approccio geostatistico utile a comprendere i fenomeni e fluttuazioni che caratterizzano il test. Lo studio delle principali variabili e parametri del test, quali temperatura in ingresso e uscita del fluido termovettore, portata del fluido e potenza iniettata o estratta, è stato sviluppato mediante: il variogramma temporale, ovvero la semivarianza dell’accrescimento, che esprime il tipo di autocorrelazione temporale della variabile in esame; la covarianza incrociata temporale, ovvero la covarianza fra due variabili del sistema, che ne definisce quantitativamente il grado di correlazione in funzionamento del loro sfasamento temporale. L’approccio geostatistico proposto considera la temperatura del fluido Tf come una funzione aleatoria (FA) non stazionaria nel tempo (Chiles, 1999), il cui trend è formalmente definito, ma deve essere identificato numericamente. Si considera quindi un classico modello a residuo; in cui la FA è modellizzata come la somma di un termine deterministico, la media (il valore atteso) m(t),coincidente col modello descritto dalla teoria della sorgente lineare infinità, e di un termine aleatorio, la fluttuazione, Y(t). Le variabili portata e potenza sono invece considerate delle funzioni aleatorie stazionarie nel tempo, ovvero a media costante. Da questo studio di Tesi si sono raggiunte delle conclusioni molto importanti per lo studio del TRT: Confronto tra gli esperimenti in estrazione di calore, con e senza movimento d’acqua di falda: si studia l’effetto indotto dalla falda sul TRT. E’ possibile caratterizzare quantitativamente l’incremento della conducibilità termica equivalente legata a fenomeni convettivi dovuti al movimento d’acqua di falda. Inoltre, i variogrammi sperimentali evidenziano periodicità simili nei due casi e legate al funzionamento della pompa di calore e della componentistica associata ed alla circolazione del fluido termovettore all’interno della sonda. Tuttavia, la componente advettiva ha un effetto di smorzamento sulle piccole periodicità dei variogrammi, ma di aumento dell’ampiezza delle periodicità maggiori a causa del funzionamento della pompa di calore che deve fornire maggiore energia al sistema per bilanciare le dispersioni dovute al movimento d’acqua di falda. Confronto fra estrazione ed iniezione di calore, con movimento d’acqua di falda: si studia la significatività dei risultati nei due casi. L’analisi delle variografie evidenzia significative differenze nella struttura dei variogrammi sperimentali. In particolare, nel test con iniezione di calore i variogrammi sperimentali delle temperature hanno valori sistematicamente inferiori, circostanza che assicura una migliore precisione nella stima dei parametri termici. Quindi eseguire il TRT in iniezione di calore risulta più preciso. Dall’analisi dei variogrammi sperimentali delle singole variabili quali temperatura del fluido in ingresso e uscita all’interno del geoscambiatore è stato confermato il fenomeno di smorzamento delle oscillazioni da parte del terreno. Dall’analisi delle singole variabili del test (temperature, potenza, portata) è stata confermata l’indipendenza temporale fra portate e temperature. Ciò è evidenziato dalle diverse strutture dei variogrammi diretti e dalle covarianze incrociate prossime a zero. Mediante correlogrami è stato dimostrato la possibilità di calcolare il tempo impiegato dal fluido termovettore per circolare all’interno della sonda. L’analisi geostatistica ha permesso quindi di studiare in dettaglio la sensitività dei risultati del TRT alle diverse condizioni al contorno, quelle legate al reservoir e quelle legate al funzionamento delle attrezzature
Resumo:
Negli ultimi anni la ricerca ha fatto grandi passi avanti riguardo ai metodi di progetto e realizzazione delle strutture portanti degli edifici, a tal punto da renderle fortemente sicure sotto tutti i punti di vista. La nuova frontiera della ricerca sta quindi virando su aspetti che non erano mai stati in primo piano finora: gli elementi non-strutturali. Considerati fino ad oggi semplicemente carico accessorio, ci si rende sempre più conto della loro capacità di influire sui comportamenti delle strutture e sulla sicurezza di chi le occupa. Da qui nasce l’esigenza di questo grande progetto chiamato BNCs (Building Non-structural Component System), ideato dall’Università della California - San Diego e sponsorizzato dalle maggiori industrie impegnate nel campo delle costruzioni. Questo progetto, a cui ho preso parte, ha effettuato test su tavola vibrante di un edificio di cinque piani in scala reale, completamente arredato ed allestito dei più svariati elementi non-strutturali. Lo scopo della tesi in questione, ovviamente, riguarda l’identificazione strutturale e la verifica della sicurezza di uno di questi elementi non-strutturali: precisamente la torre di raffreddamento posta sul tetto dell’edificio (del peso di circa 3 tonnellate). Partendo da una verifica delle regole e calcoli di progetto, si è passato ad una fase di test sismici ed ispezioni post-test della torre stessa, infine tramite l’analisi dei dati raccolti durante i test e si è arrivati alla stesura di conclusioni.
Resumo:
Nel presente elaborato è trattato l'innesco di un sistema di recupero ambientale di energia da sorgenti a radiofrequenza, captate tramite rectenna, nell'ambito di un sistema completamente autonomo dal punto di vista energetico, quindi non dotato di batteria ricaricabile interna. Dopo un'analisi dei problemi da affrontare e delle possibili soluzioni tecniche per gestire le micropotenze restituite dalla rectenna, ci si concentra in modo preferenziale sul ruolo del condensatore posto sulla porta d'ingresso dell'oscillatore di Meissner, che è utilizzato come elevatore di tensione per attivare gli stadi successivi. Sfruttando le esperienze con lo stesso oscillatore pilotato da altri sensori di energy harvesting, è possibile determinare approssimativamente se il circuito si presta o meno all'utilizzo con le rectenne nei campi RF, suggerendo eventuali migliorie da apportare per facilitarne il funzionamento.
Resumo:
La prima parte del lavoro è stata dedicata a definire il contesto legislativo in cui si colloca la pianificazione d’emergenza per il trasporto di sostanze pericolose. Dopo una breve introduzione riguardante le direttive Seveso ed il loro recepimento in Italia e in Belgio, è stato effettuato un confronto tra le normative dei due Paesi, con specifico riferimento all’aspetto della pianificazione d’emergenza. Successivamente si è messa in luce l’attualità del tema degli incidenti che hanno origine durante la fase del trasporto delle sostanze pericolose, sia analizzando alcuni verificatisi negli ultimi anni in Europa, sia descrivendo le norme che regolamentano il trasporto di questa tipologia di merci. Tali norme non forniscono informazioni per gestire una situazione d’emergenza che potrebbe verificarsi durante il trasporto e non impongono la predisposizione di piani d’emergenza specifici per quest’attività. E’ proprio alla luce di questa considerazione che, tramite il presente elaborato di tesi, si è voluta mettere in evidenza l’importanza di definire un approccio metodologico a carattere generale per la pianificazione d’emergenza nel trasporto delle sostanze pericolose. Nello specifico, la metodologia utilizzata in Belgio per la pianificazione d’emergenza nell’intorno degli stabilimenti (che rappresentano delle sorgentidi rischio puntiformi) è stata estesa alle linee di trasporto (che rappresentano delle sorgenti di rischio lineari); la descrizione di questa estensione rappresenta la parte più importante e corposa dell’elaborato. Nella parte finale del lavoro la metodologia per la pianificazione d’emergenza nel trasporto è stata applicata ad un caso di studio reale, costituito da uno stabilimento della Polyol Belgium ; in particolare si sono considerati il percorso stradale e la linea ferroviaria tramite cui le materie prime (sostanze infiammabili e tossiche) arrivano all’azienda. GIANFRANCO PUSTORINO Pagina 2 L’applicazione al caso di studio ha confermato la validità della metodologia proposta. Il lavoro effettuato ha evidenziato come sia necessario colmare la lacuna legislativa che vi è in merito alla valutazione del rischio ed alla pianificazione d’emergenza nel trasporto delle sostanze pericolose ; una legislazione specifica a riguardo ridurrebbesenza dubbio l’impatto degli incidenti durante il trasporto sulla popolazione, sull’ambiente e sui beni materiali.
Resumo:
L’attenzione dei pochi automobilisti che oggi passano velocemente per via Cavalli, nella frazione di Santa Maria Nuova, sotto il comune di Bertinoro (FC), non viene attirata dal palazzo settecentesco seminascosto dalla vegetazione che cresce incolta. L’edificio potrebbe passare per un casolare di campagna abbandonato, senza alcuna pretesa di bellezza, mutilato dei suoi terreni. Solo salendo lo scalone dissestato si può scoprire la ricchezza delle decorazione interne, stucchi baroccheggianti con maschere di volti provenienti da terre lontane e abbondanti cornucopie che circondano lo stemma della famiglia Cavalli. La piccola cappella della villa, in perfetto stato di conservazione, mostra, con un trionfo di stucchi, l’assunzione della Vergine al cielo, osservata dai santi Pietro e Paolo. Le quattro stanze centrali del piano nobile sono finemente dipinte con paesaggi marini e lacustri, stanze sepolcrali egizie e atrii di templi antichi. La ravennate famiglia dei marchesi Cavalli, una delle più ricche della zona nel XVIII e XIX secolo, utilizzava la villa come luogo di villeggiatura e come casino per la caccia. Testimonianze della loro presenza sono conservate nelle mappe storiche all’Archivio del Comune di Bertinoro e nell’Archivio parrocchiale di Santa Maria Nuova, dove si trovano descrizioni della ricchezza sia dell’edificio che delle terre possedute dai marchesi. Il complesso di villa Cavalli ha subito numerosi passaggi di proprietà dal 1900 ad oggi, è stato utilizzato come magazzino, pollaio, essiccatoio per il tabacco e le sue proprietà sono state frazionate fino a ridursi al piccolo parco presente oggi. Poiché gli attuali proprietari non possono garantire né la manutenzione ordinaria né quella straordinaria e il complesso è tutelato dal D. Lgs. 42/2004 Codice dei Beni Culturali e del Paesaggio è stato messo all’asta per tre volte, l’ultima nel dicembre 2011, senza risultato. La tesi sviluppa un’analisi dello stato di fatto della villa e del parco, partendo dal suo inserimento nel territorio fino allo studio dei dettagli costruttivi, per giungere ad un’ipotesi di progetto che vede il complesso strettamente legato a Santa Maria Nuova e alla sua gente. L’edificio fungerà da centro culturale, con mostre permanenti e temporanee, laboratori didattici, ludoteca per bambini e ospiterà la sede distaccata della biblioteca del comune di Bertinoro, ora inserita in un edificio di Santa Maria Nuova ma con dimensioni estremamente limitate. Si intendono effettuare interventi di consolidamento strutturale su tutti i solai della villa, su volte e copertura, con un atteggiamento di delicatezza verso il piano nobile, agendo dal piano inferiore e da quello superiore. Capitoli specifici trattano il restauro delle finiture e delle superfici dipinte e stuccate, per finire con l’intervento di adeguamento impiantistico e di valorizzazione del parco.
Resumo:
Gli impianti di depurazione rappresentano, nei contesti urbani, elementi di imprescindibile importanza nell’ambito di una corretta gestione e tutela della risorsa idrica e dell’ambiente. Il crescente grado di antropizzazione delle aree urbanizzate e parallelamente le sempre minori disponibilità in termini di spazi utilizzabili a fini depurativi comportano sempre di più la necessità di ottimizzare i processi di dimensionamento degli impianti. Inoltre, l’obiettivo di aumentare l’efficienza del ciclo depurativo andando a minimizzare i costi correlati alla gestione degli stessi indirizza verso una omogeneizzazione nei criteri di dimensionamento adottati. In questo senso, la normativa tecnica di settore risulta carente, andandosi a concentrare prevalentemente sul rispetto di fissati standard ambientali senza però fornire indicazioni precise sui criteri di progettazione da adottare per perseguire tali standard. La letteratura scientifica pur indicando range di possibili valori di riferimento da adottare, nel dimensionamento degli impianti, lascia un ampio margine di discrezionalità al progettista. La presente tesi si pone pertanto, a partire da tali valori di letteratura, di andare a definire da un lato le caratteristiche quali-quantitative del refluo in ingresso e dall’altro i valori di riferimento da adottare in sede di progettazione per perseguire gli obiettivi precedentemente indicati. La prima parte, di valenza generale, oltre alla caratterizzazione dell’influente descrive nel dettaglio le diverse fasi del processo e il loro dimensionamento che in tutte le sezioni, ad eccezione del biologico, viene effettuato attraverso equazioni semplificate mettendo a confronto e analizzando i parametri progettuali proposti da letteratura. Per quanto riguarda il comparto biologico la maggior complessità del fenomeno da descrivere rende difficile la valutazione delle grandezze che caratterizzano il funzionamento mediante l’utilizzo di equazioni semplificate. Per questo si è deciso di modellare questo comparto, unito a quello della sedimentazione, attraverso un software (WEST) che permette non solo di simulare il processo ma anche, attraverso le analisi di scenario, di determinare quelli che sono i valori progettuali puntuali che consentono di ottenere da un lato una minimizzazione dei costi dell’impianto, sia costruttivi che gestionali, e dall’altro la massimizzazione delle rese depurative. Nello specifico si è fatto riferimento ad impianto fanghi attivi a schema semplificato con potenzialità fissata pari a 10000 AE. Il confronto con i dati di esercizio di alcuni impianti di analoga tipologia ha evidenziato che una buona capacità dello strumento di modellazione utilizzato di descrivere i processi. E’ possibile quindi concludere che tali strumenti, affiancati ad una lettura critica dei risultati ottenuti possono essere ottimi strumenti di supporto sia in fase di progettazione che in prospettiva di gestione dell’impianto al fine di ottimizzare i processi e quindi i costi.
Resumo:
Negli ultimi decenni le nuove scoperte mediche e il miglioramento dello stile di vita nei paesi occidentali hanno determinato un aumento del consumo di sostanze terapeutiche, nonché della gamma di prodotti farmaceutici e parafarmaceutici comunemente utilizzati. Gli studi di cinetica dei farmaci dimostrano con certezza che essi, seppur metabolizzati, mantengono inalterato il loro potere d’azione, rimanendo biodisponibili anche una volta escreti dall’organismo. A causa della loro eccessiva polarità tali molecole sono inoltre difficilmente trattenute dai convenzionali impianti di depurazione dei reflui urbani, dai quali confluiscono inevitabilmente verso le acque fluviali e/o costiere le quali risultano. In ragione di ciò, la valutazione degli effetti che la loro presenza può provocare sulla qualità dei sistemi di approvigionamento idrico e sulla biologia delle specie tipiche degli ecosistemi acquatici, ha classificato tali composti come una nuova classe di inquinanti emergenti, il cui impatto ambientale non risulta ancora del tutto arginato attraverso adeguate contromisure legislative. I farmaci sono sostanze bioattive progettate per avere effetti specifici a bassissime concentrazioni negli organismi target attraverso specifici meccanismi d’azione. Nel caso in cui i bersagli cellulari su cui agiscono siano evolutivamente conservati negli organismi non target, essi possono esercitare le proprie funzioni attraverso i medesimi meccanismi di regolazione fisiologica attivati nelle specie target, dando origine a effetti specifici, o anche aspecifici, nel caso in cui tali bersagli siano deputati alla regolazioni di funzioni differenti. Pertanto lo scopo del presente lavoro di tesi è stato quello di analizzare le possibili alterazioni di carattere fisiologico in individui di mitilo mediterraneo (Mytilus galloprovincialis) esposti a concentrazioni ambientali di fluoxetina, farmaco antidepressivo appartenente alla classe degli inibitori selettivi del riassorbimento presinaptico della serotonina (SSRI). Più nel dettaglio, a seguito di un’esposizione per 7 giorni a dosaggi compresi tra 0.03 e 300 ng/L di FX, sono stati analizzati i livelli intracellulari di AMPc e l’attività dell’enzima PKA nei diversi trattamenti sperimentali effettuati. Inoltre sono stati valutati i livelli di espressione genica del recettore serotoninergico 5HTmyt1 e della la P-glicoproteina (Pgp, gene ABCB1), trasportatore di membrana responsabile del sistema di detossificazione noto come Multi-xenobiotic resistance (MXR). Nella ghiandola digestiva, la FX causa una diminuzione statisticamente significativa dei livelli di AMPc, dell’attività della PKA e dell’espressione del gene ABCB1 rispetto al controllo. Al contrario nel mantello il farmaco non produce alterazioni dei livelli intracellulari di AMPc e dell’attività della PKA mentre si apprezza una sottoespressione del gene ABCB1 nei trattamenti a dosaggi intermedi. In entrambi i tessuti si nota un aumento dell’espressione genica di 5HTmyt1 alle minori concentrazioni di FX, mentre ai dosaggi più alti non si registrano alterazioni significative rispetto al controllo. Nel loro insieme i risultati indicano che nei mitili, concentrazioni ambientali di FX producono significative alterazioni di diversi parametri fisiologici attraverso una modulazione specifica dei medesimi bersagli molecolari coinvolti nella terapia umana. La riduzione dei livelli di AMPc/PKA apprezzata nella ghiandola digestiva risulta in linea con la funzione inibitoria svolta dal recettore 5HTmyt1 su tale via di trasduzione, mentre l’assenza di variazioni significative registrata nel mantello supporta l’ipotesi di un’interazione tra il sistema serotoninergico e catecolaminergico nella regolazione dei processi legati al ciclo riproduttivo che si verificano in tale tessuto. In conclusione, i dati dimostrano che l’espressione del gene codificante la proteina Pgp è regolata dalla FX attraverso uno specifico meccanismo d'azione AMPc-dipendente modulato dalla serotonina; tuttavia, è ipotizzabile anche un effetto non specifico indotto dalla FX stessa, per esempio attraverso l’induzione di stress ossidativo. Inoltre essi evidenziano la presenza di un meccanismo di regolazione retroattivo sulla espressione dei recettori 5HTmyt1 in funzione delle concentrazioni extracellulari di serotonina modulate dall’azione della FX.
Resumo:
Background: l’epilessia è una malattia cerebrale che colpisce oggigiorno circa l’1% della popolazione mondiale e causa, a chi ne soffre, convulsioni ricorrenti e improvvise che danneggiano la vita quotidiana del paziente. Le convulsioni sono degli eventi che bloccano istantaneamente la normale attività cerebrale; inoltre differiscono tra i pazienti e, perciò, non esiste un trattamento comune generalizzato. Solitamente, medici neurologi somministrano farmaci, e, in rari casi, l’epilessia è trattata con operazioni neurochirurgiche. Tuttavia, le operazioni hanno effetti positivi nel ridurre le crisi, ma raramente riescono a eliminarle del tutto. Negli ultimi anni, nel campo della ricerca scientifica è stato provato che il segnale EEG contiene informazioni utili per diagnosticare l'arrivo di un attacco epilettico. Inoltre, diversi algoritmi automatici sono stati sviluppati per rilevare automaticamente le crisi epilettiche. Scopo: lo scopo finale di questa ricerca è l'applicabilità e l'affidabilità di un dispositivo automatico portatile in grado di rilevare le convulsioni e utilizzabile come sistema di monitoraggio. L’analisi condotta in questo progetto, è eseguita con tecniche di misure classiche e avanzate, in modo tale da provare tecnicamente l’affidabilità di un tale sistema. La comparazione è stata eseguita sui segnali elettroencefalografici utilizzando due diversi sistemi di acquisizione EEG: il metodo standard utilizzato nelle cliniche e il nuovo dispositivo portatile. Metodi: è necessaria una solida validazione dei segnali EEG registrati con il nuovo dispositivo. I segnali saranno trattati con tecniche classiche e avanzate. Dopo le operazioni di pulizia e allineamento, verrà utilizzato un nuovo metodo di rappresentazione e confronto di segnali : Bump model. In questa tesi il metodo citato verrà ampiamente descritto, testato, validato e adattato alle esigenze del progetto. Questo modello è definito come un approccio economico per la mappatura spazio-frequenziale di wavelet; in particolare, saranno presenti solo gli eventi con un’alta quantità di energia. Risultati: il modello Bump è stato implementato come toolbox su MATLAB dallo sviluppatore F. Vialatte, e migliorato dall’Autore per l’utilizzo di registrazioni EEG da sistemi diversi. Il metodo è validato con segnali artificiali al fine di garantire l’affidabilità, inoltre, è utilizzato su segnali EEG processati e allineati, che contengono eventi epilettici. Questo serve per rilevare la somiglianza dei due sistemi di acquisizione. Conclusioni: i risultati visivi garantiscono la somiglianza tra i due sistemi, questa differenza la si può notare specialmente comparando i grafici di attività background EEG e quelli di artefatti o eventi epilettici. Bump model è uno strumento affidabile per questa applicazione, e potrebbe essere utilizzato anche per lavori futuri (ad esempio utilizzare il metodo di Sincronicità Eventi Stocas- tici SES) o differenti applicazioni, così come le informazioni estratte dai Bump model potrebbero servire come input per misure di sincronicità, dalle quali estrarre utili risultati.
Resumo:
TuCSoN (Tuple Centres Spread over the Network) è un modello di coordinazione per processi distribuiti o agenti autonomi. Il modello di TuCSoN viene implementato come un middleware distribuito Java-based, distribuito Open Source sotto la licenza LGPL tramite Googlecode. Il fatto che lo stesso sia Open Source e Java-based ha reso possibile il suo porting su Android, rendendo il noto sistema operativo di Google un possibile agente partecipante ad un sistema TuCSoN. La tesi descrive il percorso che ha portato dallo studio dell'infrastruttura TuCSoN e del sistema Android alla realizzazione dell'applicazione Android, rendendo possibile a qualsiasi dispositivo Android di partecipare ad un sistema TuCSoN. Nel particolare l'obiettivo finale dell'applicazione Android, e di questa tesi, è rendere lo smartphone un nodo TuCSoN funzionante. La tesi non si pone l'obiettivo di analizzare ed esplorare le funzionalità e le possibilitàa delle due tecnologie principali trattate (Android e TuCSoN) nel loro singolo, quanto quello di esplorare le criticità che un porting di questo tipo comporta, quali ad esempio le differenze intrinseche fra la JVM e la DalvikVM e come aggirarle, o le funzionalità di Android e come utilizzarle allo scopo di realizzare un applicazione che funga da server ad una infra- struttura distribuita, oppure le differenze a livello di gestione della GUI fra Android e plain-java, e di analizzare le soluzioni trovate per risolvere (o dove non era possibile risolvere evitare) tali problemi al fine del raggiungimento dell'obiettivo che ci si era prefissati.