974 resultados para sistemi precipitantiradar polarimetricodisdrometroidrometeorenubi convettive


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il lavoro di tesi di dottorato, dal titolo “Turismo religioso: percorsi culturali-religiosi come leva di sviluppo territoriale”, ha preso in esame in particolare il tema dei percorsi culturali/religiosi, considerati “strategici” in una prospettiva di ricomposizione territoriale e di sviluppo locale, e considerati importanti per la promozione di nuovi flussi turistici e valorizzazione delle risorse storiche, artistiche e culturali del Salento leccese. Il lavoro di tesi affronta il tema del turismo culturale legato all’offerta del bene religioso inteso come potenziale fattore di attrazione turistica ed importante risorsa per lo sviluppo sostenibile del territorio. L’attenzione a santuari e luoghi di culto costituisce, infatti, una valida occasione di interesse per le opere d'arte in essi presenti, e rappresenta anche una possibilità di conoscenza del territorio in cui essi insistono, diventando la destinazione di un turismo colto e di qualità. Il lavoro di tesi, si propone di dimostrare come l’attenzione al motivo religioso creando mobilità, flussi di popolazione, di turisti possa diventare occasione di promozione del prodotto locale, mettendo a sistema tutte le risorse economiche presenti nel territorio. Più in dettaglio, dopo un iniziale approccio teorico al concetto di turismo culturale, turismo religioso e marketing territoriale, esso analizza lo stato dell’arte nel territorio provinciale leccese, individuando possibili itinerari turistico-religiosi nel Salento leccese rapportati ai “Cammini d’Europa”. Si propone l’itinerario turistico - e, in particolare, a quello Leucadense, noto come la “via della Perdonanza di Leuca”, che segue la via dei pellegrinaggi medioevali che si suffragavano di luoghi di sosta in chiese e cappelle dedicate alla Vergine Maria - come strumento verso cui si orientano le recenti strategie di competitività territoriale, definibile come uno strumento d’offerta turistica che mira a valorizzare elementi-risorse del territorio. Si tratta di percorsi utili a promuovere un prodotto competitivo, che presuppone l’enucleazione dell’offerta turistica locale integrata e la costruzione intorno ad essi di un territorio dotato di infrastrutture, ricettività, politiche dell’accoglienza, valorizzazione e fruizione del patrimonio culturale materiale, immateriale ed ambientale. Non mancano nel lavoro preoccupazioni legate alla sostenibilità di un tipo di turismo, che, se di massa (come è il caso delle visite al santuario di San Pio a San Giovanni Rotondo), produce gravi pressioni sull’ambiente e perciò necessita un forte impegno in termini di pubblicità, pianificazione investimenti e presume un’opportuna programmazione da parte degli enti locali in termini di offerta ricettiva, ristorativa e dotazione di infrastrutture. La coerenza degli interventi che promuovono il prodotto religioso non può prescindere da un’integrazione orizzontale tra il sistema territoriale (ambiente, paesaggio, sistemi socio-produttivi) e gli attori locali coinvolti, ai fini di un processo di valorizzazione del patrimonio culturale che produce sviluppo locale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Oggetto di studio del dottorato sono stati i suoli forestali in ambiente litoraneo della Regione Emilia-Romagna. In particolare sono state considerate quattro zone di studio in Provincia di Ravenna: Pineta di San Vitale, aree boscate di Bellocchio, Pineta di Classe e Pineta di Pinarella di Cervia. Lo studio in una prima fase si è articolato nella definizione dello stato del sistema suolo, mediante la caratterizzazione pedologica delle zone di studio. A tale scopo è stata messa a punto un’adeguata metodologia d’indagine costituita da un’indagine ambientale e successivamente da un’indagine pedologica. L’indagine ambientale, mediante fotointerpretazione ed elaborazione di livelli informativi in ambito GIS, ha permesso di individuare ambiti pedogenetici omogenei. L’indagine pedologica in campo ha messo in luce l’elevata variabilità spaziale di alcuni fattori della pedogenesi, in particolar modo l’andamento microtopografico tipico dei sistemi dunali costieri e la profondità della falda freatica del piano campagna. Complessivamente sono stati aperti descritti e campionati 40 profili pedologici. Sugli orizzonti diagnostici di questi sono state eseguite le seguenti analisi: tessitura, pH, calcare totale, carbonio organico, azoto kjeldahl, conduttività elettrica (CE), capacità di scambio cationico (CSC) e calcare attivo. I suoli presentano, ad eccezione della tessitura (generalmente grossolana), un’elevata variabilità delle proprietà chimico fisiche in funzione della morfologia, della profondità e della vicinanza della falda freatica. Sono state riscontrate diverse correlazioni, tra le più significative quelle tra carbonio organico e calcare totale (coeff. di correlazione R = -0.805 per Pineta di Classe) e tra calcare totale e pH (R = 0.736), dalle quali si è compreso in che misura l’effetto della decarbonatazione agisce nei diversi ambiti pedogenetici e tra suoli con diversa età di formazione. Il calcare totale varia da 0 a oltre 400 g.kg-1 e aumenta dalla superficie in profondità, dall’entroterra verso la costa e da nord verso sud. Il carbonio organico, estremamente variabile (0.1 - 107 g.kg-1), è concentrato soprattutto nel primo orizzonte superficiale. Il rapporto C/N (>10 in superficie e molto variabile in profondità) evidenzia una efficienza di umificazione non sempre ottimale specialmente negli orizzonti prossimi alla falda freatica. I tipi di suoli presenti, classificati secondo la Soil Taxonomy, sono risultati essere Mollic/Sodic/Typic Psammaquents nelle zone interdunali, Typic Ustipsamments sulle sommità dunali e Oxiaquic/Aquic Ustipsamments negli ambienti morfologici intermedi. Come sintesi della caratterizzazione pedologica sono state prodotte due carte dei suoli, rispettivamente per Pineta di San Vitale (scala 1:20000) e per le aree boscate di Bellocchio (scala 1:10000), rappresentanti la distribuzione dei pedotipi osservati. In una seconda fase si è focalizzata l’attenzione sugli impatti che le principali pressioni naturali ed antropiche, possono esercitare sul suolo, condizionandone la qualità in virtù delle esigenze del soprasuolo forestale. Si è scelta la zona sud di Pineta San Vitale come area campione per monitorarne mensilmente, su quattro siti rappresentativi, le principali caratteristiche chimico-fisiche dei suoli e delle acque di falda, onde evidenziare possibili correlazioni. Le principali determinazioni svolte sia nel suolo in pasta satura che nelle acque di falda hanno riguardato CE, Ca2+, Mg2+, K+, Na+, Cl-, SO4 2-, HCO3 - e SAR (Sodium Adsorption Ratio). Per ogni sito indagato sono emersi andamenti diversi dei vari parametri lungo i profili, correlabili in diversa misura tra di loro. Si sono osservati forti trend di aumento di CE e degli ioni solubili verso gli orizzonti profondi in profili con acqua di falda più salina (19 – 28 dS.m-1) e profonda (1 – 1.6 m dalla superficie), mentre molto significativi sono apparsi gli accumuli di sali in superficie nei mesi estivi (CE in pasta satura da 17.6 a 28.2 dS.m-1) nei profili con falda a meno di 50 cm dalla superficie. Si è messo successivamente in relazione la CE nel suolo con diversi parametri ambientali più facilmente monitorabili quali profondità e CE di falda, temperatura e precipitazioni, onde trovarne una relazione statistica. Dai dati di tre dei quattro siti monitorati è stato possibile definire tali relazioni con equazioni di regressione lineare a più variabili. Si è cercato poi di estendere l’estrapolabilità della CE del suolo per tutte le altre casistiche possibili di Pineta San Vitale mediante la formulazione di un modello empirico. I dati relativi alla CE nel suolo sia reali che estrapolati dal modello, sono stati messi in relazione con le esigenze di alcune specie forestali presenti nelle zone di studio e con diverso grado di tolleranza alla salinità ed al livello di umidità nel suolo. Da tali confronti è emerso che per alcune specie moderatamente tolleranti la salinità (Pinus pinea, Pinus pinaster e Juniperus communis) le condizioni critiche allo sviluppo e alla sopravvivenza sono da ricondursi, per la maggior parte dei casi, alla falda non abbastanza profonda e non tanto alla salinità che essa trasmette sull’intero profilo del suolo. Per altre specie quali Quercus robur, Populus alba, Fraxinus oxycarpa e Ulmus minor moderatamente sensibili alla salinità, ma abituate a vivere in suoli più umidi, la salinità di una falda troppo prossima alla superficie può ripercuotersi su tutto il profilo e generare condizioni critiche di sviluppo. Nei suoli di Pineta San Vitale sono stati inoltre studiati gli aspetti relativi all’inquinamento da accumulo di alcuni microtossici nei suoli quali Ag, Cd, Ni e Pb. In alcuni punti di rilievo sono stati osservati moderati fattori di arricchimento superficiale per Pb e Cd riconducibili all’attività antropica, mentre le aliquote biodisponibili risultano maggiori in superficie, ma all’interno dei valori medi dei suoli italiani. Lo studio svolto ha permesso di meglio conoscere gli impatti sul suolo, causati dalle principali pressioni esistenti, in un contesto dinamico. In particolare, si è constatato come i suoli delle zone studiate abbiano un effetto tampone piuttosto ridotto sulla mitigazione degli effetti indotti dalle pressioni esterne prese in esame (salinizzazione, sodicizzazione e innalzamento della falda freatica). Questo è dovuto principalmente alla ridotta presenza di scambiatori sulla matrice solida atti a mantenere un equilibrio dinamico con le frazioni solubili. Infine le variabili ambientali considerate sono state inserite in un modello concettuale DPSIR (Driving forces, Pressures, States, Impacts, Responces) dove sono stati prospettati, in via qualitativa, alcuni scenari in funzione di possibili risposte gestionali verosimilmente attuabili, al fine di modificare le pressioni che insistono sul sistema suolo-vegetazione delle pinete ravennati.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Con questo lavoro di tesi si è cercato da un lato di dare un contributo al settore dei sensori chimici, caratterizzando e sviluppando diversi sistemi che presentano promettenti proprietà per l’utilizzo nella realizzazione di sensori luminescenti, e dall’altro di studiare sistemi di nanoparticelle di oro per identificarne e caratterizzarne i processi che portano all’interazione con un’unità fluorescente di riferimento, il pirene. Quest’ultima parte della tesi, sviluppata nel capitolo 4, sebbene possa apparire “slegata” dall’ambito della sensoristica, in realtà non lo è in quanto il lavoro di ricerca svolto rappresenta una buona base di partenza per lo sviluppo di sistemi di nanoparticelle metalliche con un possibile impiego in campo biomedico e diagnostico. Tutte le specie studiate, seppur molto diverse tra loro, posseggono quindi buone caratteristiche di luminescenza ed interessanti capacità di riconoscimento, più o meno selettivo, di specie in soluzione o allo stato gassoso. L’approccio generale che è stato adottato comporta una iniziale caratterizzazione in soluzione ed una susseguente ottimizzazione del sistema mirata a passare al fissaggio su supporti solidi in vista di possibili applicazioni pratiche. A tal proposito, nel capitolo 3 è stato possibile ottenere un monostrato organico costituito da un recettore (un cavitando), dotato di una parte fluorescente le cui proprietà di luminescenza sono sensibili alla presenza di una funzione chimica che caratterizza una classe di analiti, gli alcoli. E’ interessante sottolineare come lo stesso sistema in soluzione si comporti in maniera sostanzialmente differente, mostrando una capacità di segnalare l’analita molto meno efficiente, anche in funzione di una diversa orientazione della parte fluorescente. All’interfaccia solido-gas invece, l’orientamento del fluoroforo gioca un ruolo chiave nel processo di riconoscimento, e ottimizzando ulteriormente il setup sperimentale e la composizione dello strato, sarà possibile arrivare a segnalare quantità di analita sempre più basse. Nel capitolo 5 invece, è stato preso in esame un sistema le cui potenzialità, per un utilizzo come sonda fluorescente nel campo delle superfici di silicio, sembra promettere molto bene. A tal proposito sono stati discussi anche i risultati del lavoro che ha fornito l’idea per la concezione di questo sistema che, a breve, verrà implementato a sua volta su superficie solida. In conclusione, le ricerche descritte in questa tesi hanno quindi contribuito allo sviluppo di nuovi chemosensori, cercando di migliorare sia le proprietà fotofisiche dell’unità attiva, sia quelle dell’unità recettrice, sia, infine, l’efficienza del processo di traduzione del segnale. I risultati ottenuti hanno inoltre permesso di realizzare alcuni prototipi di dispositivi sensoriali aventi caratteristiche molto promettenti e di ottenere informazioni utili per la progettazione di nuovi dispositivi (ora in fase di sviluppo nei laboratori di ricerca) sempre più efficienti, rispondendo in tal modo alle aspettative con cui questo lavoro di dottorato era stato intrapreso.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il proliferare di dispositivi di elaborazione e comunicazione mobili (telefoni cellulari, computer portatili, PDA, wearable devices, personal digital assistant) sta guidando un cambiamento rivoluzionario nella nostra società dell'informazione. Si sta migrando dall'era dei Personal Computer all'era dell'Ubiquitous Computing, in cui un utente utilizza, parallelamente, svariati dispositivi elettronici attraverso cui può accedere a tutte le informazioni, ovunque e quantunque queste gli si rivelino necessarie. In questo scenario, anche le mappe digitali stanno diventando sempre più parte delle nostre attività quotidiane; esse trasmettono informazioni vitali per una pletora di applicazioni che acquistano maggior valore grazie alla localizzazione, come Yelp, Flickr, Facebook, Google Maps o semplicemente le ricerche web geo-localizzate. Gli utenti di PDA e Smartphone dipendono sempre più dai GPS e dai Location Based Services (LBS) per la navigazione, sia automobilistica che a piedi. Gli stessi servizi di mappe stanno inoltre evolvendo la loro natura da uni-direzionale a bi-direzionale; la topologia stradale è arricchita da informazioni dinamiche, come traffico in tempo reale e contenuti creati dagli utenti. Le mappe digitali aggiornabili dinamicamente sono sul punto di diventare un saldo trampolino di lancio per i sistemi mobili ad alta dinamicità ed interattività, che poggiando su poche informazioni fornite dagli utenti, porteranno una moltitudine di applicazioni innovative ad un'enorme base di consumatori. I futuri sistemi di navigazione per esempio, potranno utilizzare informazioni estese su semafori, presenza di stop ed informazioni sul traffico per effettuare una ottimizzazione del percorso che valuti simultaneamente fattori come l'impronta al carbonio rilasciata, il tempo di viaggio effettivamente necessario e l'impatto della scelta sul traffico locale. In questo progetto si mostra come i dati GPS raccolti da dispositivi fissi e mobili possano essere usati per estendere le mappe digitali con la locazione dei segnali di stop, dei semafori e delle relative temporizzazioni. Queste informazioni sono infatti oggi rare e locali ad ogni singola municipalità, il che ne rende praticamente impossibile il pieno reperimento. Si presenta quindi un algoritmo che estrae utili informazioni topologiche da agglomerati di tracciati gps, mostrando inoltre che anche un esiguo numero di veicoli equipaggiati con la strumentazione necessaria sono sufficienti per abilitare l'estensione delle mappe digitali con nuovi attributi. Infine, si mostrerà come l'algoritmo sia in grado di lavorare anche con dati mancanti, ottenendo ottimi risultati e mostrandosi flessibile ed adatto all'integrazione in sistemi reali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo principale di questa dissertazione e quello di investigare il rapporto che si crea tra suono, immagine e sistemi informatico-tecnologici attraverso l'analisi di tre grandi centri europei di ricerca, formazione e produzione, all'avanguardia per quanto riguarda la produzione di opere sonoro-visive multimediali e interattive: Ircam di Parigi, Tempo Reale di Firenze e United Visual Artists di Londra. Saranno analizzati il rapporto tra lo sviluppo delle tecnologie digitali e le sue applicazioni in campo artistico, nonche il modo in cui, nei tre centri citati, viene trattato il suono. Saranno inoltre analizzate quali sperimentazioni sono state effettuate, quali sono in corso d'opera e come vengono utilizzati i risultati di queste ricerche combinando suono e tecnologia per dar vita a quegli universi sonoro-visivi citati nel titolo stesso della tesi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Negli ultimi anni, un crescente numero di studiosi ha focalizzato la propria attenzione sullo sviluppo di strategie che permettessero di caratterizzare le proprietà ADMET dei farmaci in via di sviluppo, il più rapidamente possibile. Questa tendenza origina dalla consapevolezza che circa la metà dei farmaci in via di sviluppo non viene commercializzato perché ha carenze nelle caratteristiche ADME, e che almeno la metà delle molecole che riescono ad essere commercializzate, hanno comunque qualche problema tossicologico o ADME [1]. Infatti, poco importa quanto una molecola possa essere attiva o specifica: perché possa diventare farmaco è necessario che venga ben assorbita, distribuita nell’organismo, metabolizzata non troppo rapidamente, ne troppo lentamente e completamente eliminata. Inoltre la molecola e i suoi metaboliti non dovrebbero essere tossici per l’organismo. Quindi è chiaro come una rapida determinazione dei parametri ADMET in fasi precoci dello sviluppo del farmaco, consenta di risparmiare tempo e denaro, permettendo di selezionare da subito i composti più promettenti e di lasciar perdere quelli con caratteristiche negative. Questa tesi si colloca in questo contesto, e mostra l’applicazione di una tecnica semplice, la biocromatografia, per caratterizzare rapidamente il legame di librerie di composti alla sieroalbumina umana (HSA). Inoltre mostra l’utilizzo di un’altra tecnica indipendente, il dicroismo circolare, che permette di studiare gli stessi sistemi farmaco-proteina, in soluzione, dando informazioni supplementari riguardo alla stereochimica del processo di legame. La HSA è la proteina più abbondante presente nel sangue. Questa proteina funziona da carrier per un gran numero di molecole, sia endogene, come ad esempio bilirubina, tiroxina, ormoni steroidei, acidi grassi, che xenobiotici. Inoltre aumenta la solubilità di molecole lipofile poco solubili in ambiente acquoso, come ad esempio i tassani. Il legame alla HSA è generalmente stereoselettivo e ad avviene a livello di siti di legame ad alta affinità. Inoltre è ben noto che la competizione tra farmaci o tra un farmaco e metaboliti endogeni, possa variare in maniera significativa la loro frazione libera, modificandone l’attività e la tossicità. Per queste sue proprietà la HSA può influenzare sia le proprietà farmacocinetiche che farmacodinamiche dei farmaci. Non è inusuale che un intero progetto di sviluppo di un farmaco possa venire abbandonato a causa di un’affinità troppo elevata alla HSA, o a un tempo di emivita troppo corto, o a una scarsa distribuzione dovuta ad un debole legame alla HSA. Dal punto di vista farmacocinetico, quindi, la HSA è la proteina di trasporto del plasma più importante. Un gran numero di pubblicazioni dimostra l’affidabilità della tecnica biocromatografica nello studio dei fenomeni di bioriconoscimento tra proteine e piccole molecole [2-6]. Il mio lavoro si è focalizzato principalmente sull’uso della biocromatografia come metodo per valutare le caratteristiche di legame di alcune serie di composti di interesse farmaceutico alla HSA, e sul miglioramento di tale tecnica. Per ottenere una miglior comprensione dei meccanismi di legame delle molecole studiate, gli stessi sistemi farmaco-HSA sono stati studiati anche con il dicroismo circolare (CD). Inizialmente, la HSA è stata immobilizzata su una colonna di silice epossidica impaccata 50 x 4.6 mm di diametro interno, utilizzando una procedura precedentemente riportata in letteratura [7], con alcune piccole modifiche. In breve, l’immobilizzazione è stata effettuata ponendo a ricircolo, attraverso una colonna precedentemente impaccata, una soluzione di HSA in determinate condizioni di pH e forza ionica. La colonna è stata quindi caratterizzata per quanto riguarda la quantità di proteina correttamente immobilizzata, attraverso l’analisi frontale di L-triptofano [8]. Di seguito, sono stati iniettati in colonna alcune soluzioni raceme di molecole note legare la HSA in maniera enantioselettiva, per controllare che la procedura di immobilizzazione non avesse modificato le proprietà di legame della proteina. Dopo essere stata caratterizzata, la colonna è stata utilizzata per determinare la percentuale di legame di una piccola serie di inibitori della proteasi HIV (IPs), e per individuarne il sito(i) di legame. La percentuale di legame è stata calcolata attraverso il fattore di capacità (k) dei campioni. Questo parametro in fase acquosa è stato estrapolato linearmente dal grafico log k contro la percentuale (v/v) di 1-propanolo presente nella fase mobile. Solamente per due dei cinque composti analizzati è stato possibile misurare direttamente il valore di k in assenza di solvente organico. Tutti gli IPs analizzati hanno mostrato un’elevata percentuale di legame alla HSA: in particolare, il valore per ritonavir, lopinavir e saquinavir è risultato maggiore del 95%. Questi risultati sono in accordo con dati presenti in letteratura, ottenuti attraverso il biosensore ottico [9]. Inoltre, questi risultati sono coerenti con la significativa riduzione di attività inibitoria di questi composti osservata in presenza di HSA. Questa riduzione sembra essere maggiore per i composti che legano maggiormente la proteina [10]. Successivamente sono stati eseguiti degli studi di competizione tramite cromatografia zonale. Questo metodo prevede di utilizzare una soluzione a concentrazione nota di un competitore come fase mobile, mentre piccole quantità di analita vengono iniettate nella colonna funzionalizzata con HSA. I competitori sono stati selezionati in base al loro legame selettivo ad uno dei principali siti di legame sulla proteina. In particolare, sono stati utilizzati salicilato di sodio, ibuprofene e valproato di sodio come marker dei siti I, II e sito della bilirubina, rispettivamente. Questi studi hanno mostrato un legame indipendente dei PIs ai siti I e II, mentre è stata osservata una debole anticooperatività per il sito della bilirubina. Lo stesso sistema farmaco-proteina è stato infine investigato in soluzione attraverso l’uso del dicroismo circolare. In particolare, è stato monitorata la variazione del segnale CD indotto di un complesso equimolare [HSA]/[bilirubina], a seguito dell’aggiunta di aliquote di ritonavir, scelto come rappresentante della serie. I risultati confermano la lieve anticooperatività per il sito della bilirubina osservato precedentemente negli studi biocromatografici. Successivamente, lo stesso protocollo descritto precedentemente è stato applicato a una colonna di silice epossidica monolitica 50 x 4.6 mm, per valutare l’affidabilità del supporto monolitico per applicazioni biocromatografiche. Il supporto monolitico monolitico ha mostrato buone caratteristiche cromatografiche in termini di contropressione, efficienza e stabilità, oltre che affidabilità nella determinazione dei parametri di legame alla HSA. Questa colonna è stata utilizzata per la determinazione della percentuale di legame alla HSA di una serie di poliamminochinoni sviluppati nell’ambito di una ricerca sulla malattia di Alzheimer. Tutti i composti hanno mostrato una percentuale di legame superiore al 95%. Inoltre, è stata osservata una correlazione tra percentuale di legame è caratteristiche della catena laterale (lunghezza e numero di gruppi amminici). Successivamente sono stati effettuati studi di competizione dei composti in esame tramite il dicroismo circolare in cui è stato evidenziato un effetto anticooperativo dei poliamminochinoni ai siti I e II, mentre rispetto al sito della bilirubina il legame si è dimostrato indipendente. Le conoscenze acquisite con il supporto monolitico precedentemente descritto, sono state applicate a una colonna di silice epossidica più corta (10 x 4.6 mm). Il metodo di determinazione della percentuale di legame utilizzato negli studi precedenti si basa su dati ottenuti con più esperimenti, quindi è necessario molto tempo prima di ottenere il dato finale. L’uso di una colonna più corta permette di ridurre i tempi di ritenzione degli analiti, per cui la determinazione della percentuale di legame alla HSA diventa molto più rapida. Si passa quindi da una analisi a medio rendimento a una analisi di screening ad alto rendimento (highthroughput- screening, HTS). Inoltre, la riduzione dei tempi di analisi, permette di evitare l’uso di soventi organici nella fase mobile. Dopo aver caratterizzato la colonna da 10 mm con lo stesso metodo precedentemente descritto per le altre colonne, sono stati iniettati una serie di standard variando il flusso della fase mobile, per valutare la possibilità di utilizzare flussi elevati. La colonna è stata quindi impiegata per stimare la percentuale di legame di una serie di molecole con differenti caratteristiche chimiche. Successivamente è stata valutata la possibilità di utilizzare una colonna così corta, anche per studi di competizione, ed è stata indagato il legame di una serie di composti al sito I. Infine è stata effettuata una valutazione della stabilità della colonna in seguito ad un uso estensivo. L’uso di supporti cromatografici funzionalizzati con albumine di diversa origine (ratto, cane, guinea pig, hamster, topo, coniglio), può essere proposto come applicazione futura di queste colonne HTS. Infatti, la possibilità di ottenere informazioni del legame dei farmaci in via di sviluppo alle diverse albumine, permetterebbe un migliore paragone tra i dati ottenuti tramite esperimenti in vitro e i dati ottenuti con esperimenti sull’animale, facilitando la successiva estrapolazione all’uomo, con la velocità di un metodo HTS. Inoltre, verrebbe ridotto anche il numero di animali utilizzati nelle sperimentazioni. Alcuni lavori presenti in letteratura dimostrano l’affidabilita di colonne funzionalizzate con albumine di diversa origine [11-13]: l’utilizzo di colonne più corte potrebbe aumentarne le applicazioni.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi di dottorato “Buoni cibi per buoni pensieri. Rituali di consumo alimentare tra flussi di globalizzazione e pratiche di localizzazione” verte attorno allo studio e all’approfondimento della sociologia dei consumi, con particolare riferimento alle relazioni che si possono instaurare tra i comportamenti alimentari collettivi a livello locale e il sistema globale. Il focus dell’analisi si incentra sulla sostenibilità dei consumi, fenomenologia esemplificativa di una modalità di rapporto degli uomini con i cibi innovativa e al contempo nient’affatto scontata: non soltanto a livello individual-collettivo come strumento di intelligibilità sociale e costruzione di senso, ma anche sul piano sistemico come rapporto con l’ambiente e il mondo circostante. In effetti, il percorso di studi che ha condotto all’elaborazione teorica ed empirica della tesi di dottorato, pur muovendo da studi radicati nella letteratura socio-antropologica come il consumo dei cibi e la cultura da essi veicolata, viene oggi inquadrata all’interno di nuovi scenari sullo sfondo del mutamento socioeconomico: le pratiche di sostenibilità causate dalle ambivalenti ripercussioni giocate dalla globalizzazione sui sistemi sociali. Se è vero infatti che oggi si vive in una società complessa, caratterizzata dalla crescente centralità del sistema del consumo rispetto agli altri sottosistemi, è evidente come una ri-lettura critica delle sue dimensioni simboliche ed intersoggettive nel senso del ridimensionamento degli aspetti legati alla mercificazione e al materialismo, faccia sì che la tesi dottorale si orienti sulla ricerca di una sostenibilità oggi tanto diffusa, da sostanziarsi sempre più anche nelle pratiche di consumo alimentare. Oggetto specifico di questo lavoro sono dunque, senza pretesa di esaustività ma rappresentative del contesto spaziale preso in esame, fenomenologie del consumo alimentare italiano all’interno di uno scenario globale: in particolare, si affronta la nuova cultura della sostenibilità che nasce dall’incontro fra i cittadini-consumatori e le complesse tematiche emergenti del sistema sociale di riferimento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Context-aware computing is currently considered the most promising approach to overcome information overload and to speed up access to relevant information and services. Context-awareness may be derived from many sources, including user profile and preferences, network information, sensor analysis; usually context-awareness relies on the ability of computing devices to interact with the physical world, i.e. with the natural and artificial objects hosted within the "environment”. Ideally, context-aware applications should not be intrusive and should be able to react according to user’s context, with minimum user effort. Context is an application dependent multidimensional space and the location is an important part of it since the very beginning. Location can be used to guide applications, in providing information or functions that are most appropriate for a specific position. Hence location systems play a crucial role. There are several technologies and systems for computing location to a vary degree of accuracy and tailored for specific space model, i.e. indoors or outdoors, structured spaces or unstructured spaces. The research challenge faced by this thesis is related to pedestrian positioning in heterogeneous environments. Particularly, the focus will be on pedestrian identification, localization, orientation and activity recognition. This research was mainly carried out within the “mobile and ambient systems” workgroup of EPOCH, a 6FP NoE on the application of ICT to Cultural Heritage. Therefore applications in Cultural Heritage sites were the main target of the context-aware services discussed. Cultural Heritage sites are considered significant test-beds in Context-aware computing for many reasons. For example building a smart environment in museums or in protected sites is a challenging task, because localization and tracking are usually based on technologies that are difficult to hide or harmonize within the environment. Therefore it is expected that the experience made with this research may be useful also in domains other than Cultural Heritage. This work presents three different approaches to the pedestrian identification, positioning and tracking: Pedestrian navigation by means of a wearable inertial sensing platform assisted by the vision based tracking system for initial settings an real-time calibration; Pedestrian navigation by means of a wearable inertial sensing platform augmented with GPS measurements; Pedestrian identification and tracking, combining the vision based tracking system with WiFi localization. The proposed localization systems have been mainly used to enhance Cultural Heritage applications in providing information and services depending on the user’s actual context, in particular depending on the user’s location.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A wall film model has been implemented in a customized version of KIVA code developed at University of Bologna. Under the hypothesis of `thin laminar ow' the model simulates the dynamics of a liquid wall film generated by impinging sprays. Particular care has been taken in numerical implementation of the model. The major phenomena taken into account in the present model are: wall film formation by impinging spray; body forces, such as gravity or acceleration of the wall; shear stress at the interface with the gas and no slip condition on the wall; momentum contribution and dynamic pressure generated by the tangential and normal component of the impinging drops; film evaporation by heat exchange with wall and surrounding gas. The model doesn't consider the effect of the wavy film motion and suppose that all the impinging droplets adhere to the film. The governing equations have been integrated in space by using a finite volume approach with a first order upwind differencing scheme and they have been integrated in time with a fully explicit method. The model is validated using two different test cases reproducing PFI gasoline and DI Diesel engine wall film conditions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il lavoro svolto da Fabrizio Amici ha suscitato immediatamente il mio interesse in primo luogo perché quando si parla di virtualizzazione con vari fornitori e commerciali, questi la indicano come una soluzione che possa coprire a 360 gradi le esigenze di un Datacenter. Questo è vero nella misura in cui il progetto di virtualizzazione e consolidamento dei Server sia svolto sotto certi criteri progettuali. Per esperienza personale non ho trovato in letteratura lavori che potessero fornire indicazioni approfondite sui parametri da considerare per una corretta progettazione di sistemi di virtualizzazione, spesso ci si avvale di vari fornitori che accennano ad eventuali criticità. Un lavoro come quello proposto da Fabrizio va esattamente nella direzione di rispondere a quelle domande che nascono quando si affronta la tematica della virtualizzazione e soprattutto cerca di capire quali siano i limiti intrinseci della virtualizzazione. In particolare nei vari confronti che, con piacere, ho avuto con Fabrizio, il mio suggerimento è stato quello di esasperare il sistema che aveva assemblato, caricando i test sino ad osservarne i limiti. Dai vari test sono emerse sia conferme, sia inaspettati comportamenti del sistema che rendono ancora più chiaro che solo una prova sperimentale può essere il banco di prova di un sistema complesso. L'elemento che colpisce maggiormente analizzando i risultati è il diverso comportamento in funzione delle CPU utilizzate. I risultati indicano chiaramente che le prestazioni sono fortemente influenzate da come si distribuiscono i core nelle macchine virtuali. Dalla lettura dei risultati viene confermato che i sistemi virtualizzati devono essere progettati per non raggiungere il 70-80% della componente più critica (RAM, CPU) ma anche che sono fortemente sensibili alle disponibilità prestazionali dei sistemi al contorno (Rete, SAN/Dischi). L'approccio metodico sperimentale ed i risultati forniscono una serie di elementi che permettono di affrontare la tematica della virtualizzazione in un quadro generale più solido, offrendo fra l'altro spunti di ricerca ulteriori anche in previsione di nuove soluzioni che vari costruttori, sviluppatori e system integrator proporranno nei prossimi anni. Ing. Massimiliano Casali Esperto di Gestione ICT, Pubblica Amministrazione,Repubblica di San Marino

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nello sviluppo di sistemi informatici si sono affermate numerose tecnologie, che vanno utilizzate in modo combinato e, possibilmente sinergico. Da una parte, i sistemi di gestione di basi di dati relazionali consentono una gestione efficiente ed efficace di dati persistenti, condivisi e transazionali. Dall'altra, gli strumenti e i metodi orientati agli oggetti (linguaggi di programmazione, ma anche metodologie di analisi e progettazione) consentono uno sviluppo efficace della logica applicativa delle applicazioni. E’ utile in questo contesto spiegare che cosa s'intende per sistema informativo e sistema informatico. Sistema informativo: L'insieme di persone, risorse tecnologiche, procedure aziendali il cui compito è quello di produrre e conservare le informazioni che servono per operare nell'impresa e gestirla. Sistema informatico: L'insieme degli strumenti informatici utilizzati per il trattamento automatico delle informazioni, al fine di agevolare le funzioni del sistema informativo. Ovvero, il sistema informatico raccoglie, elabora, archivia, scambia informazione mediante l'uso delle tecnologie proprie dell'Informazione e della Comunicazione (ICT): calcolatori, periferiche, mezzi di comunicazione, programmi. Il sistema informatico è quindi un componente del sistema informativo. Le informazioni ottenute dall'elaborazione dei dati devono essere salvate da qualche parte, in modo tale da durare nel tempo dopo l'elaborazione. Per realizzare questo scopo viene in aiuto l'informatica. I dati sono materiale informativo grezzo, non (ancora) elaborato da chi lo riceve, e possono essere scoperti, ricercati, raccolti e prodotti. Sono la materia prima che abbiamo a disposizione o produciamo per costruire i nostri processi comunicativi. L'insieme dei dati è il tesoro di un'azienda e ne rappresenta la storia evolutiva. All'inizio di questa introduzione è stato accennato che nello sviluppo dei sistemi informatici si sono affermate diverse tecnologie e che, in particolare, l'uso di sistemi di gestione di basi di dati relazionali comporta una gestione efficace ed efficiente di dati persistenti. Per persistenza di dati in informatica si intende la caratteristica dei dati di sopravvivere all'esecuzione del programma che li ha creati. Se non fosse cosi, i dati verrebbero salvati solo in memoria RAM e sarebbero persi allo spegnimento del computer. Nella programmazione informatica, per persistenza si intende la possibilità di far sopravvivere strutture dati all'esecuzione di un programma singolo. Occorre il salvataggio in un dispositivo di memorizzazione non volatile, come per esempio su un file system o su un database. In questa tesi si è sviluppato un sistema che è in grado di gestire una base di dati gerarchica o relazionale consentendo l'importazione di dati descritti da una grammatica DTD. Nel capitolo 1 si vedranno più in dettaglio cosa di intende per Sistema Informativo, modello client-server e sicurezza dei dati. Nel capitolo 2 parleremo del linguaggio di programmazione Java, dei database e dei file XML. Nel capitolo 3 descriveremo un linguaggio di analisi e modellazione UML con esplicito riferimento al progetto sviluppato. Nel capitolo 4 descriveremo il progetto che è stato implementato e le tecnologie e tools utilizzati.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il progetto di riqualificazione della Caserma Sani si ispira allʼinteresse nei confronti delle tematiche del recupero edilizio e urbano. Esso nasce dallʼintenzione di reintegrare unʼarea urbana in via di dismissione nel suo contesto attraverso lʼinserimento di nuove funzioni che rispondano alle esigenze di questa parte di città e nel contempo riqualificare i fabbricati esistenti attraverso un progetto di recupero e completamento che favorisca il dialogo del complesso esistente con il sistema urbano circostante. La volontà di riuso della maggioranza degli edifici facenti parte del vecchio impianto si basa su considerazioni legate alla natura stessa del sito: lʼintenzione è quella di conservarne la memoria, non tanto per il suo valore storico-architettonico, ma perché nel caso specifico della Caserma più che di memoria è opportuno parlare di scoperta, essendo, per propria natura militare, un luogo da sempre estraneo alla comunità e al suo contesto, chiuso e oscurato dal limite fisico del muro di cinta. La caserma inoltre si compone di edifici essenzialmente funzionali, di matrice industriale, la cui versatilità si legge nella semplicità e serialità morfologica, rendendoli “organismi dinamici” in grado di accogliere trasformazioni e cambi di funzione. Il riuso si muove in parallelo ai concetti di risignificazione e riciclaggio, dividendosi in modo egualmente efficace fra presupposti teorici e pratici. Esso costituisce una valida alternativa alla pratica della demolizione, nel caso in cui questa non sia specificatamente necessaria, e alle implicazione economiche e ambientali (smaltimento dei rifiuti, impiego dei trasporti e fondi economici, ecc.) che la accompagnano. Alla pratica del riuso si affianca nel progetto quella di completamento e ampliamento, arricchendo il vecchio sistema di edifici con nuove costruzioni che dialoghino discretamente con la preesistenza stabilendo un rapporto di reciproca complementarietà. Il progetto di riqualificazione si basa su più ampie considerazioni a livello urbano, che prevedono lʼintegrazione dellʼarea ad un sistema di attraversamento pedonale e ciclabile che colleghi da nord a sud le principali risorse verdi del quartiere passando per alcuni dei principali poli attrattori dellʼarea, quali la Stazione Centrale, il Dopolavoro Ferroviario adibito a verde attrezzato, il nuovo Tecno Polo che sorgerà grazie al progetto di riqualificazione previsto per lʼex Manifattura Tabacchi di Pier Luigi Nervi e il nuovo polo terziario che sorgerà dalla dismissione delle ex Officine Cevolani. In particolare sono previsti due sistemi di collegamento, uno ciclo-pedonale permesso dalla nuova pista ciclabile, prevista dal nuovo Piano Strutturale lungo il sedime della vecchia ferrovia che correrà da nord a sud collegando il Parco della Montagnola e in generale il centro storico al Parco Nord, situato oltre il limite viario della tangenziale. Parallelamente alla pista ciclabile, si svilupperà allʼinterno del tessuto un ampio viale pedonale che, dal Dopolavoro Ferroviario (parco attrezzato con impianti sportivi) collegherà la grande area verde che sorgerà dove ora giacciono i resti delle ex Industrie Casaralta, adiacenti alla Caserma Sani, già oggetto di bonifica e in via di dismissione, incontrando lungo il suo percorso differenti realtà e funzioni: complessi residenziali, terziari, il polo culturale e le aree verdi. Allʼinterno dellʼarea della Caserma sarà integrato agli edifici, nuovi e preesistenti, un sistema di piazze pavimentate e percorsi di attraversamento che lo riuniscono al tessuto circostante e favoriscono il collegamento da nord a sud e da est a ovest di zone della città finora poco coinvolte dal traffico pedonale, in particolare è il caso del Fiera District separato dal traffico veloce di Via Stalingrado rispetto alla zona residenziale della Bolognina. Il progetto lascia ampio spazio alle aree verdi, le quali costituiscono più del 50 % della superficie di comparto, garantendo una preziosa risorsa ambientale per il quartiere. Lʼintervento assicura lʼinserimento di una molteplicità di funzioni e servizi: residenze unifamiliari e uno studentato, uffici e commercio, una biblioteca, un auditorium e un polo museale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Negli ultimi anni è emerso chiaramente come la logistica rivesta un’importanza fondamentale per le aziende e costituisca un ottimo strumento per assicurarsi e mantenere un solido vantaggio competitivo. Inoltre, osservando l’ambiente attuale si evince come il sistema logistico sia caratterizzato da un progressivo aumento di complessità, sia in seguito alle maggiori esigenze dei mercati e sia come conseguenza della globalizzazione. In questo quadro evolutivo è mutato profondamente il ruolo ricoperto dalla logistica all’interno delle organizzazioni. Rispetto alla concezione tradizionale, che considerava la logistica come una funzione esclusivamente interna all’azienda, si è assistito al progressivo coinvolgimento dei fornitori e dei clienti ed è emersa la necessità di coordinare gli sforzi dell’intera supply chain, con l’obiettivo di migliorare il livello di servizio globalmente offerto e di ridurre i costi logistici totali. Tali considerazioni sono state il filo conduttore dell’analisi presentata di seguito, basata su uno studio svolto presso la DENSO Manufacturing Italia S.p.A., finalizzato all’analisi dei flussi in ingresso ed in particolar modo alla razionalizzazione degli imballi e dei trasporti, in un’ottica di integrazione con i fornitori. In particolare, la prima parte della trattazione introduce gli argomenti dal punto di vista teorico. Infatti, nel primo capitolo verrà illustrato il tema della logistica integrata e della sua evoluzione nel tempo, in relazione all’ambiente competitivo attuale ed alle nuove richieste dei mercati, approfondendo il tema della logistica in ingresso e del trasporto merci. Quindi, nel secondo capitolo verrà trattato il tema degli imballi, analizzandone le ripercussioni sull’intera catena logistica ed offrendo una panoramica dei metodi che permettono l’integrazione tra gli imballaggi ed i sistemi di trasporto, movimentazione e stoccaggio. Invece, la seconda parte dello studio sarà dedicata alla presentazione dell’azienda in cui è stato realizzato il progetto di tesi. Nel terzo capitolo verranno introdotte sia la multinazionale giapponese DENSO Corporation che la sua consociata DENSO Manufacturing Italia S.p.A., specializzata nella produzione di componenti per il mercato automotive, presso cui si è svolto lo studio. Nel quarto capitolo verrà descritto il layout dell’impianto, per poi presentare la logistica in ingresso allo stabilimento, ponendo maggiore attenzione ai flussi provenienti dal nord Italia – ed in particolare dal Piemonte – su cui si incentra il lavoro di tesi. Quindi, nella terza ed ultima parte verrà presentata in dettaglio l’analisi condotta durante lo studio aziendale. In particolare, il quinto capitolo tratta dei flussi di materiale provenienti dall’area piemontese, con l’analisi degli imballi utilizzati dai fornitori, delle consegne e delle modalità di trasporto. Infine, nel sesto capitolo saranno proposte delle soluzioni migliorative relativamente a tutte le criticità emerse in fase di analisi, valutandone gli impatti sia in termini economici che in relazione all’efficienza del flusso logistico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'elaborato di tesi sviluppato ha come obiettivo l'ottimizzazione della Supply Chian di contesti manufatturieri con particolare attenzione alle procedure di approvvigionamento dei materiali e al problema dei materiali "mancanti" in produzione.Viene esposto il risultato di un’attività di analisi di due casi reali per l’ottimizzazione dell'impatto logistico del problema dell'alimentazione di sistemi di fabbricazione e montaggio. Lo studio è stato affrontato definendo un approccio basato su una duplice analisi del processo, top-down e bottom-up. Le due analisi condotte hanno permesso di procedere alla mappatura dell’intero processo end to end (che inizia con le richieste del cliente e termina con la consegna dei prodotti allo stesso) e di individuare le criticità in esso presenti, sulla base delle quali sono state fornite una serie di linee guida per la risoluzione del problema dei mancanti. I risultati ottenuti hanno evidenziato che l’ottimizzazione dell’area di pianificazione permette di migliorare la qualità dei dati in ingresso all’intero processo con conseguente diminuzione del numero di materiali mancanti. Tuttavia, la trasversalità dell’argomento ai processi aziendali impedisce la definizione di un approccio al problema focalizzato su un’area specifica. Infine, è stata eseguita una bozza di valutazione economica per la stima dei tempi di recupero degli investimenti necessari.