86 resultados para Progettazione pellet ghisa riscaldamento


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Gli istoni sono proteine basiche che possono essere classificate in varie classi: H1, H2A, H2B, H3 e H4. Queste proteine formano l’ottamero proteico attorno al quale si avvolge il DNA per formare il nucleosoma che è l’unità fondamentale della cromatina. A livello delle code N-terminali, gli istoni possono essere soggetti a numerose modifiche posttraduzionali quali acetilazioni, metilazioni, fosforilazioni, ADP-ribosilazioni e ubiquitinazioni. Queste modifiche portano alla formazione di diversi siti di riconoscimento per diversi complessi enzimatici coinvolti in importanti processi come la riparazione e la replicazione del DNA e l’assemblaggio della cromatina. La più importante e la più studiata di queste modifiche è l’acetilazione che avviene a livello dei residui amminici della catena laterale dell’amminoacido lisina. I livelli corretti di acetilazione delle proteine istoniche sono mantenuti dall’attività combinata di due enzimi: istone acetil transferasi (HAT) e istone deacetilasi (HDAC). Gli enzimi appartenenti a questa famiglia possono essere suddivisi in varie classi a seconda delle loro diverse caratteristiche, quali la localizzazione cellulare, la dimensione, l’omologia strutturale e il meccanismo d’azione. Recentemente è stato osservato che livelli aberranti di HDAC sono coinvolti nella carcinogenesi; per questo motivo numerosi gruppi di ricerca sono interessati alla progettazione e alla sintesi di composti che siano in grado di inibire questa classe enzimatica. L’inibizione delle HDAC può infatti provocare arresto della crescita cellulare, apoptosi o morte cellulare. Per questo motivo la ricerca farmaceutica in campo antitumorale è mirata alla sintesi di inibitori selettivi verso le diverse classi di HDAC per sviluppare farmaci meno tossici e per cercare di comprendere con maggiore chiarezza il ruolo biologico di questi enzimi. Il potenziale antitumorale degli inibitori delle HDAC deriva infatti dalla loro capacità di interferire con diversi processi cellulari, generalmente non più controllati nelle cellule neoplastiche. Nella maggior parte dei casi l’attività antitumorale risiede nella capacità di attivare programmi di differenziamento, di inibire la progressione del ciclo cellulare e di indurre apoptosi. Inoltre sembra essere molto importante anche la capacità di attivare la risposta immunitaria e l’inibizione dell’angiogenesi. Gli inibitori delle HDAC possono essere a loro volta classificati in base alla struttura chimica, alla loro origine (naturale o sintetica), e alla loro capacità di inibire selettivamente le HDAC appartenenti a classi diverse. Non è ancora chiaro se la selettività di queste molecole verso una specifica classe di HDAC sia importante per ottenere un effetto antitumorale, ma sicuramente inibitori selettivi possono essere molto utili per investigare e chiarire il ruolo delle HDAC nei processi cellulari che portano all’insorgenza del tumore. Nel primo capitolo di questa tesi quindi è riportata un’introduzione sull’importanza delle proteine istoniche non solo da un punto di vista strutturale ma anche funzionale per il destino cellulare. Nel secondo capitolo è riportato lo stato dell’arte dell’analisi delle proteine istoniche che comprende sia i metodi tradizionali come il microsequenziamento e l’utilizzo di anticorpi, sia metodi più innovativi (RP-LC, HILIC, HPCE) ideati per poter essere accoppiati ad analisi mediante spettrometria di massa. Questa tecnica consente infatti di ottenere importanti e precise informazioni che possono aiutare sia a identificare gli istoni come proteine che a individuare i siti coinvolti nelle modifiche post-traduzionali. Nel capitolo 3 è riportata la prima parte del lavoro sperimentale di questa tesi volto alla caratterizzazione delle proteine istoniche mediante tecniche cromatografiche accoppiate alla spettrometria di massa. Nella prima fase del lavoro è stato messo a punto un nuovo metodo cromatografico HPLC che ha consentito di ottenere una buona separazione, alla linea di base, delle otto classi istoniche (H1-1, H1-2, H2A-1, H2A-2, H2B, H3-1, H3-2 e H4). La separazione HPLC delle proteine istoniche ha permesso di poter eseguire analisi accurate di spettrometria di massa mediante accoppiamento con un analizzatore a trappola ionica tramite la sorgente electrospray (ESI). E’ stato così possibile identificare e quantificare tutte le isoforme istoniche, che differiscono per il tipo e il numero di modifiche post-traduzionali alle quali sono soggette, previa estrazione da colture cellulari di HT29 (cancro del colon). Un’analisi così dettagliata delle isoforme non può essere ottenuta con i metodi immunologici e permette di eseguire un’indagine molto accurata delle modifiche delle proteine istoniche correlandole ai diversi stadi della progressione del ciclo e alla morte cellulare. Il metodo messo a punto è stato convalidato mediante analisi comparative che prevedono la stessa separazione cromatografica ma accoppiata a uno spettrometro di massa avente sorgente ESI e analizzatore Q-TOF, dotato di maggiore sensibilità e risoluzione. Successivamente, per identificare quali sono gli specifici amminoacidi coinvolti nelle diverse modifiche post-traduzionali, l’istone H4 è stato sottoposto a digestione enzimatica e successiva analisi mediante tecniche MALDI-TOF e LC-ESI-MSMS. Queste analisi hanno permesso di identificare le specifiche lisine acetilate della coda N-terminale e la sequenza temporale di acetilazione delle lisine stesse. Nel quarto capitolo sono invece riportati gli studi di inibizione, mirati a caratterizzare le modifiche a carico delle proteine istoniche indotte da inibitori delle HDAC, dotati di diverso profilo di potenza e selettività. Dapprima Il metodo messo a punto per l’analisi delle proteine istoniche è stato applicato all’analisi di istoni estratti da cellule HT29 trattate con due noti inibitori delle HDAC, valproato e butirrato, somministrati alle cellule a dosi diverse, che corrispondono alle dosi con cui sono stati testati in vivo, per convalidare il metodo per studi di inibizione di composti incogniti. Successivamente, lo studio è proseguito con lo scopo di evidenziare effetti legati alla diversa potenza e selettività degli inibitori. Le cellule sono state trattate con due inibitori più potenti, SAHA e MS275, alla stessa concentrazione. In entrambi i casi il metodo messo a punto ha permesso di evidenziare l’aumento dei livelli di acetilazione indotto dal trattamento con gli inibitori; ha inoltre messo in luce differenti livelli di acetilazione. Ad esempio il SAHA, potente inibitore di tutte le classi di HDAC, ha prodotto un’estesa iperacetilazione di tutte le proteine istoniche, mentre MS275 selettivo per la classe I di HDAC, ha prodotto modifiche molto più blande. E’ stato quindi deciso di applicare questo metodo per studiare la dose e la tempo-dipendenza dell’effetto di quattro diversi inibitori delle HDAC (SAHA, MS275, MC1855 e MC1568) sulle modifiche post-traduzionali di istoni estratti da cellule HT29. Questi inibitori differiscono oltre che per la struttura chimica anche per il profilo di selettività nei confronti delle HDAC appartenenti alle diverse classi. Sono stati condotti quindi studi di dose-dipendenza che hanno consentito di ottenere i valori di IC50 (concentrazione capace di ridurre della metà la quantità relativa dell’istone meno acetilato) caratteristici per ogni inibitore nei confronti di tutte le classi istoniche. E’ stata inoltre calcolata la percentuale massima di inibizione per ogni inibitore. Infine sono stati eseguiti studi di tempo-dipendenza. I risultati ottenuti da questi studi hanno permesso di correlare i livelli di acetilazione delle varie classi istoniche con la selettività d’azione e la struttura chimica degli inibitori somministrati alle cellule. In particolare, SAHA e MC1855, inibitori delle HDAC di classi I e II a struttura idrossamica, hanno causato l’iperacetilazione di tutte le proteine istoniche, mentre MC1568 (inibitore selettivo per HDAC di classe II) ha prodotto l’iperacetilazione solo di H4. Inoltre la potenza e la selettività degli inibitori nel provocare un aumento dei livelli di acetilazione a livello delle distinte classi istoniche è stata correlata al destino biologico della cellula, tramite studi di vitalità cellulare. E’ stato osservato che il SAHA e MC1855, inibitori potenti e non selettivi, somministrati alla coltura HT29 a dose 50 μM producono morte cellulare, mentre MS275 alla stessa dose produce accumulo citostatico in G1/G0. MC1568, invece, non produce effetti significatici sul ciclo cellulare. Questo studio ha perciò dimostrato che l’analisi tramite HPLC-ESI-MS delle proteine istoniche permette di caratterizzare finemente la potenza e la selettività di nuovi composti inibitori delle HDAC, prevedendone l’effetto sul ciclo cellulare. In maggiore dettaglio è risultato che l’iperacetilazione di H4 non è in grado di provocare modifiche significative sul ciclo cellulare. Questo metodo, insieme alle analisi MALDI-TOF e LC-ESI-MSMS che permettono di individuare l’ordine di acetilazione delle lisine della coda N-terminale, potrà fornire importanti informazioni sugli inibitori delle HDAC e potrà essere applicato per delineare la potenza, la selettività e il meccanismo di azione di nuovi potenziali inibitori di questa classe enzimatica in colture cellulari tumorali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo lavoro di tesi nasce da un progetto di ricerca promosso nel 2001 dal Prof. Leonardo Seccia (Seconda Facoltà di Ingegneria, sede di Forlì, e C.I.R.A.M., Università di Bologna), dal Prof. Nicola Santopuoli (Facoltà di Architettura Valle Giulia, Sapienza Università di Roma), dal Prof. Ingo Muller e dal Dott. André Musolff (Technical University Berlin, Facultat III, Thermodynamics). Tale progetto ha avuto come obiettivo lo studio, la progettazione e la realizzazione di un dispositivo di ancoraggio in lega a memoria di forma per il restauro di affreschi e mosaici parietali, che presentino distacchi più o meno evidenti fra gli strati di intonaco di supporto, proponendosi come mezzo efficace per la salvaguardia strutturale di tali zone variamente ammalorate. In particolare, è stata programmata una serie di prove di laboratorio per caratterizzare in modo preciso il comportamento del materiale prescelto, al fine di realizzare un prototipo rispondente alle caratteristiche di progetto ed anche per implementare un modello numerico sufficientemente realistico. A questo proposito, è stato anche approfondito il problema della scelta del modello costitutivo più adeguato. Successivamente, i risultati ottenuti sono stati impiegati nella progettazione e realizzazione di nuovi dispositivi in lega a memoria di forma da impiegare nel campo dei beni culturali, fra cui sistemi reversibili per il ricongiungimento di parti fratturate e sistemi di movimentazione intelligenti sia per lastre di protezione di superfici affrescate, sia per finestre da inserire in contesti museali per il controllo del microclima.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’attività di ricerca del dottorando è stata rivolta allo studio della trasmissione del rumore per via strutturale negli edifici. Questo argomento e' di notevole interesse sia fondamentale che applicativo. Il fenomeno e le problematiche ad essa connesse contribuiscono alla diminuzione delle prestazioni fonoisolanti, sia per le strutture verticali (usualmente valutate rispetto al rumore aereo), sia per quelle orizzontali (valutate anche rispetto al rumore impattivo) ed è tipico degli edifici con struttura portante a telaio e tamponatura in laterizi. Si tratta delle tipiche tipologie edilizie italiane, per le quali il problema risulta amplificato rispetto ad altre tipologie. La metodologia di studio è stata di tipo sperimentale. La scelta è dettata sia dall’insufficiente avanzamento dello stato dell’arte dei metodi di calcolo teorici, o delle loro versioni numeriche, sia dalla necessità di disporre di dati certi da confrontare con i valori forniti dai metodi previsionali semplificati indicati nelle norme UNI (modello CEN); infatti queste ultime sono un recepimento letterale di quelle europee, sebbene esse si basino su tipologie costruttive, materiali e tecniche di realizzazione differenti da quelle comunemente in uso in Italia; da qui la difformità di risultati tra formule previsionali e misurazioni sperimentali. Al fine di realizzare uno studio completo delle principali casistiche della trasmissione laterale sono state utilizzate 6 configurazioni in scala reale, con elementi edilizi diversamente collegati fra loro in modo da simulare i nodi strutturali comunemente realizzati negli edifici. La parte sperimentale della ricerca è stata svolta presso le “Camere Acustiche di Prova” del Laboratorio del Lazzaretto “R. Alessi” del DIENCA. Oltre alle usuali misurazioni di isolamento acustico, sono state eseguite numerose misurazioni di vibrazione. Infatti, dal confronto dei livelli di velocità di vibrazione dei diversi elementi di una struttura, rigidamente connessi, è possibile determinare l’indice di riduzione delle vibrazioni Kij che è la grandezza chiave per modellizzare il fenomeno della trasmissione laterale. La possibilità di determinare sperimentalmente tali valori nel contesto di un lavoro di ricerca finalizzato a determinare i meccanismi di propagazione delle vibrazioni nelle strutture, permette di valutare la precisione delle formule previsionali del modello CEN e di proporne varianti e integrazioni. I valori di Kij così determinati assumono grande importanza anche in fase di progetto, fornendo dati attendibili da utilizzare per la progettazione acustica degli edifici.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La ricerca si propone di definire le linee guida per la stesura di un Piano che si occupi di qualità della vita e di benessere. Il richiamo alla qualità e al benessere è positivamente innovativo, in quanto impone agli organi decisionali di sintonizzarsi con la soggettività attiva dei cittadini e, contemporaneamente, rende evidente la necessità di un approccio più ampio e trasversale al tema della città e di una più stretta relazione dei tecnici/esperti con i responsabili degli organismi politicoamministrativi. La ricerca vuole indagare i limiti dell’urbanistica moderna di fronte alla complessità di bisogni e di nuove necessità espresse dalle popolazioni urbane contemporanee. La domanda dei servizi è notevolmente cambiata rispetto a quella degli anni Sessanta, oltre che sul piano quantitativo anche e soprattutto sul piano qualitativo, a causa degli intervenuti cambiamenti sociali che hanno trasformato la città moderna non solo dal punto di vista strutturale ma anche dal punto di vista culturale: l’intermittenza della cittadinanza, per cui le città sono sempre più vissute e godute da cittadini del mondo (turisti e/o visitatori, temporaneamente presenti) e da cittadini diffusi (suburbani, provinciali, metropolitani); la radicale trasformazione della struttura familiare, per cui la famiglia-tipo costituita da una coppia con figli, solido riferimento per l’economia e la politica, è oggi minoritaria; l’irregolarità e flessibilità dei calendari, delle agende e dei ritmi di vita della popolazione attiva; la mobilità sociale, per cui gli individui hanno traiettorie di vita e pratiche quotidiane meno determinate dalle loro origini sociali di quanto avveniva nel passato; l’elevazione del livello di istruzione e quindi l’incremento della domanda di cultura; la crescita della popolazione anziana e la forte individualizzazione sociale hanno generato una domanda di città espressa dalla gente estremamente variegata ed eterogenea, frammentata e volatile, e per alcuni aspetti assolutamente nuova. Accanto a vecchie e consolidate richieste – la città efficiente, funzionale, produttiva, accessibile a tutti – sorgono nuove domande, ideali e bisogni che hanno come oggetto la bellezza, la varietà, la fruibilità, la sicurezza, la capacità di stupire e divertire, la sostenibilità, la ricerca di nuove identità, domande che esprimono il desiderio di vivere e di godere la città, di stare bene in città, domande che non possono essere più soddisfatte attraverso un’idea di welfare semplicemente basata sull’istruzione, la sanità, il sistema pensionistico e l’assistenza sociale. La città moderna ovvero l’idea moderna della città, organizzata solo sui concetti di ordine, regolarità, pulizia, uguaglianza e buon governo, è stata consegnata alla storia passata trasformandosi ora in qualcosa di assai diverso che facciamo fatica a rappresentare, a descrivere, a raccontare. La città contemporanea può essere rappresentata in molteplici modi, sia dal punto di vista urbanistico che dal punto di vista sociale: nella letteratura recente è evidente la difficoltà di definire e di racchiudere entro limiti certi l’oggetto “città” e la mancanza di un convincimento forte nell’interpretazione delle trasformazioni politiche, economiche e sociali che hanno investito la società e il mondo nel secolo scorso. La città contemporanea, al di là degli ambiti amministrativi, delle espansioni territoriali e degli assetti urbanistici, delle infrastrutture, della tecnologia, del funzionalismo e dei mercati globali, è anche luogo delle relazioni umane, rappresentazione dei rapporti tra gli individui e dello spazio urbano in cui queste relazioni si muovono. La città è sia concentrazione fisica di persone e di edifici, ma anche varietà di usi e di gruppi, densità di rapporti sociali; è il luogo in cui avvengono i processi di coesione o di esclusione sociale, luogo delle norme culturali che regolano i comportamenti, dell’identità che si esprime materialmente e simbolicamente nello spazio pubblico della vita cittadina. Per studiare la città contemporanea è necessario utilizzare un approccio nuovo, fatto di contaminazioni e saperi trasversali forniti da altre discipline, come la sociologia e le scienze umane, che pure contribuiscono a costruire l’immagine comunemente percepita della città e del territorio, del paesaggio e dell’ambiente. La rappresentazione del sociale urbano varia in base all’idea di cosa è, in un dato momento storico e in un dato contesto, una situazione di benessere delle persone. L’urbanistica moderna mirava al massimo benessere del singolo e della collettività e a modellarsi sulle “effettive necessità delle persone”: nei vecchi manuali di urbanistica compare come appendice al piano regolatore il “Piano dei servizi”, che comprende i servizi distribuiti sul territorio circostante, una sorta di “piano regolatore sociale”, per evitare quartieri separati per fasce di popolazione o per classi. Nella città contemporanea la globalizzazione, le nuove forme di marginalizzazione e di esclusione, l’avvento della cosiddetta “new economy”, la ridefinizione della base produttiva e del mercato del lavoro urbani sono espressione di una complessità sociale che può essere definita sulla base delle transazioni e gli scambi simbolici piuttosto che sui processi di industrializzazione e di modernizzazione verso cui era orientata la città storica, definita moderna. Tutto ciò costituisce quel complesso di questioni che attualmente viene definito “nuovo welfare”, in contrapposizione a quello essenzialmente basato sull’istruzione, sulla sanità, sul sistema pensionistico e sull’assistenza sociale. La ricerca ha quindi analizzato gli strumenti tradizionali della pianificazione e programmazione territoriale, nella loro dimensione operativa e istituzionale: la destinazione principale di tali strumenti consiste nella classificazione e nella sistemazione dei servizi e dei contenitori urbanistici. E’ chiaro, tuttavia, che per poter rispondere alla molteplice complessità di domande, bisogni e desideri espressi dalla società contemporanea le dotazioni effettive per “fare città” devono necessariamente superare i concetti di “standard” e di “zonizzazione”, che risultano essere troppo rigidi e quindi incapaci di adattarsi all’evoluzione di una domanda crescente di qualità e di servizi e allo stesso tempo inadeguati nella gestione del rapporto tra lo spazio domestico e lo spazio collettivo. In questo senso è rilevante il rapporto tra le tipologie abitative e la morfologia urbana e quindi anche l’ambiente intorno alla casa, che stabilisce il rapporto “dalla casa alla città”, perché è in questa dualità che si definisce il rapporto tra spazi privati e spazi pubblici e si contestualizzano i temi della strada, dei negozi, dei luoghi di incontro, degli accessi. Dopo la convergenza dalla scala urbana alla scala edilizia si passa quindi dalla scala edilizia a quella urbana, dal momento che il criterio del benessere attraversa le diverse scale dello spazio abitabile. Non solo, nei sistemi territoriali in cui si è raggiunto un benessere diffuso ed un alto livello di sviluppo economico è emersa la consapevolezza che il concetto stesso di benessere sia non più legato esclusivamente alla capacità di reddito collettiva e/o individuale: oggi la qualità della vita si misura in termini di qualità ambientale e sociale. Ecco dunque la necessità di uno strumento di conoscenza della città contemporanea, da allegare al Piano, in cui vengano definiti i criteri da osservare nella progettazione dello spazio urbano al fine di determinare la qualità e il benessere dell’ambiente costruito, inteso come benessere generalizzato, nel suo significato di “qualità dello star bene”. E’ evidente che per raggiungere tale livello di qualità e benessere è necessario provvedere al soddisfacimento da una parte degli aspetti macroscopici del funzionamento sociale e del tenore di vita attraverso gli indicatori di reddito, occupazione, povertà, criminalità, abitazione, istruzione, etc.; dall’altra dei bisogni primari, elementari e di base, e di quelli secondari, culturali e quindi mutevoli, trapassando dal welfare state allo star bene o well being personale, alla wellness in senso olistico, tutte espressioni di un desiderio di bellezza mentale e fisica e di un nuovo rapporto del corpo con l’ambiente, quindi manifestazione concreta di un’esigenza di ben-essere individuale e collettivo. Ed è questa esigenza, nuova e difficile, che crea la diffusa sensazione dell’inizio di una nuova stagione urbana, molto più di quanto facciano pensare le stesse modifiche fisiche della città.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La ricerca si pone come obbiettivo principale quello di individuare gli strumenti in grado di controllare la qualità di una progettazione specifica che risponde alle forti richieste della domanda turistica di un territorio. Parte dalle più semplici teorie che inquadrano una costante condizione dell’uomo, “il VIAGGIARE”. La ricerca si pone come primo interrogativo quello definire una “dimensione” in cui le persone viaggiano, dove il concetto fisico di spazio dedicato alla vita si è spostato come e quanto si sposta la gente. Esiste una sorta di macroluogo (destinazione) che comprende tutti gli spazi dove la gente arriva e da cui spesso riparte. Pensare all'architettura dell’ospitalità significa indagare e comprendere come la casa non è più il solo luogo dove la gente abita. La ricerca affonda le proprie tesi sull’importanza dei “luoghi” appartenenti ad un territorio e come essi debbano riappropriarsi, attraverso un percorso progettuale, della loro più stretta vocazione attrattiva. Così come si sviluppa un’architettura dello stare, si manifesta un’architettura dello spostarsi e tali architetture si confondono e si integrano ad un territorio che per sua natura è esso stesso attrattivo. L’origine terminologica di nomadismo è passaggio necessario per la comprensione di una nuova dimensione architettonica legata a concetti quali mobilità e abitare. Si indaga pertanto all’interno della letteratura “diasporica”, in cui compaiono le prime configurazioni legate alla provvisorietà e alle costruzioni “erranti”. In sintesi, dopo aver posizionato e classificato il fenomeno turistico come nuova forma dell’abitare, senza il quale non si potrebbe svolgere una completa programmazione territoriale in quanto fenomeno oramai imprescindibile, la ricerca procede con l’individuazione di un ambito inteso come strumento di indagine sulle relazioni tra le diverse categorie e “tipologie” turistiche. La Riviera Romagnola è sicuramente molto famosa per la sua ospitalità e per le imponenti infrastrutture turistiche ma a livello industriale non è meno famosa per il porto di Ravenna che costituisce un punto di riferimento logistico per lo scambio di merci e materie prime via mare, oltre che essere, in tutta la sua estensione, caso di eccellenza. La provincia di Ravenna mette insieme tutti i fattori che servono a soddisfare le Total Leisure Experience, cioè esperienze di totale appagamento durante la vacanza. Quello che emerge dalle considerazioni svolte sul territorio ravennate è che il turista moderno non va più in cerca di una vacanza monotematica, in cui stare solo in spiaggia o occuparsi esclusivamente di monumenti e cultura. La richiesta è quella di un piacere procurato da una molteplicità di elementi. Pensiamo ad un distretto turistico dove l’offerta, oltre alla spiaggia o gli itinerari culturali, è anche occasione per fare sport o fitness, per rilassarsi in luoghi sereni, per gustare o acquistare cibi tipici e, allo stesso tempo, godere degli stessi servizi che una persona può avere a disposizione nella propria casa. Il percorso, finalizzato a definire un metodo di progettazione dell’ospitalità, parte dalla acquisizione delle esperienze nazionali ed internazionali avvenute negli ultimi dieci anni. La suddetta fase di ricerca “tipologica” si è conclusa in una valutazione critica che mette in evidenza punti di forza e punti di debolezza delle esperienze prese in esame. La conclusione di questa esplorazione ha prodotto una prima stesura degli “obbiettivi concettuali” legati alla elaborazione di un modello architettonico. Il progetto di ricerca in oggetto converge sul percorso tracciato dai Fiumi Uniti in Ravenna. Tale scelta consente di prendere in considerazione un parametro che mostri fattori di continuità tra costa e città, tra turismo balneare e turismo culturale, considerato quindi come potenziale strumento di connessione tra realtà spesso omologhe o complementari, in vista di una implementazione turistica che il progetto di ricerca ha come primo tra i suoi obiettivi. Il tema dell’architettura dell’ospitalità, che in questo caso si concretizza nell’idea di sperimentare l’ALBERGO DIFFUSO, è quello che permette di evidenziare al meglio la forma specifica della cultura locale, salvandone la vocazione universale. La proposta progettuale si articola in uno studio consequenziale ed organico in grado di promuovere una riflessione originale sul tema del modulo “abitativo” nei luoghi di prossimità delle emergenze territoriali di specifico interesse, attorno alle quali la crescente affluenza di un’utenza fortemente differenziata evidenzia la necessità di nodi singolari che si prestino a soddisfare una molteplicità di usi in contesti di grande pregio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Composite porcelain enamels are inorganic coatings for metallic components based on a special ceramic-vitreous matrix in which specific additives are randomly dispersed. The ceramic-vitreous matrix is made by a mixture of various raw materials and elements and in particular it is based on boron-silicate glass added with metal oxides(1) of titanium, zinc, tin, zirconia, alumina, ecc. These additions are often used to improve and enhance some important performances such as corrosion(2) and wear resistance, mechanical strength, fracture toughness and also aesthetic functions. The coating process, called enamelling, depends on the nature of the surface, but also on the kind of the used porcelain enamel. For metal sheets coatings two industrial processes are actually used: one based on a wet porcelain enamel and another based on a dry-silicone porcelain enamel. During the firing process, that is performed at about 870°C in the case of a steel substrate, the enamel raw material melts and interacts with the metal substrate so enabling the formation of a continuous varying structure. The interface domain between the substrate and the external layer is made of a complex material system where the ceramic vitreous and the metal constituents are mixed. In particular four main regions can be identified, (i) the pure metal region, (ii) the region where the metal constituents are dominant compared with the ceramic vitreous components, (iii) the region where the ceramic vitreous constituents are dominant compared with the metal ones, and the fourth region (iv) composed by the pure ceramic vitreous material. It has also to be noticed the presence of metallic dendrites that hinder the substrate and the external layer passing through the interphase region. Each region of the final composite structure plays a specific role: the metal substrate has mainly the structural function, the interphase region and the embedded dendrites guarantee the adhesion of the external vitreous layer to the substrate and the external vitreous layer is characterized by an high tribological, corrosion and thermal shock resistance. Such material, due to its internal composition, functionalization and architecture can be considered as a functionally graded composite material. The knowledge of the mechanical, tribological and chemical behavior of such composites is not well established and the research is still in progress. In particular the mechanical performances data about the composite coating are not jet established. In the present work the Residual Stresses, the Young modulus and the First Crack Failure of the composite porcelain enamel coating are studied. Due to the differences of the porcelain composite enamel and steel thermal properties the enamelled steel sheets have residual stresses: compressive residual stress acts on the coating and tensile residual stress acts on the steel sheet. The residual stresses estimation has been performed by measuring the curvature of rectangular one-side coated specimens. The Young modulus and the First Crack Failure (FCF) of the coating have been estimated by four point bending tests (3-7) monitored by means of the Acoustic Emission (AE) technique(5,6). In particular the AE information has been used to identify, during the bending tests, the displacement domain over which no coating failure occurs (Free Failure Zone, FFZ). In the FFZ domain, the Young modulus has been estimated according to ASTM D6272-02. The FCF has been calculated as the ratio between the displacement at the first crack of the coating and the coating thickness on the cracked side. The mechanical performances of the tested coated specimens have also been related and discussed to respective microstructure and surface characteristics by double entry charts.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Con questo lavoro di tesi si è cercato da un lato di dare un contributo al settore dei sensori chimici, caratterizzando e sviluppando diversi sistemi che presentano promettenti proprietà per l’utilizzo nella realizzazione di sensori luminescenti, e dall’altro di studiare sistemi di nanoparticelle di oro per identificarne e caratterizzarne i processi che portano all’interazione con un’unità fluorescente di riferimento, il pirene. Quest’ultima parte della tesi, sviluppata nel capitolo 4, sebbene possa apparire “slegata” dall’ambito della sensoristica, in realtà non lo è in quanto il lavoro di ricerca svolto rappresenta una buona base di partenza per lo sviluppo di sistemi di nanoparticelle metalliche con un possibile impiego in campo biomedico e diagnostico. Tutte le specie studiate, seppur molto diverse tra loro, posseggono quindi buone caratteristiche di luminescenza ed interessanti capacità di riconoscimento, più o meno selettivo, di specie in soluzione o allo stato gassoso. L’approccio generale che è stato adottato comporta una iniziale caratterizzazione in soluzione ed una susseguente ottimizzazione del sistema mirata a passare al fissaggio su supporti solidi in vista di possibili applicazioni pratiche. A tal proposito, nel capitolo 3 è stato possibile ottenere un monostrato organico costituito da un recettore (un cavitando), dotato di una parte fluorescente le cui proprietà di luminescenza sono sensibili alla presenza di una funzione chimica che caratterizza una classe di analiti, gli alcoli. E’ interessante sottolineare come lo stesso sistema in soluzione si comporti in maniera sostanzialmente differente, mostrando una capacità di segnalare l’analita molto meno efficiente, anche in funzione di una diversa orientazione della parte fluorescente. All’interfaccia solido-gas invece, l’orientamento del fluoroforo gioca un ruolo chiave nel processo di riconoscimento, e ottimizzando ulteriormente il setup sperimentale e la composizione dello strato, sarà possibile arrivare a segnalare quantità di analita sempre più basse. Nel capitolo 5 invece, è stato preso in esame un sistema le cui potenzialità, per un utilizzo come sonda fluorescente nel campo delle superfici di silicio, sembra promettere molto bene. A tal proposito sono stati discussi anche i risultati del lavoro che ha fornito l’idea per la concezione di questo sistema che, a breve, verrà implementato a sua volta su superficie solida. In conclusione, le ricerche descritte in questa tesi hanno quindi contribuito allo sviluppo di nuovi chemosensori, cercando di migliorare sia le proprietà fotofisiche dell’unità attiva, sia quelle dell’unità recettrice, sia, infine, l’efficienza del processo di traduzione del segnale. I risultati ottenuti hanno inoltre permesso di realizzare alcuni prototipi di dispositivi sensoriali aventi caratteristiche molto promettenti e di ottenere informazioni utili per la progettazione di nuovi dispositivi (ora in fase di sviluppo nei laboratori di ricerca) sempre più efficienti, rispondendo in tal modo alle aspettative con cui questo lavoro di dottorato era stato intrapreso.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi riguarda l'analisi delle trasmissioni ad ingranaggi e delle ruote dentate in generale, nell'ottica della minimizzazione delle perdite di energia. È stato messo a punto un modello per il calcolo della energia e del calore dissipati in un riduttore, sia ad assi paralleli sia epicicloidale. Tale modello consente di stimare la temperatura di equilibrio dell'olio al variare delle condizioni di funzionamento. Il calcolo termico è ancora poco diffuso nel progetto di riduttori, ma si è visto essere importante soprattutto per riduttori compatti, come i riduttori epicicloidali, per i quali la massima potenza trasmissibile è solitamente determinata proprio da considerazioni termiche. Il modello è stato implementato in un sistema di calcolo automatizzato, che può essere adattato a varie tipologie di riduttore. Tale sistema di calcolo consente, inoltre, di stimare l'energia dissipata in varie condizioni di lubrificazione ed è stato utilizzato per valutare le differenze tra lubrificazione tradizionale in bagno d'olio e lubrificazione a “carter secco” o a “carter umido”. Il modello è stato applicato al caso particolare di un riduttore ad ingranaggi a due stadi: il primo ad assi paralleli ed il secondo epicicloidale. Nell'ambito di un contratto di ricerca tra il DIEM e la Brevini S.p.A. di Reggio Emilia, sono state condotte prove sperimentali su un prototipo di tale riduttore, prove che hanno consentito di tarare il modello proposto [1]. Un ulteriore campo di indagine è stato lo studio dell’energia dissipata per ingranamento tra due ruote dentate utilizzando modelli che prevedano il calcolo di un coefficiente d'attrito variabile lungo il segmento di contatto. I modelli più comuni, al contrario, si basano su un coefficiente di attrito medio, mentre si può constatare che esso varia sensibilmente durante l’ingranamento. In particolare, non trovando in letteratura come varia il rendimento nel caso di ruote corrette, ci si è concentrati sul valore dell'energia dissipata negli ingranaggi al variare dello spostamento del profilo. Questo studio è riportato in [2]. È stata condotta una ricerca sul funzionamento di attuatori lineari vite-madrevite. Si sono studiati i meccanismi che determinano le condizioni di usura dell'accoppiamento vite-madrevite in attuatori lineari, con particolare riferimento agli aspetti termici del fenomeno. Si è visto, infatti, che la temperatura di contatto tra vite e chiocciola è il parametro più critico nel funzionamento di questi attuatori. Mediante una prova sperimentale, è stata trovata una legge che, data pressione, velocità e fattore di servizio, stima la temperatura di esercizio. Di tale legge sperimentale è stata data un'interpretazione sulla base dei modelli teorici noti. Questo studio è stato condotto nell'ambito di un contratto di ricerca tra il DIEM e la Ognibene Meccanica S.r.l. di Bologna ed è pubblicato in [3].

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Per quanto riguarda le costruzioni in conglomerato cementizio armato gettato in opera, i sistemi strutturali più comunemente utilizzati sono quelli a telaio (con trasmissione di momento flettente), a setti portanti o una combinazione di entrambi. A partire dagli anni ’60, numerosissimi sono stati gli studi relativamente al comportamento sismico di strutture in c.a. a telaio. Lo stesso si può affermare per le costruzioni costituite da pareti miste a telai. In particolare, l’argomento della progettazione sismica di tali tipologie di edifici ha sempre riguardato soprattutto gli edifici alti nei quali, evidentemente, l’impiego delle pareti avveniva allo scopo di limitarne la elevata deformabilità. Il comportamento sismico di strutture realizzate interamente a pareti portanti in c.a. è stato meno studiato negli anni, nonostante si sia osservato che edifici realizzati mediante tali sistemi strutturali abbiano mostrato, in generale, pregevoli risorse di resistenza nei confronti di terremoti anche di elevata intensità. Negli ultimi 10 anni, l’ingegneria sismica si sta incentrando sull’approfondimento delle risorse di tipologie costruttive di cui si è sempre fatto largo uso in passato (tipicamente nei paesi dell’Europa continentale, in America latina, negli USA e anche in Italia), ma delle quali mancavano adeguate conoscenze scientifiche relativamente al loro comportamento in zona sismica. Tali tipologie riguardano sostanzialmente sistemi strutturali interamente costituiti da pareti portanti in c.a. per edifici di modesta altezza, usualmente utilizzati in un’edilizia caratterizzata da ridotti costi di realizzazione (fabbricati per abitazioni civili e/o uffici). Obiettivo “generale” del lavoro di ricerca qui presentato è lo studio del comportamento sismico di strutture realizzate interamente a setti portanti in c.a. e di modesta altezza (edilizia caratterizzata da ridotti costi di realizzazione). In particolare, le pareti che si intendono qui studiare sono caratterizzate da basse percentuali geometriche di armatura e sono realizzate secondo la tecnologia del cassero a perdere. A conoscenza dello scrivente, non sono mai stati realizzati, fino ad oggi, studi sperimentali ed analitici allo scopo di determinare il comportamento sismico di tali sistemi strutturali, mentre è ben noto il loro comportamento statico. In dettaglio, questo lavoro di ricerca ha il duplice scopo di: • ottenere un sistema strutturale caratterizzato da elevate prestazioni sismiche; • mettere a punto strumenti applicativi (congruenti e compatibili con le vigenti normative e dunque immediatamente utilizzabili dai progettisti) per la progettazione sismica dei pannelli portanti in c.a. oggetto del presente studio. Al fine di studiare il comportamento sismico e di individuare gli strumenti pratici per la progettazione, la ricerca è stata organizzata come segue: • identificazione delle caratteristiche delle strutture studiate, mediante lo sviluppo/specializzazione di opportune formulazioni analitiche; • progettazione, supervisione, ed interpretazione di una estesa campagna di prove sperimentali eseguita su pareti portanti in c.a. in vera grandezza, al fine di verificarne l’efficace comportamento sotto carico ciclico; • sviluppo di semplici indicazioni (regole) progettuali relativamente alle strutture a pareti in c.a. studiate, al fine di ottenere le caratteristiche prestazionali desiderate. I risultati delle prove sperimentali hanno mostrato di essere in accordo con le previsioni analitiche, a conferma della validità degli strumenti di predizione del comportamento di tali pannelli. Le elevatissime prestazioni riscontrate sia in termini di resistenza che in termini di duttilità hanno evidenziato come le strutture studiate, così messe a punto, abbiano manifestato un comportamento sismico più che soddisfacente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nowadays, computing is migrating from traditional high performance and distributed computing to pervasive and utility computing based on heterogeneous networks and clients. The current trend suggests that future IT services will rely on distributed resources and on fast communication of heterogeneous contents. The success of this new range of services is directly linked to the effectiveness of the infrastructure in delivering them. The communication infrastructure will be the aggregation of different technologies even though the current trend suggests the emergence of single IP based transport service. Optical networking is a key technology to answer the increasing requests for dynamic bandwidth allocation and configure multiple topologies over the same physical layer infrastructure, optical networks today are still “far” from accessible from directly configure and offer network services and need to be enriched with more “user oriented” functionalities. However, current Control Plane architectures only facilitate efficient end-to-end connectivity provisioning and certainly cannot meet future network service requirements, e.g. the coordinated control of resources. The overall objective of this work is to provide the network with the improved usability and accessibility of the services provided by the Optical Network. More precisely, the definition of a service-oriented architecture is the enable technology to allow user applications to gain benefit of advanced services over an underlying dynamic optical layer. The definition of a service oriented networking architecture based on advanced optical network technologies facilitates users and applications access to abstracted levels of information regarding offered advanced network services. This thesis faces the problem to define a Service Oriented Architecture and its relevant building blocks, protocols and languages. In particular, this work has been focused on the use of the SIP protocol as a inter-layers signalling protocol which defines the Session Plane in conjunction with the Network Resource Description language. On the other hand, an advantage optical network must accommodate high data bandwidth with different granularities. Currently, two main technologies are emerging promoting the development of the future optical transport network, Optical Burst and Packet Switching. Both technologies respectively promise to provide all optical burst or packet switching instead of the current circuit switching. However, the electronic domain is still present in the scheduler forwarding and routing decision. Because of the high optics transmission frequency the burst or packet scheduler faces a difficult challenge, consequentially, high performance and time focused design of both memory and forwarding logic is need. This open issue has been faced in this thesis proposing an high efficiently implementation of burst and packet scheduler. The main novelty of the proposed implementation is that the scheduling problem has turned into simple calculation of a min/max function and the function complexity is almost independent of on the traffic conditions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract. This thesis presents a discussion on a few specific topics regarding the low velocity impact behaviour of laminated composites. These topics were chosen because of their significance as well as the relatively limited attention received so far by the scientific community. The first issue considered is the comparison between the effects induced by a low velocity impact and by a quasi-static indentation experimental test. An analysis of both test conditions is presented, based on the results of experiments carried out on carbon fibre laminates and on numerical computations by a finite element model. It is shown that both quasi-static and dynamic tests led to qualitatively similar failure patterns; three characteristic contact force thresholds, corresponding to the main steps of damage progression, were identified and found to be equal for impact and indentation. On the other hand, an equal energy absorption resulted in a larger delaminated area in quasi-static than in dynamic tests, while the maximum displacement of the impactor (or indentor) was higher in the case of impact, suggesting a probably more severe fibre damage than in indentation. Secondly, the effect of different specimen dimensions and boundary conditions on its impact response was examined. Experimental testing showed that the relationships of delaminated area with two significant impact parameters, the absorbed energy and the maximum contact force, did not depend on the in-plane dimensions and on the support condition of the coupons. The possibility of predicting, by means of a simplified numerical computation, the occurrence of delaminations during a specific impact event is also discussed. A study about the compressive behaviour of impact damaged laminates is also presented. Unlike most of the contributions available about this subject, the results of compression after impact tests on thin laminates are described in which the global specimen buckling was not prevented. Two different quasi-isotropic stacking sequences, as well as two specimen geometries, were considered. It is shown that in the case of rectangular coupons the lay-up can significantly affect the damage induced by impact. Different buckling shapes were observed in laminates with different stacking sequences, in agreement with the results of numerical analysis. In addition, the experiments showed that impact damage can alter the buckling mode of the laminates in certain situations, whereas it did not affect the compressive strength in every case, depending on the buckling shape. Some considerations about the significance of the test method employed are also proposed. Finally, a comprehensive study is presented regarding the influence of pre-existing in-plane loads on the impact response of laminates. Impact events in several conditions, including both tensile and compressive preloads, both uniaxial and biaxial, were analysed by means of numerical finite element simulations; the case of laminates impacted in postbuckling conditions was also considered. The study focused on how the effect of preload varies with the span-to-thickness ratio of the specimen, which was found to be a key parameter. It is shown that a tensile preload has the strongest effect on the peak stresses at low span-to-thickness ratios, leading to a reduction of the minimum impact energy required to initiate damage, whereas this effect tends to disappear as the span-to-thickness ratio increases. On the other hand, a compression preload exhibits the most detrimental effects at medium span-to-thickness ratios, at which the laminate compressive strength and the critical instability load are close to each other, while the influence of preload can be negligible for thin plates or even beneficial for very thick plates. The possibility to obtain a better explanation of the experimental results described in the literature, in view of the present findings, is highlighted. Throughout the thesis the capabilities and limitations of the finite element model, which was implemented in an in-house program, are discussed. The program did not include any damage model of the material. It is shown that, although this kind of analysis can yield accurate results as long as damage has little effect on the overall mechanical properties of a laminate, it can be helpful in explaining some phenomena and also in distinguishing between what can be modelled without taking into account the material degradation and what requires an appropriate simulation of damage. Sommario. Questa tesi presenta una discussione su alcune tematiche specifiche riguardanti il comportamento dei compositi laminati soggetti ad impatto a bassa velocità. Tali tematiche sono state scelte per la loro importanza, oltre che per l’attenzione relativamente limitata ricevuta finora dalla comunità scientifica. La prima delle problematiche considerate è il confronto fra gli effetti prodotti da una prova sperimentale di impatto a bassa velocità e da una prova di indentazione quasi statica. Viene presentata un’analisi di entrambe le condizioni di prova, basata sui risultati di esperimenti condotti su laminati in fibra di carbonio e su calcoli numerici svolti con un modello ad elementi finiti. È mostrato che sia le prove quasi statiche sia quelle dinamiche portano a un danneggiamento con caratteristiche qualitativamente simili; tre valori di soglia caratteristici della forza di contatto, corrispondenti alle fasi principali di progressione del danno, sono stati individuati e stimati uguali per impatto e indentazione. D’altro canto lo stesso assorbimento di energia ha portato ad un’area delaminata maggiore nelle prove statiche rispetto a quelle dinamiche, mentre il massimo spostamento dell’impattatore (o indentatore) è risultato maggiore nel caso dell’impatto, indicando la probabilità di un danneggiamento delle fibre più severo rispetto al caso dell’indentazione. In secondo luogo è stato esaminato l’effetto di diverse dimensioni del provino e diverse condizioni al contorno sulla sua risposta all’impatto. Le prove sperimentali hanno mostrato che le relazioni fra l’area delaminata e due parametri di impatto significativi, l’energia assorbita e la massima forza di contatto, non dipendono dalle dimensioni nel piano dei provini e dalle loro condizioni di supporto. Viene anche discussa la possibilità di prevedere, per mezzo di un calcolo numerico semplificato, il verificarsi di delaminazioni durante un determinato caso di impatto. È presentato anche uno studio sul comportamento a compressione di laminati danneggiati da impatto. Diversamente della maggior parte della letteratura disponibile su questo argomento, vengono qui descritti i risultati di prove di compressione dopo impatto su laminati sottili durante le quali l’instabilità elastica globale dei provini non è stata impedita. Sono state considerate due differenti sequenze di laminazione quasi isotrope, oltre a due geometrie per i provini. Viene mostrato come nel caso di provini rettangolari la sequenza di laminazione possa influenzare sensibilmente il danno prodotto dall’impatto. Due diversi tipi di deformate in condizioni di instabilità sono stati osservati per laminati con diversa laminazione, in accordo con i risultati dell’analisi numerica. Gli esperimenti hanno mostrato inoltre che in certe situazioni il danno da impatto può alterare la deformata che il laminato assume in seguito ad instabilità; d’altra parte tale danno non ha sempre influenzato la resistenza a compressione, a seconda della deformata. Vengono proposte anche alcune considerazioni sulla significatività del metodo di prova utilizzato. Infine viene presentato uno studio esaustivo riguardo all’influenza di carichi membranali preesistenti sulla risposta all’impatto dei laminati. Sono stati analizzati con simulazioni numeriche ad elementi finiti casi di impatto in diverse condizioni di precarico, sia di trazione sia di compressione, sia monoassiali sia biassiali; è stato preso in considerazione anche il caso di laminati impattati in condizioni di postbuckling. Lo studio si è concentrato in particolare sulla dipendenza degli effetti del precarico dal rapporto larghezza-spessore del provino, che si è rivelato un parametro fondamentale. Viene illustrato che un precarico di trazione ha l’effetto più marcato sulle massime tensioni per bassi rapporti larghezza-spessore, portando ad una riduzione della minima energia di impatto necessaria per innescare il danneggiamento, mentre questo effetto tende a scomparire all’aumentare di tale rapporto. Il precarico di compressione evidenzia invece gli effetti più deleteri a rapporti larghezza-spessore intermedi, ai quali la resistenza a compressione del laminato e il suo carico critico di instabilità sono paragonabili, mentre l’influenza del precarico può essere trascurabile per piastre sottili o addirittura benefica per piastre molto spesse. Viene evidenziata la possibilità di trovare una spiegazione più soddisfacente dei risultati sperimentali riportati in letteratura, alla luce del presente contributo. Nel corso della tesi vengono anche discussi le potenzialità ed i limiti del modello ad elementi finiti utilizzato, che è stato implementato in un programma scritto in proprio. Il programma non comprende alcuna modellazione del danneggiamento del materiale. Viene però spiegato come, nonostante questo tipo di analisi possa portare a risultati accurati soltanto finché il danno ha scarsi effetti sulle proprietà meccaniche d’insieme del laminato, esso possa essere utile per spiegare alcuni fenomeni, oltre che per distinguere fra ciò che si può riprodurre senza tenere conto del degrado del materiale e ciò che invece richiede una simulazione adeguata del danneggiamento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La conoscenza delle esigenze luminose (intensità, spettro, durata minima, massima ed ottimale del fotoperiodo di illuminazione) e della tolleranza alle condizioni degli interni delle piante ad uso decorativo, è di fondamentale importanza per una giusta tecnica di progettazione (dimensionamento e dislocazione dei punti luce) dell’indoor plantscaping. Il lungo periodo di condizionamento al quale queste piante vengono sottoposte, caratterizzato principalmente dalla scarsa disponibilità di luce naturale e dagli alti livelli di concentrazione di CO2 determina una forte influenza sui processi morfo-fisiologici. Il presente studio analizza il fattore luminoso ed è articolato su più punti quali; • caratterizzazione della riposta fotosintetica all’intensità luminosa di 21 delle principali specie a fogliame decorativo comunemente utilizzate nella realizzazione degli spazi verdi indoor, per stabilire quali siano i minimi ed ottimali livelli di PAR tali da garantire una fotosintesi netta positiva e nel complesso le condizioni di maggior benessere per le piante; • quantificazione dell’incremento fotosintetico netto dovuto ad una maggior concentrazione di CO2 negli interni rispetto alla concentrazione CO2 atmosferica esterna, all’aumentare dell’ intensità luminosa artificiale sulle precedenti specie; • monitoraggio dell’andamento delle attività fotosintetiche durante il periodo di illuminazione di 8 ore comunemente utilizzato in un interno ad uso lavorativo, a PAR costante e variabile in Ficus elastica e Dieffenbachia picta, al fine di stabilire quali possano essere le durate e le modalità di somministrazione della luce per rendere massima la fotosintesi netta riducendo al minimo i consumi energetici dovuti all’accensione delle lampade; • valutazione della risposta morfo-fisiologica e fotosintetica a modificazioni dello spettro luminoso mediante l’uso di LED monocromatici colorati ad emissione nel bianco, blu e rosso in Ficus benjamina e Iresine herbistii al fine di stabilire se questo tipo di lampade possano essere utilizzate come fonte integrativa e/o sostitutiva nella realizzazione degli spazi verdi interni. Vengono analizzati il punto si compensazione alla luce (g), il punto di saturazione alla luce (s), l’efficienza quantica (AQE), il punto di respirazione al buio (Rd) e la fotosintesi netta massima (A max) per (Aglaonema commutatum, Asplenium nidus, Anthurium andreanum, Begonia rex, Calathea luoise, Calathea veitchiana, Calathea rufibarba, Calathea zebrina, Codiaeum variegatum, Cthenanthe oppenheimiana, Dieffenbakia picta, Ficus benjamina, Ficus elatica, Ficus longifolia, Fittonia verschaffeltii, Iresine herbistii, Philodendron erubescens, Philodendron pertusum, Potos aureus, Spathiphillum wallisi, Syngonium podophillum ) e classificate le specie in funzione di Amax in quattro categorie; A max < 2 µmol CO2 m-2 s-1, A max compresa tra 2 e 4 µmol CO2 m-2 s-1, Amax cpmpresa tra 4 e 6 µmol CO2 m-2 s-1, Amax > 6 µmol CO2 m-2 s-1, al fine di mettere in risalto la potenzialità fotosintetiche di ogni singola specie. I valori di PAR compresi tra (g) ed (s) forniscono le indicazioni sulle quali basarsi per scegliere una giusta lampada o dimensionare un punto luce per ogni singola specie e/o composizione. È stimata l’influenza di due livelli di concentrazione di CO2 ambientale (400 e 800 ppm) all’incrementare dell’intensità luminosa sul processo fotosintetico delle specie precedenti. Per quasi tutte le specie 800 ppm di CO2 non favoriscono nessun incremento all’attività fotosintetica ad eccezione di Ficus benjamina, Ficus elatica e Syngonium podophillum se non accompagnati da una disponibilità luminosa superiore alle 10 µmol m-2 s-1. Viene monitorato l’andamento dell’attività fotosintetica a PAR costante e variabile (intervallando periodi di 8 minuti a PAR 40 e 80) durante 8 ore di illuminazione su Ficus elastica e Dieffenbachia picta al fine di stabilire la miglior modalità di somministrazione della luce. La fotosintesi netta cumulativa per l’intera durata di illuminazione a PAR costante mostra un calo dopo alcune ore dall’attivazione in Dieffenbackia, e un andamento oscillatorio in Ficus. L’illuminazione alternata consente di raggiungere i quantitativi di CO2 organicata a 80 µmol m-2 s-1 di PAR, dopo 5 ore e mezza sia in Ficus che Dieffenbackia sebbene le potenzialità fotosintetiche delle due piante siano molto differenti. È stato valutato l’effetto dell’illuminazione artificiale mediante LED (15W) a luce bianca, blu e rossa monocromatica in rapporto alla luce neon(36W) bianca tradizionale (con differenti abbinamenti tra le lampade) sui principali parametri morfologici e fisiologici, in Ficus benjamin ‘Variegata’ e Iresine herbistii per verificare se tali fonti possono rappresentare una valida alternativa nella sostituzione o integrazione di altre lampade per gli spazi verdi indoor. Tutte le combinazioni LED indagate possono rappresentare un’alternativa di sostituzione alla coltivazione con neon ed un risparmio energetico di oltre il 50%. Una PAR di 20,6 µmol m-2 s-1 della singola lampada LED bianco è sufficiente per mantenere la pianta in condizioni di sopravvivenza con un consumo di 15W a fronte dei 36W necessari per il funzionamento di ogni neon. La combinazione LED bianco + LED blu monocromatico favorisce il contenimento della taglia della pianta, caratteristica gradita nella fase di utilizzo indoor, una maggior produzione di sostanza secca e un’attività fotosintetica più elevata.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La risposta emodinamica all'esercizio dinamico è stata oggetto di numerosi studi scientifici. Poca attenzione è stata invece rivolta agli aggiustamenti cardiovascolari che si verificano quando si interrompe uno sforzo dinamico. Al cessare dell' esercizio, la frequenza cardiaca e la contrattilità miocardica subiscono un decremento repentino e vengono rilasciati in quantità i prodotti finali del metabolismo muscolare, come lattato, ioni idrogeno, adenosina, sostanze in grado di indurre vasodilatazione nei gruppi muscolari precedentemente attivati determinando una riduzione del precarico, post-carico cardiaco, contrattilità miocardica e una dilatazione delle arteriole periferiche, così da mantenere le resistenze vascolari periferiche a un basso livello. Inoltre, si verificano alterazioni della concentrazione ematica di elettroliti, diminuzione delle catecolamine circolanti e si verifica un ipertono vagale : tutti questi fenomeni possono avere un effetto significativo sullo stato emodinamico. In questo studio si voleva valutare in che misura l’eventuale effetto ipotensivo dovuto all’esercizio fosse legato all’intensità del carico lavorativo applicato ed alla sua durata. Il campione esaminato comprendeva 20 soggetti maschi attivi. I soggetti venivano sottoposti a quattro test in giornate diverse. La prova da sforzo preliminare consisteva in una prova da sforzo triangolare massimale eseguita al cicloergometro con un protocollo incrementale di 30 Watt al minuto. Il test si articolava in una prima fase della durata di 3 minuti nei quali venivano registrati i dati basali, in una seconda fase della durata di tre minuti in cui il soggetto compiva un riscaldamento al cicloergometro, che precedeva l’inizio dello sforzo, ad un carico di 20 W. Al termine della prova venivano calcolati il massimo carico lavorativo raggiunto (Wmax) ed il valore di soglia anaerobica (SA). Dopo la prova da sforzo preliminare il soggetto effettuava 3 esercizi rettangolari di diversa intensità in maniera randomizzata così strutturati: test 70% SA; test 130% SA, 130% Wmax : prove da sforzo rettangolari ad un carico lavorativo pari alla percentuale indicatain relazione ai valori di SA e Wmax ottenuti nella prova da sforzo preliminare. Tali test duravano dieci minuti o fino all'esaurimento del soggetto. Le prova erano precedute da tre minuti di riposo e da tre minuti di riscaldamento. Il recupero aveva una durata di 30 minuti. La PA veniva misurata ogni 5 minuti durante lo sforzo, ogni minuto nei primi 5 minuti di recupero e successivamente ogni 5 minuti fino alla conclusione del recupero. Dai risultati emerge come l'effetto ipotensivo sia stato più marcato nel recupero dall'intensità di carico lavorativo meno elevata, cioè dopo il test 70%SA. C'è da considerare che la più bassa intensità di sforzo permetteva di praticare un esercizio significativamente più lungo rispetto ai test 130%SA e 130%Wmax. È quindi verosimile che anche la durata dell'esercizio e non solo la sua intensità abbia avuto un ruolo fondamentale nel determinare l'ipotensione nel recupero evidenziata in questo studio. L’effetto ipotensivo più evidente si è manifestato nelle prove a più bassa intensità ma con carico lavorativo totale più elevato. I dati supportano la tendenza a considerare non tanto l’intensità e la durata dell’esercizio in modo isolato, quanto piuttosto il carico lavorativo totale (intensità x durata). L'effetto ipotensivo registrato nello studio è da ascriversi soprattutto ad una persistente vasodilatazione susseguente allo sforzo. Infatti, nel recupero dal test 70%SA, le RVP si mantenevano basse rispetto ai valori di riposo. Tale dato potrebbe avere un grande valore clinico nella prescrizione dell'attività fisica più idonea nei soggetti ipertesi,che potrebbero beneficiare di un eventuale effetto ipotensivo successivo all'attività praticata. Pertanto in futuro bisognerà estendere lo studio ai soggetti ipertesi. La conferma di tale risultato in questi soggetti permetterebbe di scegliere correttamente l'intensità e la durata del carico lavorativo, in modo da calibrare lo sforzo al grado di patologia del soggetto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi dottorale in oggetto prende spunto da alcune considerazioni di base relative alla salute di una comunità. Infatti quest’ultima si fonda sulla sicurezza dell’ambiente in cui vive e sulla qualità delle relazioni tra i suoi componenti. In questo ambito la mobilità rappresenta uno degli elementi di maggior criticità, sia per la sicurezza delle persone, che per la salute pubblica, che per le conseguenze sull’ambiente che ne derivano. Negli ultimi anni la circolazione stradale è notevolmente aumentata è questo ha portato a notevoli aspetti negativi, uno dei quali è connesso agli incidenti stradali. In tale ambito viene ricordato che l’Unione Europea ha da tempo indicato come obiettivo prioritario il miglioramento della sicurezza stradale e nel 2001 ha fissato il traguardo di dimezzare entro il 2010 il numero delle vittime degli incidenti stradali. Non ultima, l’approvazione da parte del Parlamento europeo e del Consiglio di un atto legislativo (d’imminente pubblicazione sulla GU Europea) relativo alla gestione della sicurezza in tutte le fasi della pianificazione, della progettazione e del funzionamento delle infrastrutture stradali, in cui si evidenzia l’esigenza di una quantificazione della sicurezza stradale. In tale contesto viene sottolineato come uno dei maggiori problemi nella gestione della sicurezza stradale sia la mancanza di un metodo affidabile per stimare e quantificare il livello di sicurezza di una strada esistente o in progetto. Partendo da questa considerazione la tesi si sviluppa mettendo in evidenza le grandezza fondamentali nel problema della sicurezza stradale, (grado di esposizione, rischio d’incidente e le possibili conseguenze sui passeggeri) e analizzando i sistemi adottati tradizionalmente per effettuare analisi di sicurezza: • Statistiche dei dati storici d’incidente; • Previsione da modelli basati su analisi di regressione dei dati incidentali; • Studi Before-After; • Valutazione da giudizi di esperti. Dopo aver analizzato gli aspetti positivi e negativi delle alternative in parola, viene proposto un nuovo approccio, che combina gli elementi di ognuno dei metodi sopra citati in un algoritmo di previsione incidentale. Tale nuovo algoritmo, denominato Interactive Highway Safety Design Model (IHSDM) è stato sviluppato dalla Federal Highway Administration in collaborazione con la Turner Fairbank Higway Research Center ed è specifico per le strade extraurbane a due corsie. Il passo successivo nello sviluppo della tesi è quello di un’analisi dettagliata del modello IHSDM che fornisce il numero totale di incidenti previsti in un certo intervallo temporale. Viene analizzata la struttura del modello, i limiti d’applicabilità, le equazioni che ne sono alla base e i coefficienti moltiplicativi relativi ad ogni caratteristica geometrica e funzionale. Inoltre viene presentata un’ampia analisi di sensibilità che permette di definire quale sia l’influenza d’ogni singolo Fattore di Previsione incidentale (Accident Predication Factor) sul risultato finale. Dai temi trattati, emerge chiaramente come la sicurezza è legata a più sistemi tra loro interconnessi e che per utilizzare e migliorare i modelli previsionali è necessario avere a disposizione dati completi, congruenti, aggiornati e facilmente consultabili. Infatti, anche quando sono disponibili elementi su tutti gli incidenti avvenuti, spesso mancano informazioni di dettaglio ma fondamentali, riguardanti la strada come ad esempio il grado di curvatura, la larghezza della carreggiata o l’aderenza della pavimentazione. In tale ottica, nella tesi viene presentato il Sistema Informativo Stradale (SIS) della Provincia di Bologna, concepito come strumento di gestione delle problematiche inerenti la viabilità e come strumento di supporto per la pianificazione degli interventi e la programmazione delle risorse da investire sulla rete. Viene illustrato come il sistema sia in grado di acquisire, elaborare ed associare dati georeferenziati relativi al territorio sia sotto forma di rappresentazioni grafiche, sia mediante informazioni descrittive di tipo anagrafico ed alfanumerico. Quindi viene descritto il rilievo ad alto rendimento, effettuato con l’ausilio di un laboratorio mobile multifunzionale (Mobile Mapping System), grazie al quale è stato possibile definire con precisione il grafo completo delle strade provinciali e il database contenente i dati relativi al patrimonio infrastrutturale. Tali dati, relativi alle caratteristiche plano-altimetriche dell’asse (rettifili, curve planimetriche, livellette, raccordi altimetrici, ecc...), alla sezione trasversale (numero e larghezza corsie, presenza di banchine, ecc..), all’ambiente circostante e alle strutture annesse vengono presentati in forma completa specificando per ognuno la variabilità specifica. Inoltre viene evidenziato come il database si completi con i dati d’incidentali georeferenziati sul grafo e compresivi di tutte le informazioni contenute nel modello ISTAT CTT/INC spiegandone le possibili conseguenze sul campo dell’analisi di sicurezza. La tesi si conclude con l’applicazione del modello IHSDM ad un caso reale, nello specifico la SP255 di S.Matteo Decima. Infatti tale infrastruttura sarà oggetto di un miglioramento strutturale, finanziato dalla Regione Emilia Romagna, che consistente nell’allargamento della sede stradale attraverso la realizzazione di una banchina pavimentata di 1.00m su entrambi i lati della strada dalla prog. km 19+000 al km 21+200. Attraverso l’utilizzo dell’algoritmo di previsione incidentale è stato possibile quantificare gli effetti di questo miglioramento sul livello di sicurezza dell’infrastruttura e verificare l’attendibilità del modello con e senza storia incidentale pregressa. Questa applicazione ad un caso reale mette in evidenza come le informazioni del SIS possano essere sfruttate a pieno per la realizzazione di un analisi di sicurezza attraverso l’algoritmo di previsione incidentale IHSDM sia nella fase di analisi di uno specifico tronco stradale che in quella fondamentale di calibrazione del modello ad una specifica rete stradale (quella della Provincia di Bologna). Inoltre viene sottolineato come la fruibilità e la completezza dei dati a disposizione, possano costituire la base per sviluppi di ricerca futuri, come ad esempio l’indagine sulle correlazioni esistenti tra le variabili indipendenti che agiscono sulla sicurezza stradale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

FIR spectroscopy is an alternative way of collecting spectra of many inorganic pigments and corrosion products found on art objects, which is not normally observed in the MIR region. Most FIR spectra are traditionally collected in transmission mode but as a real novelty it is now also possible to record FIR spectra in ATR (Attenuated Total Reflectance) mode. In FIR transmission we employ polyethylene (PE) for preparation of pellets by embedding the sample in PE. Unfortunately, the preparation requires heating of the PE in order to produces at transparent pellet. This will affect compounds with low melting points, especially those with structurally incorporated water. Another option in FIR transmission is the use of thin films. We test the use of polyethylene thin film (PETF), both commercial and laboratory-made PETF. ATR collection of samples is possible in both the MIR and FIR region on solid, powdery or liquid samples. Changing from the MIR to the FIR region is easy as it simply requires the change of detector and beamsplitter (which can be performed within a few minutes). No preparation of the sample is necessary, which is a huge advantage over the PE transmission method. The most obvious difference, when comparing transmission with ATR, is the distortion of band shape (which appears asymmetrical in the lower wavenumber region) and intensity differences. However, the biggest difference can be the shift of strong absorbing bands moving to lower wavenumbers in ATR mode. The sometimes huge band shift necessitates the collection of standard library spectra in both FIR transmission and ATR modes, provided these two methods of collecting are to be employed for analyses of unknown samples. Standard samples of 150 pigment and corrosion compounds are thus collected in both FIR transmission and ATR mode in order to build up a digital library of spectra for comparison with unknown samples. XRD, XRF and Raman spectroscopy assists us in confirming the purity or impurity of our standard samples. 24 didactic test tables, with known pigment and binder painted on the surface of a limestone tablet, are used for testing the established library and different ways of collecting in ATR and transmission mode. In ATR, micro samples are scratched from the surface and examined in both the MIR and FIR region. Additionally, direct surface contact of the didactic tablets with the ATR crystal are tested together with water enhanced surface contact. In FIR transmission we compare the powder from our test tablet on the laboratory PETF and embedded in PE. We also compare the PE pellets collected using a 4x beam condenser, focusing the IR beam area from 8 mm to 2 mm. A few samples collected from a mural painting in a Nepalese temple, corrosion products collected from archaeological Chinese bronze objects and samples from a mural paintings in an Italian abbey, are examined by ATR or transmission spectroscopy.