977 resultados para POLTRONA RELAX SEDUTA MODELLO


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente elaborato si inserisce all’interno del progetto THESEUS (Innovative Technologies for safer European coasts in a changing climate), nella sezione denominata “work package 3”. I principali obiettivi di questo studio sono: 1) valutare l’impatto delle differenti strategie di difesa di zone intertidale dell’ecosistema spiaggia lungo il litorale dell’Emilia-Romagna; 2) analizzare nel dettaglio la struttura e la distribuzione del microbivalve Lentidium mediterraneum, tipico do questa zona, per valutarne un eventuale utilizzo nei progetti di monitoraggio e analisi degli impatti antropici legati alle variazioni morfodinamiche. Sono state scelte tre spiagge: Cesenatico, in cui da molti anni sono presenti strutture di difesa rigide della spiaggia, e dove ogni anno, al termine della stagione estiva, vengono costruite delle dune artificiali, rimosse a fine primavera, per proteggere gli stabilimenti balneari dalle mareggiate invernali; Cervia, in cui sono presenti solo le dune artificiali stagionali; Lido di Dante, considerato naturale per l’assenza di strutture di protezione. Il campionamento è stato effettuato in 3 tempi per ciascun sito. 2 tempi senza le dune artificiali, e uno con. Per ciascun sito e ciascun tempo sono stati replicati 3 transetti, random, per ogni livello di marea. Sono stati prelevati campioni per un totale di 14879 individui e identificati 40 taxa. Da questi sono stati estratti gli esemplari di Lentidium mediterraneum da analizzare. Le analisi uni e multivariate effettuate sull’intera comunità hanno messo in evidenza differenze fra le spiagge, fra i tempi di campionamento e i livelli di marea. Si è, inoltre evidenziato come tali differenze fossero in parte dovute alle densità di Lentidium mediterraneum. Oltre alle analisi classiche nel presente lavoro di tesi è stato proposto un modello concettuale di trasporto del Lentidium mediterraneum che se validato confermerebbe la possibilità di utilizzare il microbivalve come “proxy biologico”.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La necessità di conservazione e recupero di murature, di qualsiasi interesse storico/architettonico, ha evidenziato la necessità di conoscere il più dettagliatamente possibile le caratteristiche strutturali delle opere interessate: un intervento risulterà tanto più efficace e adatto agli scopi prefissi quanto maggiore sarà la conoscenza dell’opera, della sua evoluzione, dei materiali utilizzati per la realizzazione, della tecnica costruttiva e della struttura portante. Spesso è necessario eseguire interventi di adeguamento sismico di comuni edifici su cui poter intervenire più o meno indiscriminatamente, mentre, per opere di interesse storico è necessario ridurre al minimo l’invasività degli interventi: in tutti e due i casi, una buona riuscita dell’intervento dipende dalla conoscenza dell’organismo strutturale sul quale si deve operare. Come spesso accade, anche per opere di recente costruzione, risulta difficile poter recuperare i dati progettuali (disegni e calcoli) e spesso le tecniche e le tipologie utilizzate per le costruzioni si differenziavano da zona a zona, così come diversi erano i materiali da costruzione; risulta quindi evidente che per progettare una serie di interventi di recupero è necessario poter ottenere il maggior numero di informazioni al riguardo. Diverse sono le esperienze maturate in questo campo in tutta Europa e queste hanno mostrato come non è sufficiente intervenire con tecniche innovative per adeguare agli standard attuali di sicurezza opere del passato: infatti, in molti casi, l’applicazione sbagliata di queste tecniche o gli interventi progettati in modo non adeguato non hanno svolto il loro compito e in alcuni casi hanno peggiorato la situazione esistente. Dalle esperienze maturate è stato possibile osservare che anche le migliore tecniche di recupero non possono risultare efficaci senza un’adeguata conoscenza dello stato di degrado degli edifici, del loro assetto strutturale e delle possibili carenze. La diagnostica strutturale si vuole inserire proprio in questo livello potendo fornire ad un progettista tutte le informazioni necessarie per effettuare al meglio ed in maniera efficace gli interventi di recupero e restauro necessari. Oltre questi aspetti, le analisi diagnostiche possono essere utilizzate anche per verificare l’efficacia degli interventi effettuati. Diversi sono gli aspetti che si possono analizzare in un’indagine di diagnostica ed in base alle esigenze e alle necessità del rilievo da effettuare sono varie le tecniche a disposizione, ognuna con le sue peculiarità e potenzialità. Nella realizzazione di questa tesi sono state affrontate diverse problematiche che hanno previsto sia l’analisi di situazioni reali in cantiere, sia lo studio in laboratorio. La prima parte del presente elaborato prevede lo studio delle attività svolte a Palazzo Malvezzi, attuale sede della Provincia di Bologna. L’edificio, di interesse storico, ha subito diverse trasformazioni durate la sua vita ed in alcuni casi, queste, eseguite con tecnologie e materiali inadatti, hanno provocato variazioni nell’assetto statico della struttura; inoltre, il palazzo, è soggetto a movimenti a livello di fondazione in quanto è presente una faglia di subsidenza che attraversa l’edificio. Tutte queste problematiche hanno creato movimenti differenziali alla struttura in elevazione che si sono evidenziati con crepe distribuite in tutto l’edificio. Il primo aspetto analizzato (capitoli 4 e 5) è lo studio della profondità delle fessure presenti nel solaio della sala Rossa, sede dei comunicati stampa e delle conferenze della Provincia. Senza dubbio antiestetiche, le crepe presenti in una struttura, se sottovalutate, possono compromettere notevolmente le funzioni statiche dell’elemento in cui si sviluppano: la funzione di protezione fornita dal solaio o da qualsiasi altro elemento strutturale alle armature in questo immerse, viene meno, offrendo vie preferenziali a possibili situazioni di degrado, specialmente se in condizioni ambientali aggressive. E' facile intuire, quindi, che un aspetto all’apparenza banale come quello delle fessure non può essere sottovalutato. L’analisi è stata condotta utilizzando prove soniche ed impact-echo, tecniche che sfruttano lo stresso principio, la propagazione delle onde elastiche nel mezzo, ma che si differenziano per procedure di prova e frequenze generate nel test. Nel primo caso, la presenza del martello strumentato consente di valutare anche la velocità di propagazione delle onde elastiche, fenomeno utilizzato per ottenere indicazioni sulla compattezza del mezzo, mentre nel secondo non è possibile ricavare queste informazioni in quanto la tecnica si basa solamente sullo studio in frequenza del segnale. L’utilizzo dell’impact-echo è stato necessario in quanto la ristilatura effettuata sulle fessure scelte per l’analisi, non ha permesso di ottenere risultati utili tramite prove soniche ; infatti, le frequenze generate risultano troppo basse per poter apprezzare queste piccole discontinuità materiali. La fase di studio successiva ha previsto l’analisi della conformazione dei solai. Nel capitolo 6, tale studio, viene condotto sul solaio della sala Rossa con lo scopo di individuarne la conformazione e la presenza di eventuali elementi di rinforzo inseriti nelle ristrutturazioni avvenute nel corso della vita del palazzo: precedenti indagini eseguite con endoscopio, infatti, hanno mostrato una camera d’aria ed elementi metallici posizionati al di sotto della volta a padiglione costituente il solaio stesso. Le indagini svolte in questa tesi, hanno previsto l’utilizzo della strumentazione radar GPR: con questa tecnica, basata sulla propagazione delle onde elettromagnetiche all’interno di un mezzo, è possibile variare rapidamente la profondità d’ispezione ed il dettaglio ottenibile nelle analisi cambiando le antenne che trasmettono e ricevono il segnale, caratteristiche fondamentali in questo tipo di studio. I risultati ottenuti hanno confermato quanto emerso nelle precedenti indagini mostrando anche altri dettagli descritti nel capitolo. Altro solaio oggetto d’indagine è quello della sala dell’Ovale (capitoli 7 e 8): costruito per dividere l’antica sala da ballo in due volumi, tale elemento è provvisto al suo centro di un caratteristico foro ovale, da cui ne deriva il nome. La forma del solaio lascia supporre la presenza di una particolare struttura di sostegno che le precedenti analisi condotte tramite endoscopio, non sono riuscite a cogliere pienamente. Anche in questo caso le indagini sono state eseguite tramite tecnica radar GPR, ma a differenza dei dati raccolti nella sala Rossa, in questo caso è stato possibile creare un modello tridimensionale del mezzo investigato; inoltre, lo studio è stato ripetuto utilizzando un’antenna ad elevata risoluzione che ha consentito di individuare dettagli in precedenza non visibili. Un ulteriore studio condotto a palazzo Malvezzi riguarda l’analisi della risalita capillare all’interno degli elementi strutturali presenti nel piano interrato (capitolo 9): questo fenomeno, presente nella maggior parte delle opere civili, e causa di degrado delle stesse nelle zone colpite, viene indagato utilizzando il radar GPR. In questo caso, oltre che individuare i livelli di risalita osservabili nelle sezioni radar, viene eseguita anche un’analisi sulle velocità di propagazione del segnale e sulle caratteristiche dielettriche del mezzo, variabili in base al contenuto d’acqua. Lo scopo è quello di individuare i livelli massimi di risalita per poterli confrontare con successive analisi. Nella fase successiva di questo elaborato vengono presentate le analisi svolte in laboratorio. Nella prima parte, capitolo 10, viene ancora esaminato il fenomeno della risalita capillare: volendo studiare in dettaglio questo problema, sono stati realizzati dei muretti in laterizio (a 2 o 3 teste) e per ognuno di essi sono state simulate diverse condizioni di risalita capillare con varie tipologie di sale disciolto in acqua (cloruro di sodio e solfato di sodio). Lo scopo è di valutare i livelli di risalita osservabili per diverse tipologie di sale e per diverse concentrazioni dello stesso. Ancora una volta è stata utilizzata la tecnica radar GPR che permette non solo di valutare tali livelli, ma anche la distribuzione dell’umidità all’interno dei provini, riuscendo a distinguere tra zone completamente sature e zone parzialmente umide. Nello studio è stata valutata anche l’influenza delle concentrazioni saline sulla propagazione del segnale elettromagnetico. Un difetto delle tecniche di diagnostica è quello di essere strumenti qualitativi, ma non quantitativi: nel capitolo 11 viene affrontato questo problema cercando di valutare la precisione dei risultati ottenuti da indagini condotte con strumentazione radar GPR. Studiando gli stessi provini analizzati nel capitolo precedente, la tecnica radar è stata utilizzata per individuare e posizionare i difetti (muretti a 3 teste) e le pietre (muretti a 2 teste) inserite in questi elementi: i risultati ottenuti nella prova sono stati confrontati, infine, con la reale geometria. Nell’ultima parte (capitolo 12), viene esaminato il problema dell’individuazione dei vuoti all’interno di laterizi: per questo scopo sono state create artificialmente delle cavità di diversa forma e a diverse profondità all’interno di laterizi pieni che, dopo un trattamento in cella climatica per aumentarne la temperatura, sono stati sottoposti a riprese termografiche nella fase di raffreddamento. Lo scopo di queste prove è quello di valutare quale sia la massima differenza di temperatura superficiale causata dai diversi difetti e per quale intervallo di temperature questa si verifica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il lavoro di ricerca esplora il panorama dell’efficienza energetica dei sistemi acquedottistici, soffermandosi a considerare possibili indicatori che possano valutarla in maniera corretta e completa, in particolare nei confronti della presenza di perdite in rete. Si prendono in considerazione con maggiore attenzione, tra tutte le strategie per aumentare l’efficienza energetica, quelle che contemporaneamente producono anche risparmi idrici, come la riduzione della pressione e la ricerca attiva delle perdite . Dopo un inquadramento internazionale, sono stati analizzati mediante mappe tematiche di intensità energetica, i consumi energetici specifici sui sistemi acquedottistici della regione Emilia Romagna per gli anni 2006 e 2007, si è passati ad una analisi critica degli indicatori attualmente in uso. Inoltre per casi di studio sintetici e tutti i casi di studio proposti, si sono valutate curve di relazione tra percentuale di perdita idrica e aumento del consumo energetico, in grado di dare indicazioni su come ciascun sistema reagisce, in termini di aumento dell’energia consumata, all’aumentare del livello di perdita. Questa relazione appare fortemente influenzata da fattori come la modalità di pompaggio, la posizione delle rotture sulla rete e la scabrezza delle condotte. E’ emersa la necessità solo poter analizzare separatamentel’influenza sull’efficienza energeticadei sistemi di pompaggio e della rete, mostrando il ruolo importante con cui questa contribuisce all’efficienza globale del sistema. Viene proposto uno sviluppo ulteriore dell’indicatore GEE Global Energy Efficiency (Abadia, 2008), che consente di distinguere l’impatto sull’efficienza energetica dovuto alle perdite idriche e alla struttura intrinseca della rete, in termini di collocazione reciproca tra risorsa idrica e domanda e schema impiantistico.Questa metodologia di analisi dell’efficienza energetica è stata applicata ai casi di studio, sia sintetici che reali, il distretto di Marzaglia (MO) e quello di Mirabello (FE), entrambi alimentati da pompe a giri variabili.. La ricerca ha consentito di mostrare inoltre il ruolo della modellazione numerica in particolare nell’analisi dell’effetto prodotto sull’efficienza energetica dalla presenza di perdite idriche. Nell’ultimo capitolo si completa la panoramica dei benefici ottenibili attraverso la riduzione della pressione, che nei casi citati viene conseguita tramite pompe asservite ad inverter, con il caso di studio del distretto Bolognina all’interno del sistema di distribuzione di Bologna, che vede l’utilizzo di valvole riduttrici di pressione. Oltre a stimare il risparmio energetico derivante dalla riduzione delle perdite ottenuta tramite le PRV, sono stati valutati su modello i benefici energetici conseguenti all’introduzione nel distretto di turbine per la produzione di energia

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il lavoro valuta le prestazioni di 14 stati membri dell'Unione Europea, la quale attraverso la strategia Europa 2020 propone il raggiungimento di 8 target fondamentali per una crescita intelligente, sostenibile e inclusiva entro il 2020. I target riguardano l'occupazione, il tasso d'istruzione superiore, la percentuale di energia rinnovabile, il consumo energetico, le emissioni di gas serra, la spesa in ricerca e sviluppo, la povertà , il prematuro abbandono scolastico. A tali target corrispondono indicatori che sono annualmente censiti attraverso le autorità statistiche nazionali ed Eurostat. La misura della performance degli Stati è stata effettuata mediante il calcolo della distanza dal target di ciascun paese negli anni compresi tra il 2000 e il 2009. In particolare si è effettuato, adattandolo alle esigenze del lavoro, il calcolo della distanza euclidea e della distanza di Mahalanobis. Con le limitazioni dovute alla qualità dei dati disponibili e ad una difficoltà oggettiva di stabilire una linea di base, il lavoro ha permesso di dare un giudizio alla qualità dello sforzo compiuto da ciascun paese per raggiungere i target, fornendo un quadro analitico e articolato dei rapporti che intercorrono tra i diversi indicatori. In particolare è stato realizzato un modello relazionale basato su quattro indicatori che sono risultati essere correlati e legati da relazioni di tipo causale. I risultati possono essere sintetizzati come segue. La strategia Europa 2020 sembra partire da buone basi in quanto si è potuto osservare che in generale tutti gli stati membri osservati, Europa a 15, mostrano avere un miglioramento verso i loro rispettivi target dal 2005. Durante gli anni osservati si è notato che il range temporale 2005 e 2008 sembra essere stato il periodo dove gli stati hanno rallentato maggiormente la loro crescita di performance, con poi un buon miglioramento nell'anno finale. Questo miglioramento è stato indagato ed è risultato essere coincidente con l'anno di inizio della crisi economica. Inoltre si sono osservate buone relazioni tra il GDP e gli indicatori che hanno contribuito alla diminuzione delle performance, ma il range di riferimento non molto ampio, non ha permesso di definire la reale correlazione tra il GDP e il consumo energetico ed il GDP e l'investimento in ricerca e sviluppo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La catena respiratoria mitocondriale è principalmente costituita da proteine integrali della membrana interna, che hanno la capacità di accoppiare il flusso elettronico, dovuto alle reazioni redox che esse catalizzano, al trasporto di protoni dalla matrice del mitocondrio verso lo spazio intermembrana. Qui i protoni accumulati creano un gradiente elettrochimico utile per la sintesi di ATP ad opera dell’ATP sintasi. Nonostante i notevoli sviluppi della ricerca sulla struttura e sul meccanismo d’azione dei singoli enzimi della catena, la sua organizzazione sovramolecolare, e le implicazioni funzionali che ne derivano, rimangono ancora da chiarire in maniera completa. Da questa problematica trae scopo la presente tesi volta allo studio dell’organizzazione strutturale sovramolecolare della catena respiratoria mediante indagini sia cinetiche che strutturali. Il modello di catena respiratoria più accreditato fino a qualche anno fa si basava sulla teoria delle collisioni casuali (random collision model) che considera i complessi come unità disperse nel doppio strato lipidico, ma collegate funzionalmente tra loro da componenti a basso peso molecolare (Coenzima Q10 e citocromo c). Recenti studi favoriscono invece una organizzazione almeno in parte in stato solido, in cui gli enzimi respiratori si presentano sotto forma di supercomplessi (respirosoma) con indirizzamento diretto (channeling) degli elettroni tra tutti i costituenti, senza distinzione tra fissi e mobili. L’importanza della comprensione delle relazioni che si instaurano tra i complessi , deriva dal fatto che la catena respiratoria gioca un ruolo fondamentale nell’invecchiamento, e nello sviluppo di alcune malattie cronico degenerative attraverso la genesi di specie reattive dell’ossigeno (ROS). E’ noto, infatti, che i ROS aggrediscono, anche i complessi respiratori e che questi, danneggiati, producono più ROS per cui si instaura un circolo vizioso difficile da interrompere. La nostra ipotesi è che, oltre al danno a carico dei singoli complessi, esista una correlazione tra le modificazioni della struttura del supercomplesso, stress ossidativo e deficit energetico. Infatti, la dissociazione del supercomplesso può influenzare la stabilità del Complesso I ed avere ripercussioni sul trasferimento elettronico e protonico; per cui non si può escludere che ciò porti ad un’ulteriore produzione di specie reattive dell’ossigeno. I dati sperimentali prodotti a sostegno del modello del respirosoma si riferiscono principalmente a studi strutturali di elettroforesi su gel di poliacrilammide in condizioni non denaturanti (BN-PAGE) che, però, non danno alcuna informazione sulla funzionalità dei supercomplessi. Pertanto nel nostro laboratorio, abbiamo sviluppato una indagine di tipo cinetico, basata sull’analisi del controllo di flusso metabolico,in grado di distinguere, funzionalmente, tra supercomplessi e complessi respiratori separati. Ciò è possibile in quanto, secondo la teoria del controllo di flusso, in un percorso metabolico lineare composto da una serie di enzimi distinti e connessi da intermedi mobili, ciascun enzima esercita un controllo (percentuale) differente sull’intero flusso metabolico; tale controllo è definito dal coefficiente di controllo di flusso, e la somma di tutti i coefficienti è uguale a 1. In un supercomplesso, invece, gli enzimi sono organizzati come subunità di una entità singola. In questo modo, ognuno di essi controlla in maniera esclusiva l’intero flusso metabolico e mostra un coefficiente di controllo di flusso pari a 1 per cui la somma dei coefficienti di tutti gli elementi del supercomplesso sarà maggiore di 1. In questa tesi sono riportati i risultati dell’analisi cinetica condotta su mitocondri di fegato di ratto (RLM) sia disaccoppiati, che accoppiati in condizioni fosforilanti (stato 3) e non fosforilanti (stato 4). L’analisi ha evidenziato l’associazione preferenziale del Complesso I e Complesso III sia in mitocondri disaccoppiati che accoppiati in stato 3 di respirazione. Quest’ultimo risultato permette per la prima volta di affermare che il supercomplesso I+III è presente anche in mitocondri integri capaci della fosforilazione ossidativa e che il trasferimento elettronico tra i due complessi possa effettivamente realizzarsi anche in condizioni fisiologiche, attraverso un fenomeno di channeling del Coenzima Q10. Sugli stessi campioni è stata eseguita anche un analisi strutturale mediante gel-elettroforesi (2D BN/SDS-PAGE) ed immunoblotting che, oltre a supportare i dati cinetici sullo stato di aggregazione dei complessi respiratori, ci ha permesso di evidenziare il ruolo del citocromo c nel supercomplesso, in particolare per il Complesso IV e di avviare uno studio comparativo esteso ai mitocondri di cuore bovino (BHM), di tubero di patata (POM) e di S. cerevisiae.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

ABSTRACT (italiano) Con crescente attenzione riguardo al problema della sicurezza di ponti e viadotti esistenti nei Paesi Bassi, lo scopo della presente tesi è quello di studiare, mediante la modellazione con Elementi Finiti ed il continuo confronto con risultati sperimentali, la risposta in esercizio di elementi che compongono infrastrutture del genere, ovvero lastre in calcestruzzo armato sollecitate da carichi concentrati. Tali elementi sono caratterizzati da un comportamento ed una crisi per taglio, la cui modellazione è, da un punto di vista computazionale, una sfida piuttosto ardua, a causa del loro comportamento fragile combinato a vari effetti tridimensionali. La tesi è incentrata sull'utilizzo della Sequentially Linear Analysis (SLA), un metodo di soluzione agli Elementi Finiti alternativo rispetto ai classici approcci incrementali e iterativi. Il vantaggio della SLA è quello di evitare i ben noti problemi di convergenza tipici delle analisi non lineari, specificando direttamente l'incremento di danno sull'elemento finito, attraverso la riduzione di rigidezze e resistenze nel particolare elemento finito, invece dell'incremento di carico o di spostamento. Il confronto tra i risultati di due prove di laboratorio su lastre in calcestruzzo armato e quelli della SLA ha dimostrato in entrambi i casi la robustezza del metodo, in termini di accuratezza dei diagrammi carico-spostamento, di distribuzione di tensioni e deformazioni e di rappresentazione del quadro fessurativo e dei meccanismi di crisi per taglio. Diverse variazioni dei più importanti parametri del modello sono state eseguite, evidenziando la forte incidenza sulle soluzioni dell'energia di frattura e del modello scelto per la riduzione del modulo elastico trasversale. Infine è stato effettuato un paragone tra la SLA ed il metodo non lineare di Newton-Raphson, il quale mostra la maggiore affidabilità della SLA nella valutazione di carichi e spostamenti ultimi insieme ad una significativa riduzione dei tempi computazionali. ABSTRACT (english) With increasing attention to the assessment of safety in existing dutch bridges and viaducts, the aim of the present thesis is to study, through the Finite Element modeling method and the continuous comparison with experimental results, the real response of elements that compose these infrastructures, i.e. reinforced concrete slabs subjected to concentrated loads. These elements are characterized by shear behavior and crisis, whose modeling is, from a computational point of view, a hard challenge, due to their brittle behavior combined with various 3D effects. The thesis is focused on the use of Sequentially Linear Analysis (SLA), an alternative solution technique to classical non linear Finite Element analyses that are based on incremental and iterative approaches. The advantage of SLA is to avoid the well-known convergence problems of non linear analyses by directly specifying a damage increment, in terms of a reduction of stiffness and strength in the particular finite element, instead of a load or displacement increment. The comparison between the results of two laboratory tests on reinforced concrete slabs and those obtained by SLA has shown in both the cases the robustness of the method, in terms of accuracy of load-displacements diagrams, of the distribution of stress and strain and of the representation of the cracking pattern and of the shear failure mechanisms. Different variations of the most important parameters have been performed, pointing out the strong incidence on the solutions of the fracture energy and of the chosen shear retention model. At last a confrontation between SLA and the non linear Newton-Raphson method has been executed, showing the better reliability of the SLA in the evaluation of the ultimate loads and displacements, together with a significant reduction of computational times.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’obiettivo di questo lavoro è il calcolo del fattore di struttura R che può essere adottato in funzione delle caratteristiche della struttura: periodo naturale T, duttilità richiesta mu_r ed indice di smorzamento csi. Il modello adottato per rappresentare la struttura è l’oscillatore semplice elastico - perfettamente plastico. Operativamente, scelto un sisma registrato, si considera una struttura caratterizzata da un determinato periodo T e, a parità di livello di sicurezza (cioè a parità di duttilità richiesta), tramite un procedimento iterativo si procede al calcolo di R_5 relativo ad uno smorzamento pari al 5% e di R_csi relativo ad un generico smorzamento csi>5%; il confronto fra questi due valori è espresso dal parametro alpha_csi=R_csi/R_5. I risultati ottenuti dal calcolo vengono inseriti in un database. A seguire vengono implementate una serie di analisi (anche di tipo statistico) sui dati raccolti nel database per comprendere l’influenza delle varie caratteristiche della struttura sul valore del fattore di riduzione delle forze sismiche.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I poriferi rappresentano un importante campo di ricerca anche in ambito applicativo in quanto potenzialmente utili come fonte di metaboliti secondari da impiegarsi in ambito clinico (antitumorali, antibiotici, antivirali, ecc.) e industriale (antifouling). I processi di biosilicificazione interessano invece per aspetti legati alle biotecnologie marine. Questo Phylum ha un importante ruolo strutturale e funzionale nell’ecologia dei popolamenti bentonici, in quanto può essere dominante in numerosi habitat e svolgere un ruolo ecologico fondamentale nelle dinamiche degli ecosistemi marini. Per questo, la variazione spaziale e temporale della loro abbondanza può avere effetti considerevoli su altri membri della comunità. Lo studio delle dinamiche di popolazione e del ciclo riproduttivo dei poriferi potrebbe permettere di valutare come i cambiamenti climatici ne influenzino la crescita e la riproduzione e potrebbe quindi fornire una base per lo sviluppo di corrette tecniche di gestione ambientale. La spugna Axinella polypoides è inserita all’interno delle liste di protezione della Convenzione di Berna e di Barcellona, dove sono elencate le specie da proteggere perché minacciate o in pericolo di estinzione. Questa specie, avendo una morfologia eretta, è fortemente minacciata soprattutto da attività antropiche quali pesca e ancoraggi, ma nonostante questo la letteratura relativa ad essa è scarsa, La sua importanza è legata soprattutto al recente utilizzo come modello per numerosi esperimenti. A. polypoides rappresenta, infatti, il più basso livello nella scala evolutiva in cui sono stati rinvenuti meccanismi biochimici cellulari di reazione all’aumento di temperatura (incremento dell’attività ADP-ribosil ciclasica, sintesi di ossido nitrico) tipici degli organismi superiori. Lo scopo di questa tesi è di aumentare le conoscenze sull’ecologia e sulla biologia di questo porifero, al fine di consentire una migliore predisposizione di eventuali piani di tutela. Dallo studio delle colonie effettuato presso l’Isola Gallinara (SV), emerge una dinamica di crescita lenta ed un ciclo riproduttivo estivo, coerentemente con quanto osservato per altre specie mediterranee del genere Axinella. Le analisi istologiche effettuate hanno mostrato variabilità temporale nella densità e nella dimensione di particolari cellule sferulose, che si ipotizza siano collegate a fenomeni di proliferazione cellulare e rigenerazione in seguito a danni. È stata individuata inoltre la presenza di una particolare tipologia cellulare dendritica la cui funzione si ritiene abbia affinità con le funzioni sensoriali di Phyla superiori. Queste osservazioni, e l’evidente vulnerabilità della specie agli impatti antropici, hanno evidenziato la necessità di sviluppare adeguati piani di monitoraggio e di conservazione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I moderni sistemi embedded sono equipaggiati con risorse hardware che consentono l’esecuzione di applicazioni molto complesse come il decoding audio e video. La progettazione di simili sistemi deve soddisfare due esigenze opposte. Da un lato è necessario fornire un elevato potenziale computazionale, dall’altro bisogna rispettare dei vincoli stringenti riguardo il consumo di energia. Uno dei trend più diffusi per rispondere a queste esigenze opposte è quello di integrare su uno stesso chip un numero elevato di processori caratterizzati da un design semplificato e da bassi consumi. Tuttavia, per sfruttare effettivamente il potenziale computazionale offerto da una batteria di processoriè necessario rivisitare pesantemente le metodologie di sviluppo delle applicazioni. Con l’avvento dei sistemi multi-processore su singolo chip (MPSoC) il parallel programming si è diffuso largamente anche in ambito embedded. Tuttavia, i progressi nel campo della programmazione parallela non hanno mantenuto il passo con la capacità di integrare hardware parallelo su un singolo chip. Oltre all’introduzione di multipli processori, la necessità di ridurre i consumi degli MPSoC comporta altre soluzioni architetturali che hanno l’effetto diretto di complicare lo sviluppo delle applicazioni. Il design del sottosistema di memoria, in particolare, è un problema critico. Integrare sul chip dei banchi di memoria consente dei tempi d’accesso molto brevi e dei consumi molto contenuti. Sfortunatamente, la quantità di memoria on-chip che può essere integrata in un MPSoC è molto limitata. Per questo motivo è necessario aggiungere dei banchi di memoria off-chip, che hanno una capacità molto maggiore, come maggiori sono i consumi e i tempi d’accesso. La maggior parte degli MPSoC attualmente in commercio destina una parte del budget di area all’implementazione di memorie cache e/o scratchpad. Le scratchpad (SPM) sono spesso preferite alle cache nei sistemi MPSoC embedded, per motivi di maggiore predicibilità, minore occupazione d’area e – soprattutto – minori consumi. Per contro, mentre l’uso delle cache è completamente trasparente al programmatore, le SPM devono essere esplicitamente gestite dall’applicazione. Esporre l’organizzazione della gerarchia di memoria ll’applicazione consente di sfruttarne in maniera efficiente i vantaggi (ridotti tempi d’accesso e consumi). Per contro, per ottenere questi benefici è necessario scrivere le applicazioni in maniera tale che i dati vengano partizionati e allocati sulle varie memorie in maniera opportuna. L’onere di questo compito complesso ricade ovviamente sul programmatore. Questo scenario descrive bene l’esigenza di modelli di programmazione e strumenti di supporto che semplifichino lo sviluppo di applicazioni parallele. In questa tesi viene presentato un framework per lo sviluppo di software per MPSoC embedded basato su OpenMP. OpenMP è uno standard di fatto per la programmazione di multiprocessori con memoria shared, caratterizzato da un semplice approccio alla parallelizzazione tramite annotazioni (direttive per il compilatore). La sua interfaccia di programmazione consente di esprimere in maniera naturale e molto efficiente il parallelismo a livello di loop, molto diffuso tra le applicazioni embedded di tipo signal processing e multimedia. OpenMP costituisce un ottimo punto di partenza per la definizione di un modello di programmazione per MPSoC, soprattutto per la sua semplicità d’uso. D’altra parte, per sfruttare in maniera efficiente il potenziale computazionale di un MPSoC è necessario rivisitare profondamente l’implementazione del supporto OpenMP sia nel compilatore che nell’ambiente di supporto a runtime. Tutti i costrutti per gestire il parallelismo, la suddivisione del lavoro e la sincronizzazione inter-processore comportano un costo in termini di overhead che deve essere minimizzato per non comprometterre i vantaggi della parallelizzazione. Questo può essere ottenuto soltanto tramite una accurata analisi delle caratteristiche hardware e l’individuazione dei potenziali colli di bottiglia nell’architettura. Una implementazione del task management, della sincronizzazione a barriera e della condivisione dei dati che sfrutti efficientemente le risorse hardware consente di ottenere elevate performance e scalabilità. La condivisione dei dati, nel modello OpenMP, merita particolare attenzione. In un modello a memoria condivisa le strutture dati (array, matrici) accedute dal programma sono fisicamente allocate su una unica risorsa di memoria raggiungibile da tutti i processori. Al crescere del numero di processori in un sistema, l’accesso concorrente ad una singola risorsa di memoria costituisce un evidente collo di bottiglia. Per alleviare la pressione sulle memorie e sul sistema di connessione vengono da noi studiate e proposte delle tecniche di partizionamento delle strutture dati. Queste tecniche richiedono che una singola entità di tipo array venga trattata nel programma come l’insieme di tanti sotto-array, ciascuno dei quali può essere fisicamente allocato su una risorsa di memoria differente. Dal punto di vista del programma, indirizzare un array partizionato richiede che ad ogni accesso vengano eseguite delle istruzioni per ri-calcolare l’indirizzo fisico di destinazione. Questo è chiaramente un compito lungo, complesso e soggetto ad errori. Per questo motivo, le nostre tecniche di partizionamento sono state integrate nella l’interfaccia di programmazione di OpenMP, che è stata significativamente estesa. Specificamente, delle nuove direttive e clausole consentono al programmatore di annotare i dati di tipo array che si vuole partizionare e allocare in maniera distribuita sulla gerarchia di memoria. Sono stati inoltre sviluppati degli strumenti di supporto che consentono di raccogliere informazioni di profiling sul pattern di accesso agli array. Queste informazioni vengono sfruttate dal nostro compilatore per allocare le partizioni sulle varie risorse di memoria rispettando una relazione di affinità tra il task e i dati. Più precisamente, i passi di allocazione nel nostro compilatore assegnano una determinata partizione alla memoria scratchpad locale al processore che ospita il task che effettua il numero maggiore di accessi alla stessa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il tema generale di ricerca oggetto della presente trattazione è rappresentato dal diritto di difesa nel procedimento de libertate. Esso costituisce un tema da sempre controverso, materia di vivaci e mai sopiti dibattiti sia in dottrina che in giurisprudenza, poiché si colloca in un punto nevralgico non solo del procedimento penale, ma, addirittura, dell’intero ordinamento giuridico di uno stato, poiché in esso si incontrano, e sovente si scontrano, le istanze di garanzia del cittadino contro indebite limitazioni ante iudicium della libertà personale, da un lato, e le esigenze di tutela della collettività e del processo dai pericula libertatis (inquinamento delle prove, rischio di fuga, pericolo di reiterazione dei reati), dall’altro. Detto in altri termini, il procedimento de libertate è esattamente il luogo in cui un ordinamento che voglia definirsi liberale, nella sua naturale e incessante evoluzione, tenta faticosamente di trovare un equilibrio tra autorità e libertà. Trattandosi, per ovvie ragioni, di un argomento vastissimo, che spazia dall’esercizio del diritto di difesa nella fase applicativa delle misure cautelari personali, alle impugnazioni delle misure medesime, dalla revoca o sostituzione delle stesse al giudicato cautelare sulle decisioni de libertate, etc., il campo della ricerca è stato circoscritto a due temi specifici che interessano direttamente il diritto di difesa, limitatamente alla fase dell’applicazione delle misure cautelari personali, e che presentano profili di originalità, per alcune importanti modifiche intervenute a livello sia di legislazione ordinaria che di legislazione costituzionale: 1) l’accertamento dei gravi indizi di colpevolezza; 2) il principio del contraddittorio nel procedimento cautelare, alla luce dell’art. 111 Cost. Siffatti temi, apparentemente disomogenei, sono, in realtà, profondamente correlati tra loro, rappresentando, per usare una locuzione spicciola, l’uno la “sostanza” e l’altro “la forma” del procedimento de libertate, ed insieme concorrono ad individuare un modello di giusto processo cautelare.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente elaborato tratta l'analisi del quadro fessurativo esistente nella porzione inferiore del broncone e della gamba sinistra del David di Michelangelo. Si sono effettuate indagini con ultrasuoni al fine di caratterizzare lo stato conservativo del marmo e per stimare la profondità delle lesioni presenti. Si è poi creato un modello agli elementi finiti della fessura di maggiori dimensioni presente nel broncone al fine di individuarne la profondità e confermare i risultati conseguiti con le prove ad ultrasuoni.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A complete understanding of the glass transition isstill a challenging problem. Some researchers attributeit to the (hypothetical) occurrence of a static phasetransition, others emphasize the dynamical transitionof mode coupling-theory from an ergodic to a non ergodicstate. A class of disordered spin models has been foundwhich unifies both scenarios. One of these models isthe p-state infinite range Potts glass with p>4, whichexhibits in the thermodynamic limit both a dynamicalphase transition at a temperature T_D, and a static oneat T_0 < T_D. In this model every spins interacts withall the others, irrespective of distance. Interactionsare taken from a Gaussian distribution.In order to understand better its behavior forfinite number N of spins and the approach to thethermodynamic limit, we have performed extensive MonteCarlo simulations of the p=10 Potts glass up to N=2560.The time-dependent spin-autocorrelation function C(t)shows strong finite size effects and it does not showa plateau even for temperatures around the dynamicalcritical temperature T_D. We show that the N-andT-dependence of the relaxation time for T > T_D can beunderstood by means of a dynamical finite size scalingAnsatz.The behavior in the spin glass phase down to atemperature T=0.7 (about 60% of the transitiontemperature) is studied. Well equilibratedconfigurations are obtained with the paralleltempering method, which is also useful for properlyestablishing static properties, such as the orderparameter distribution function P(q). Evidence is givenfor the compatibility with a one step replica symmetrybreaking scenario. The study of the cumulants of theorder parameter does not permit a reliable estimation ofthe static transition temperature. The autocorrelationfunction at low T exhibits a two-step decay, and ascaling behavior typical of supercooled liquids, thetime-temperature superposition principle, is observed. Inthis region the dynamics is governed by Arrheniusrelaxations, with barriers growing like N^{1/2}.We analyzed the single spin dynamics down to temperaturesmuch lower than the dynamical transition temperature. We found strong dynamical heterogeneities, which explainthe non-exponential character of the spin autocorrelationfunction. The spins seem to relax according to dynamicalclusters. The model in three dimensions tends to acquireferromagnetic order for equal concentration of ferro-and antiferromagnetic bonds. The ordering has differentcharacteristics from the pure ferromagnet. The spinglass susceptibility behaves like chi_{SG} proportionalto 1/T in the region where a spin glass is predicted toexist in mean-field. Also the analysis of the cumulantsis consistent with the absence of spin glass orderingat finite temperature. The dynamics shows multi-scalerelaxations if a bimodal distribution of bonds isused. We propose to understand it with a model based onthe local spin configuration. This is consistent with theabsence of plateaus if Gaussian interactions are used.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo lavoro di tesi è finalizzato fondamentalmente allo studio di un’importante problematica che caratterizza gli impianti fotovoltaici: il mismatching, ovvero la disomogeneità nelle caratteristiche elettriche delle celle e quindi dei pannelli fotovoltaici, dal quale scaturisce che la potenza massima, risultante dal collegamento in serie/parallelo dei vari pannelli, è sempre inferiore alla somma delle potenze massime dei pannelli fotovoltaici prima della connessione. In particolare, si è realizzato con il software Simulink un modello flessibile che consente, attraverso una rappresentazione compatta di pochissimi blocchi, di simulare un campo fotovoltaico del tutto arbitrario, in una qualunque condizione operativa di temperatura e di ombreggiamento solare dei pannelli che compongono il campo stesso. A fronte di ciò si è condotta un’analisi approfondita degli effetti del mismatching in un generico campo fotovoltaico sottoposto a diverse disomogeneità per quanto concerne le condizioni operative di temperatura e irraggiamento solare dei vari pannelli. Il software ha permesso, inoltre, di evidenziare l’importanza delle protezioni da impiegare opportunamente negli impianti fotovoltaici; ad esempio, a livello di simulazioni, si è visto come il collegamento di un diodo di by-pass in antiparallelo ai pannelli in ombra permetta di limitare notevolmente l’impatto degli ombreggiamenti. Infine è stato condotto uno studio analitico del mismatching per difformità di fabbricazione di una serie di pannelli dei quali erano noti solo i punti di funzionamento di massima potenza, con la finalità di valutare la possibilità di migliorare la disposizione dei pannelli, e quindi ottimizzare la massima potenza erogabile dal corrispondente campo fotovoltaico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il progetto di ricerca, dal titolo La Nuova destra dalla Francia all'Italia, prende come oggetto di studio specifico quel fenomeno politico, emerso in Italia verso la metà degli anni Settanta, che si originò in seno agli ambienti politici della destra radicale, noto con la definizione di Nuova Destra (ND), sul modello dell’omologa e più matura corrente francese il cui nucleo principale ruotava attorno all’associazione culturale GRECE (Groupement de recherche et d’études sur la civilisation européenne). Dal livello avanzato della ricerca sviluppata in questi anni, si è potuto notare che questo soggetto culturale ed ideologico è stato scarsamente studiato nel panorama scientifico italiano dove la maggior parte delle indagini ad esso dedicate sono state svolte da politologi, o comunque risultano riconducibili agli ambienti accademici delle Facoltà di Scienze Politiche, mentre pochissimi sono i lavori che si sono accostati alla ND con le armi specifiche della ricerca storica. Al contrario in Francia il fenomeno è stato oggetto di numerose ricerche da parte di autorevoli studiosi e ha dato avvio ad un florido dibattito ideologico. L’obiettivo principale a cui questa ricerca di dottorato tenta di rispondere è, quindi, quello di ricostruire le vicende storiche della ND italiana, sia attraverso i suoi rapporti con il Movimento sociale italiano (MSI), dalle cui sezioni giovanili essa nacque e si sviluppò per poi distaccarsene, sia tramite l’analisi delle sue evoluzioni politiche e concettuali, sia, infine, cercando di porre in evidenza i lasciti, le influenze e gli stretti legami, che intercorsero fra l’Italia e la più matura esperienza della Nouvelle Droite francese, ed in particolare con il pensiero politico e filosofico di Alain de Benoist, il suo maggiore esponente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo della tesi è definire un modello e identificare un sistema d’inferenza utile per l’analisi della qualità dei dati. Partendo da quanto descritto in ambito accademico e business, la definizione di un modello facilita l’analisi della qualità, fornendo una descrizione chiara delle tipologie di problemi a cui possono essere soggetti i dati. I diversi lavori in ambito accademico e business saranno confrontati per stabilire quali siano i problemi di qualità più diffusi, in modo da realizzare un modello che sia semplice e riutilizzabile. I sistemi d’inferenza saranno confrontati a livello teorico e pratico per individuare lo strumento più adatto nell’analisi della qualità dei dati in un caso applicativo. Il caso applicativo è caratterizzato da requisiti funzionali e non; il principale requisito funzionale è l’individuazione di problemi di qualità nei dati, mentre quello non funzionale è l’ usabilità dello strumento, per permettere ad un qualunque utente di esprimere dei controlli sulla qualità. Il caso applicativo considera dati di un’enterprise architecture reale ed è stato fornito dall’azienda Imola Informatica.