341 resultados para Case di paglia, LCA, ciclo di vita, Pescomaggiore, efficienza energetica


Relevância:

60.00% 60.00%

Publicador:

Resumo:

La ricerca pone al suo centro lo studio dell'opera architettonica di Emil Steffann (1899-1968) la cui produzione realizzata consta, nel breve arco temporale che va dal 1950 al 1968, del ragguardevole numero di trentanove chiese, rappresentando un caso emblematico di progettazione e costruzione di edifici per il culto cristiano in grado di raffigurarne concretamente i principi fondativi liturgici, estetici e morfologici. L'architettura di Steffann, profondamente ispirata dallo spirito religioso, legata a figure primigenie che plasmano lo stare-insieme della comunità nella qualità corporea della materia, dove la presenza liturgica e monumentale si esprime nel silenzio e nella disponibilità di uno spazio circoscritto dai muri e direzionato dalla luce, concorre a definire nell'oggettivo amore per il vero la percezione estetico-teologica e la poetica formativa che connaturano, a nostro parere, progetto e segno della chiesa. Il testo concretizza il primo studio monografico completo di questo corpus architettonico e si basa sulla ricognizione diretta delle opere di Steffann; ne è derivata una narrazione non conseguente a un ordine cronologico o di presupposta importanza degli edifici, bensì che ricerca ed evidenzia corrispondenze tra nodi di una rete ideativa la quale, con diversi gradi di finitezza, in punti non sempre omogenei del tempo e dello spazio, denota un'esperienza autentica del comporre e del costruire. Il racconto individua gli oggetti architettonici, ne discute la consistenza aprendosi a riferimenti altri (in particolare il pensiero ecclesiologico-liturgico di Romano Guardini e quello estetico-teologico di Hans Urs von Balthasar) in grado di illuminarne la genesi e la manifestazione, li lega infine in sequenze analogiche. Una serie di tavole fotografiche originali, parte ineludibile e integrante della ricerca, testimonia dello stato attuale dei luoghi, connotando ulteriormente l'aspetto info-rappresentativo della loro composizione architettonica. In chiusura, la sintesi architetturale vuole essere uno strumento di verifica e progetto, quindi di trasposizione futura, correlato all'elaborazione documentaria.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

L’aumento dei costi in sanità, l’aumentata prevalenza delle patologie croniche, le disuguaglianze attuali, evidenziano la domanda crescente di una popolazione fragile che richiede una risposta globale ai bisogni della persona nel suo insieme, attraverso la costruzione di un sistema sanitario integrato che ne garantisca una presa in carico efficace. Riuscire a gestire le patologie croniche in modo appropriato è la sfida a cui sono chiamati i professionisti socio-sanitari; ma quali sono gli elementi per riuscirci? Le evidenze scientifiche dimostrano che è fondamentale l’integrazione tra i professionisti e lo sviluppo dei Percorsi Diagnostici Terapeutici Assistenziali (PDTA). In quest’ottica, in Italia e in particolare in Emilia-Romagna e nell’Azienda USL di Bologna si sono succeduti, e ancora si stanno evolvendo, diversi modelli di organizzazione per migliorare la gestione appropriata delle patologie croniche e l’aderenza alle linee guida e/o ai PDTA. Il ruolo del medico di medicina generale (MMG) è ancora fondamentale e il suo contributo integrato a quello degli gli altri professionisti coinvolti sono imprescindibili per una buona gestione e presa in carico del paziente cronico. Per questo motivo, l’Azienda USL di Bologna ha sviluppato e implementato una politica strategica aziendale volta a disegnare i PDTA e incoraggiato la medicina generale a lavorare sempre di più in gruppo, rispetto al modello del singolo medico. Lo studio ha individuato nelle malattie cardiovascolari, che rimangono la causa principale di morte e morbilità, il suo focus prendendo in esame, in particolare,lo scompenso cardiaco e il post-IMA. L’obiettivo è verificare se e quanto il modello organizzativo, le caratteristiche del medico e del paziente influiscono sul buon management delle patologie croniche in esame valutando la buona adesione alla terapia farmacologica raccomandata dalle linee guida e/o PDTA dello scompenso cardiaco e post-IMA.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La presente tesi di dottorato ha come argomento la produzione d’idrogeno per via fermentativa sfruttando il metabolismo anaerobico di particolari batteri estremofili del genere Thermotoga. In questo lavoro, svolto in seno al progetto Bio-Hydro, sfruttando reattori batch da 116 mL, è stato selezionato il ceppo migliore di Thermotoga fra i quatto ceppi testati: T. neapolitana. Una volta individuato il candidato batterico migliore è stato individuato il valore ottimale di pH (8.5 a t.amb) per la produzione d’idrogeno. Un intenso lavoro è stato svolto sul medium di coltura permettendone la minimizzazione e rendendolo così economicamente sostenibile per il suo utilizzo nel reattore da 19L; in questo caso il glucosio è stato completamente sostituito con due sottoprodotti agroindustriali individuati in precedenza, il melasso di barbabietola e il siero di latte. Sono stati poi eliminati i gravosi micronutrienti e le vitamine. È stata sfruttata la capacità di T. neapolitana di produrre biofilm e sono stati testati 4 diversi supporti in vetro sinterizzato e ceramici, tali test hanno permesso di individuare Biomax come supporto migliore. Sono stati svolti studi sul metabolismo di T. neapolitana volti ad individuare le concentrazioni inibenti di ogni substrato testato, l’inibizione da prodotto (idrogeno) e l’inibizione da ossigeno. Tutte queste prove hanno dato le conoscenze di base per la conduzione di esperienze su reattore da 19L. L’innovativo reattore di tipo SPCSTR è stato interamente studiato, progettato e costruito presso il DICMA. dell’Università di Bologna. La conduzione di esperienze batch su SPCSTR ha dato la possibilità di verificare il funzionamento del nuovo tipo d’impianto. Presso il Wageningen UR (NL), è stata svolta la selezione del miglior ceppo di Caldicellulosisruptor fra 3 testati e del miglior supporto per la produzione d’idrogeno; è stato poi costruito testato e condotto in continuo l’innovativo reattore CMTB.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Nel presente lavoro viene trattato il delicato tema dell’autotutela collettiva, nell’intersezione tra ipotesi di revisione nazionale e prospettive europee. Dapprima viene ricostruita l’evoluzione della valutazione del conflitto collettivo nell’ordinamento giuridico italiano ed effettuata una ricognizione delle diverse manifestazioni del conflitto collettivo ivi riscontrabili. Il tentativo è quello di superare i limiti di una trattazione ristretta allo sciopero e di verificare la perdurante validità della tradizionale nozione di sciopero, intesa esclusivamente come astensione collettiva dalle prestazioni di lavoro. In un secondo capitolo vengono esaminati i disegni di legge di riforma in materia di conflitto collettivo, presentati nel corso della XVI legislatura e le clausole, incidenti sulla medesima materia, rinvenibili nell’Accordo interconfederale del 28 giugno 2011 e negli accordi FIAT del 2010, relativi agli stabilimenti di Pomigliano D’Arco e Mirafiori. Alla luce di tali materiali, si riesaminano le tematiche della titolarità individuale del diritto di sciopero, delle clausole di tregua e delle procedure arbitrali e conciliative. Successivamente, viene esaminata la produzione legislativa e giurisprudenziale comunitaria in tema di conflitto collettivo. Il confronto con l’ordinamento nazionale consente di mettere criticamente in luce il diverso rapporto tra mercato e diritti d’azione collettiva e di rilevare che nell’ordinamento comunitario la giurisprudenza della Corte di giustizia abbia introdotto limiti eccessivi al dispiegarsi dei diritti sociali in esame. Da ultimo, vengono formulate alcune considerazioni conclusive. Criticamente viene rilevato come, in tempi di globalizzazione, non viene prestata sufficiente attenzione alla valorizzazione del conflitto collettivo, come motore dell’emancipazione e del progresso sociale.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

I test di qualifica a vibrazioni vengono usati in fase di progettazione di un componente per verificarne la resistenza meccanica alle sollecitazioni dinamiche (di natura vibratoria) applicate durante la sua vita utile. La durata delle vibrazioni applicate al componente durante la sua vita utile (migliaia di ore) deve essere ridotta al fine di realizzare test fattibili in laboratorio, condotti in genere utilizzando uno shaker elettrodinamico. L’idea è quella di aumentare l’intensità delle vibrazioni riducendone la durata. Esistono diverse procedure di Test Tailoring che tramite un metodo di sintesi definiscono un profilo vibratorio da applicare in laboratorio a partire dalle reali vibrazioni applicate al componente: una delle metodologie più comuni si basa sull’equivalenza del danno a fatica prodotto dalle reali vibrazioni e dalle vibrazioni sintetizzate. Questo approccio è piuttosto diffuso tuttavia all’autore non risulta presente nessun riferimento in letteratura che ne certifichi la validità tramite evidenza sperimentalmente. L’obiettivo dell’attività di ricerca è stato di verificare la validità del metodo tramite una campagna sperimentale condotta su opportuni provini. Il metodo viene inizialmente usato per sintetizzare un profilo vibratorio (random stazionario) avente la stessa durata di un profilo vibratorio non stazionario acquisito in condizioni reali. Il danno a fatica prodotto dalla vibrazione sintetizzata è stato confrontato con quello della vibrazione reale in termini di tempo di rottura dei provini. I risultati mostrano che il danno prodotto dalla vibrazione sintetizzata è sovrastimato, quindi l’equivalenza non è rispettata. Sono stati individuati alcuni punti critici e sono state proposte alcune modifiche al metodo per rendere la teoria più robusta. Il metodo è stato verificato con altri test e i risultati confermano la validità del metodo a condizione che i punti critici individuati siano correttamente analizzati.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La ricerca proposta si pone l’obiettivo di definire e sperimentare un metodo per un’articolata e sistematica lettura del territorio rurale, che, oltre ad ampliare la conoscenza del territorio, sia di supporto ai processi di pianificazione paesaggistici ed urbanistici e all’attuazione delle politiche agricole e di sviluppo rurale. Un’approfondita disamina dello stato dell’arte riguardante l’evoluzione del processo di urbanizzazione e le conseguenze dello stesso in Italia e in Europa, oltre che del quadro delle politiche territoriali locali nell’ambito del tema specifico dello spazio rurale e periurbano, hanno reso possibile, insieme a una dettagliata analisi delle principali metodologie di analisi territoriale presenti in letteratura, la determinazione del concept alla base della ricerca condotta. E’ stata sviluppata e testata una metodologia multicriteriale e multilivello per la lettura del territorio rurale sviluppata in ambiente GIS, che si avvale di algoritmi di clustering (quale l’algoritmo IsoCluster) e classificazione a massima verosimiglianza, focalizzando l’attenzione sugli spazi agricoli periurbani. Tale metodo si incentra sulla descrizione del territorio attraverso la lettura di diverse componenti dello stesso, quali quelle agro-ambientali e socio-economiche, ed opera una sintesi avvalendosi di una chiave interpretativa messa a punto allo scopo, l’Impronta Agroambientale (Agro-environmental Footprint - AEF), che si propone di quantificare il potenziale impatto degli spazi rurali sul sistema urbano. In particolare obiettivo di tale strumento è l’identificazione nel territorio extra-urbano di ambiti omogenei per caratteristiche attraverso una lettura del territorio a differenti scale (da quella territoriale a quella aziendale) al fine di giungere ad una sua classificazione e quindi alla definizione delle aree classificabili come “agricole periurbane”. La tesi propone la presentazione dell’architettura complessiva della metodologia e la descrizione dei livelli di analisi che la compongono oltre che la successiva sperimentazione e validazione della stessa attraverso un caso studio rappresentativo posto nella Pianura Padana (Italia).

Relevância:

60.00% 60.00%

Publicador:

Resumo:

L’elaborato esamina il tema del concorso e del conflitto tra contratti collettivi di diverso livello nel settore privato. Partendo da un’impostazione complessiva del fenomeno della contrattazione collettiva, oltre che da una riflessione sulla natura e sul ruolo della contrattazione integrativa, il lavoro si propone di individuare un criterio di risoluzione del conflitto. In una prima parte della ricerca sono stati individuati e studiati i modelli di rapporti tra livelli definiti negli accordi interconfederali e nei contratti di categoria. Nello studio della regolamentazione interna al sistema sindacale si è considerato la natura delle relative clausole. Queste ultime hanno valenza obbligatoria e, per tale motivo, non sono idonee a risolvere l’eventuale conflitto tra livelli contrattuali. Si è reso quindi necessario considerare i criteri esterni di risoluzione del conflitto elaborati dalla dottrina e della giurisprudenza. Tra i vari criteri elaborati, ci si è soffermati sul criterio di specialità, sulla sua natura e sulla sua funzione. Più nello specifico, si è ritenuto il principio di specialità un principio generale dell’ordinamento giuridico, applicabile anche al conflitto tra contratti di diverso livello. Alla luce del principio di specialità, si è ricostruito il rapporto tra livelli, anche in ipotesi di contrattazione separata e di negoziazione operante su rinvio legislativo. Infine, nell’ultimo capitolo si è esaminato l’art. 8 della L. 148/2011. Ci si è interrogati sulla compatibilità di tale norma con l’impostazione complessiva del tema del rapporto tra contratti di diverso livello e sui suoi riflessi sulla questione del conflitto.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Oggetto di indagine del lavoro è il movimento ambientalista e culturale delle Città in Transizione che rappresentano esperimenti di ri-localizzazione delle risorse volte a preparare le comunità (paesi, città, quartieri) ad affrontare la duplice sfida del cambiamento climatico e del picco del petrolio. A partire dal Regno Unito, la rete delle Transition Towns si è in pochi anni estesa significativamente e conta oggi più di mille iniziative. L’indagine di tale movimento ha richiesto in prima battuta di focalizzare l’attenzione sul campo disciplinare della sociologia dell’ambiente. L’attenzione si è concentrata sul percorso di riconoscimento che ha reso la sociologia dell’ambiente una branca autonoma e sul percorso teorico-concettuale che ha caratterizzato la profonda spaccatura paradigmatica proposta da Catton e Dunlap, che hanno introdotto nel dibattito sociologico il Nuovo Paradigma Ecologico, prendendo le distanze dalla tradizionale visione antropocentrica della sociologia classica. Vengono poi presentate due delle più influenti prospettive teoriche della disciplina, quella del Treadmill of Production e la più attuale teoria della modernizzazione ecologica. La visione che viene adottata nel lavoro di tesi è quella proposta da Spaargaren, fautore della teoria della modernizzazione ecologica, secondo il quale la sociologia dell’ambiente può essere collocata in uno spazio intermedio che sta tra le scienze ambientali e la sociologia generale, evidenziando una vocazione interdisciplinare richiamata anche dal dibattito odierno sulla sostenibilità. Ma le evidenze empiriche progressivamente scaturite dallo studio di questo movimento che si autodefinisce culturale ed ambientalista hanno richiesto una cornice teorica più ampia, quella della modernità riflessiva e della società del rischio, in grado di fornire categorie concettuali spendibili nella descrizione dei problemi ambientali e nell’indagine del mutamento socio-culturale e dei suoi attori. I riferimenti empirici dello studio sono tre specifiche realtà locali in Transizione: York in Transition per il Regno Unito, Monteveglio (Bo) e Scandiano (Re) in Transizione per l’Italia.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Difetto di Informazione e danno da prodotto” è un tema di grande interesse ed attualità, in un momento storico in cui si è riacceso il dibattito sulla disciplina della responsabilità per danni da prodotto difettoso. Complice è “il difetto di informazione”, da sempre rimasto ai margini della casistica giurisprudenziale, ma che improvvisamente “ruba la scena” imponendosi all'attenzione della Cassazione (nn. 6007/2007 e 20985/2007) e rivelando nodi interpretativi di forte impatto pratico nelle cause di responsabilità del produttore. Di qui l’esigenza di approfondire la complessa tematica degli information defects, sotto il profilo della nozione didifetto” e della sua prova, nonché dell’incidenza di eventuali carenze informative sulla responsabilità del produttore. Muovendo dall’analisi della Direttiva e della sua attuazione italiana, il lavoro individua i punti nodali di tale disciplina ed i vari limiti posti – sia a livello interpretativo che applicativo - alla tutela del danneggiato, suscettibili di renderla meno “appetibile” di quanto potrebbe sembrare. Affronta, quindi, criticamente le questioni trattate nelle due sentenze di legittimità del 2007 in ordine sia alla distribuzione tra le parti dell'onere probatorio, sia alla rilevanza delle informazioni fornite dal produttore. Peculiare interrogativo cui si cerca di dare risposta è se, ed in che misura, l’“informazione” consenta al produttore di andare esente da responsabilità. Il lavoro passa ad esplorare i nuovi scenari offerti dalla interazione tra la disciplina della responsabilità del produttore e quella sulla sicurezza generale dei prodotti, la cui coesistenza all’interno del medesimo corpo di norme pone nuovi interrogativi, quali la sussistenza della responsabilità del produttore di un bene “conforme” ed il ruolo dell’informazione nell’ipotesi di prodotti non difettosi e/o “conformi”. La ricerca affronta tali interrogativi con sguardo critico e provocatorio sollevando il dubbio se la “conformità alle norme armonizzate” non rischi di diventare una “nuova” clausola di esonero della responsabilità del produttore.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La valutazione dei rischi associati all’operatività dei sistemi di stoccaggio, quali la sismicità indotta e la subsidenza, è requisito basilare per una loro corretta gestione e progettazione, e passa attraverso la definizione dell’influenza sullo stato tensionale delle variazioni di pressione di poro nel sottosuolo. Principale scopo di questo progetto è lo sviluppo di una metodologia in grado di quantificare le deformazioni dei reservoir in funzione della pressione di poro, di tarare i modelli utilizzati con casi studio che presentino dati di monitoraggio reali, tali da consentire un confronto con le previsioni di modello. In questa tesi, la teoria delle inomogeneità è stata utilizzata, tramite un approccio semianalitico, per definire le variazioni dei campi elastici derivanti dalle operazioni di prelievo e immissione di fluidi in serbatoi geologici. Estensione, forma e magnitudo delle variazioni di stress indotte sono state valutate tramite il concetto di variazione dello sforzo critico secondo il criterio di rottura di Coulomb, tramite un’analisi numerica agli elementi finiti. La metodologia sviluppata è stata applicata e tarata su due reservoir sfruttati e riconvertiti a sistemi di stoccaggio che presentano dataset, geologia, petrofisica, e condizioni operative differenti. Sono state calcolate le variazioni dei campi elastici e la subsidenza; è stata mappata la variazione di sforzo critico di Coulomb per entrambi i casi. I risultati ottenuti mostrano buon accordo con le osservazioni dei monitoraggi, suggerendo la bontà della metodologia e indicando la scarsa probabilità di sismicità indotta. Questo progetto ha consentito la creazione di una piattaforma metodologica di rapido ed efficace utilizzo, per stimare l’influenza dei sistemi di stoccaggio di gas sullo stato tensionale della crosta terrestre; in fase di stoccaggio, permette di monitorare le deformazioni e gli sforzi indotti; in fase di progettazione, consente di valutare le strategie operative per monitorare e mitigare i rischi geologici associati a questi sistemi.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Obiettivi: Valutare la prevalenza dei diversi genotipi di HPV in pazienti con diagnosi di CIN2/3 nella Regione Emilia-Romagna, la persistenza genotipo-specifica di HPV e l’espressione degli oncogeni virali E6/E7 nel follow-up post-trattamento come fattori di rischio di recidiva/persistenza o progressione di malattia; verificare l’applicabilità di nuovi test diagnostici biomolecolari nello screening del cervicocarcinoma. Metodi: Sono state incluse pazienti con citologia di screening anormale, sottoposte a trattamento escissionale (T0) per diagnosi di CIN2/3 su biopsia mirata. Al T0 e durante il follow-up a 6, 12, 18 e 24 mesi, oltre al Pap test e alla colposcopia, sono state effettuate la ricerca e la genotipizzazione dell'HPV DNA di 28 genotipi. In caso di positività al DNA dei 5 genotipi 16, 18, 31, 33 e/o 45, si è proceduto alla ricerca dell'HPV mRNA di E6/E7. Risultati preliminari: Il 95.8% delle 168 pazienti selezionate è risultato HPV DNA positivo al T0. Nel 60.9% dei casi le infezioni erano singole (prevalentemente da HPV 16 e 31), nel 39.1% erano multiple. L'HPV 16 è stato il genotipo maggiormente rilevato (57%). Il 94.3% (117/124) delle pazienti positive per i 5 genotipi di HPV DNA sono risultate mRNA positive. Abbiamo avuto un drop-out di 38/168 pazienti. A 18 mesi (95% delle pazienti) la persistenza dell'HPV DNA di qualsiasi genotipo era del 46%, quella dell'HPV DNA dei 5 genotipi era del 39%, con espressione di mRNA nel 21%. Abbiamo avuto recidiva di malattia (CIN2+) nel 10.8% (14/130) a 18 mesi. Il pap test era negativo in 4/14 casi, l'HPV DNA test era positivo in tutti i casi, l'mRNA test in 11/12 casi. Conclusioni: L'HR-HPV DNA test è più sensibile della citologia, l'mRNA test è più specifico nell'individuare una recidiva. I dati definitivi saranno disponibili al termine del follow-up programmato.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

L’attività di dottorato qui descritta ha riguardato inizialmente lo sviluppo di biosensori elettrochimici semplificati per la rilevazione di DNA e successivamente lo studio di dispositivi organici ad effetto di campo per la stimolazione e il rilevamento dell’attività bioelettrica di cellule neuronali. Il lavoro di ricerca riguardante il prima parte è stato focalizzato sulla fabbricazione e sulla caratterizzazione di un biosensore a due elettrodi per la rilevazione di DNA solubile , facilmente producibile a livello industriale. Tale sensore infatti, è in grado di leggere livelli diversi di correnti faradiche sulle superfici in oro degli elettrodi, a discrezione di un eventuale ibridizzazione del DNA da analizzare su di esse. I risultati ottenuti riguardo a questo biosensore sono :la paragonabilità dello stesso con i sensori standard a tre elettrodi basati sulla medesima metodica, la possibilità di effettuare due misure in parallelo di uno stesso campione o di 2 diversi campioni su di uno stesso di dispositivo e la buona applicabilità della chimica superficiale a base di tale biosensore a superfici create con tecnologie industriali. Successivamente a tali studi, mi sono focalizzato sull’utilizzo di dispositivi organici ad effetto campo (in particolare OTFT) per lo sviluppo di un biosensore capace di stimolare e registrare l’attività bioelettrica di cellule neuronali. Inizialmente sono state identificate le caratteristiche del materiale organico utilizzato e successivamente del dispositivo fabbricato pre e post esposizione all’ambiente fisiologico. Poi, sono stati effettuati esperimenti per osservare la capacità di stimolare e di leggere i segnali elettrogenici da parte dell’OTFT. I risultati ottenuti da tali studi sono che: il materiale organico ed il dispositivo mantengo le loro caratteristiche morfologiche e funzionali dopo l’esposizione per giorni all’ambiente fisiologico. Inoltre l’OFET in grado di stimolare il cambiamento delle tensioni di membrana cellulari e contemporaneamente di registrare tali variazioni e le eventuali risposte cellulari provocate da esse.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La riforma del bicameralismo rappresenta nell’ordinamento italiano una delle tematiche più dibattute sin dalla “concessione” dello Statuto Albertino. In Assemblea Costituente, infatti, l’opzione tra monocamerali e bicameralismo - prima - e il dibattito su che tipo di bicameralismo si sarebbe dovuto adottare - poi - hanno dato vita ad una parte organizzativa particolarmente debole e in gran parte antiquata rispetto alle esigenze della prima parte della Costituzione che, al contrario, ha rappresentato il precipitato di una profonda consonanza di ideali. La tesi si propone dunque l’obiettivo di dimostrare che l’esigenza di procedere ad una riforma del sistema bicamerale in Italia sia oggi quanto mai attuale e necessaria. Da un lato, infatti, essa favorirebbe il superamento delle inefficienze del sistema parlamentare e potrebbe rappresentare uno strumento per ovviare alla debole razionalizzazione della forma di governo che, da sempre, ha determinato la strutturale instabilità degli esecutivi. Dall’altro lato, la riforma servirebbe soprattutto a realizzare quella connessione organica tra Stato e regioni necessaria per completare il disegno regionalistico che si ricava dalla Costituzione stessa. Esigenza questa che, peraltro, si è notevolmente rafforzata con la riforma del titolo V della Costituzione, la cui portata innovativa è stata sostanzialmente svuotata di contenuto a causa delle difficoltà che si sono incontrate nella sua attuazione.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

I crescenti volumi di traffico che interessano le pavimentazioni stradali causano sollecitazioni tensionali di notevole entità che provocano danni permanenti alla sovrastruttura. Tali danni ne riducono la vita utile e comportano elevati costi di manutenzione. Il conglomerato bituminoso è un materiale multifase composto da inerti, bitume e vuoti d'aria. Le proprietà fisiche e le prestazioni della miscela dipendono dalle caratteristiche dell'aggregato, del legante e dalla loro interazione. L’approccio tradizionalmente utilizzato per la modellazione numerica del conglomerato bituminoso si basa su uno studio macroscopico della sua risposta meccanica attraverso modelli costitutivi al continuo che, per loro natura, non considerano la mutua interazione tra le fasi eterogenee che lo compongono ed utilizzano schematizzazioni omogenee equivalenti. Nell’ottica di un’evoluzione di tali metodologie è necessario superare questa semplificazione, considerando il carattere discreto del sistema ed adottando un approccio di tipo microscopico, che consenta di rappresentare i reali processi fisico-meccanici dai quali dipende la risposta macroscopica d’insieme. Nel presente lavoro, dopo una rassegna generale dei principali metodi numerici tradizionalmente impiegati per lo studio del conglomerato bituminoso, viene approfondita la teoria degli Elementi Discreti Particellari (DEM-P), che schematizza il materiale granulare come un insieme di particelle indipendenti che interagiscono tra loro nei punti di reciproco contatto secondo appropriate leggi costitutive. Viene valutata l’influenza della forma e delle dimensioni dell’aggregato sulle caratteristiche macroscopiche (tensione deviatorica massima) e microscopiche (forze di contatto normali e tangenziali, numero di contatti, indice dei vuoti, porosità, addensamento, angolo di attrito interno) della miscela. Ciò è reso possibile dal confronto tra risultati numerici e sperimentali di test triassiali condotti su provini costituiti da tre diverse miscele formate da sfere ed elementi di forma generica.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Obiettivo: Valutare l’accuratezza reciproca dell’ecografia “esperta” e della risonanza magnetica nelle diagnosi prenatale delle anomalie congenite. Materiali e metodi: Sono stati retrospettivamente valutati tutti i casi di malformazioni fetali sottoposte a ecografia “esperta” e risonanza magnetica nel nostro Policlinico da Ottobre 2001 a Ottobre 2012. L’età gestazionale media all’ecografia e alla risonanza magnetica sono state rispettivamente di 28 e 30 settimane. La diagnosi ecografica è stata confrontata con la risonanza e quindi con la diagnosi postnatale. Risultati: sono stati selezionati 383 casi, con diagnosi ecografica o sospetta malformazione fetale “complessa” o anamnesi ostetrica positiva infezioni prenatali, valutati con ecografia “esperta”, risonanza magnetica e completi di follow up. La popolazione di studio include: 196 anomalie del sistema nervoso centrale (51,2%), 73 difetti toracici (19,1%), 20 anomalie dell’area viso-collo (5,2%), 29 malformazioni del tratto gastrointestinale (7,6%), 37 difetti genito-urinari (9,7%) e 28 casi con altra indicazione (7,3%). Una concordanza tra ecografia, risonanza e diagnosi postnatale è stata osservata in 289 casi (75,5%) ed è stata maggiore per le anomalie del sistema nervoso centrale 156/196 casi (79,6%) rispetto ai difetti congeniti degli altri distretti anatomici 133/187 (71,1%). La risonanza ha aggiunto importanti informazioni diagnostiche in 42 casi (11%): 21 anomalie del sistema nervoso centrale, 2 difetti dell’area viso collo, 7 malformazioni toraciche, 6 anomalie del tratto gastrointestinale, 5 dell’apparato genitourinario e 1 caso di sospetta emivertebra lombare. L’ecografia è stata più accurata della risonanza in 15 casi (3,9%). In 37 casi (9,7%) entrambe le tecniche hanno dato esito diverso rispetto agli accertamenti postnatali. Conclusioni: l’ecografia prenatale rimane a tutt’oggi la principale metodica di imaging fetale. In alcuni casi complessi e/o dubbi sia del sistema nervoso centrale sia degli altri distretti anatomici la risonanza può aggiungere informazioni rilevanti.