1000 resultados para Metodo de intervencao
Resumo:
Porous materials are widely used in many fields of industrial applications, to achieve the requirements of noise reduction, that nowadays derive from strict regulations. The modeling of porous materials is still a problematic issue. Numerical simulations are often problematic in case of real complex geometries, especially in terms of computational times and convergence. At the same time, analytical models, even if partly limited by restrictive simplificative hypotheses, represent a powerful instrument to capture quickly the physics of the problem and general trends. In this context, a recently developed numerical method, called the Cell Method, is described, is presented in the case of the Biot's theory and applied for representative cases. The peculiarity of the Cell Method is that it allows for a direct algebraic and geometrical discretization of the field equations, without any reduction to a weak integral form. Then, the second part of the thesis presents the case of interaction between two poroelastic materials under the context of double porosity. The idea of using periodically repeated inclusions of a second porous material into a layer composed by an original material is described. In particular, the problem is addressed considering the efficiency of the analytical method. A analytical procedure for the simulation of heterogeneous layers based is described and validated considering both conditions of absorption and transmission; a comparison with the available numerical methods is performed. ---------------- I materiali porosi sono ampiamente utilizzati per diverse applicazioni industriali, al fine di raggiungere gli obiettivi di riduzione del rumore, che sono resi impegnativi da norme al giorno d'oggi sempre più stringenti. La modellazione dei materiali porori per applicazioni vibro-acustiche rapprensenta un aspetto di una certa complessità. Le simulazioni numeriche sono spesso problematiche quando siano coinvolte geometrie di pezzi reali, in particolare riguardo i tempi computazionali e la convergenza. Allo stesso tempo, i modelli analitici, anche se parzialmente limitati a causa di ipotesi semplificative che ne restringono l'ambito di utilizzo, rappresentano uno strumento molto utile per comprendere rapidamente la fisica del problema e individuare tendenze generali. In questo contesto, un metodo numerico recentemente sviluppato, il Metodo delle Celle, viene descritto, implementato nel caso della teoria di Biot per la poroelasticità e applicato a casi rappresentativi. La peculiarità del Metodo delle Celle consiste nella discretizzazione diretta algebrica e geometrica delle equazioni di campo, senza alcuna riduzione a forme integrali deboli. Successivamente, nella seconda parte della tesi viene presentato il caso delle interazioni tra due materiali poroelastici a contatto, nel contesto dei materiali a doppia porosità. Viene descritta l'idea di utilizzare inclusioni periodicamente ripetute di un secondo materiale poroso all'interno di un layer a sua volta poroso. In particolare, il problema è studiando il metodo analitico e la sua efficienza. Una procedura analitica per il calcolo di strati eterogenei di materiale viene descritta e validata considerando sia condizioni di assorbimento, sia di trasmissione; viene effettuata una comparazione con i metodi numerici a disposizione.
Resumo:
Metodo semplificato per il calcolo dell'azione sismica su strutture sotterranee.
Resumo:
Il presente studio si occupa di indagare lo stato delle popolazioni di alici, Engraulis encrasicolus, e sardine, Sardina pilchardus, presenti nel Mar Adriatico Centrale e Settentrionale attraverso l’utilizzo di metodi di dinamica di popolazione. L’attenzione per queste specie è dovuta alla loro importanza commerciale; sono, infatti, specie “target” della flotta peschereccia italiana, in particolare nell’area adriatica. I metodi di dinamica di popolazione sono uno degli aspetti più importanti delle scienze della pesca. Attraverso lo stock assessment si possono acquisire informazioni sull’abbondanza in mare delle risorse nel tempo e nello spazio, nonché sulla mortalità dovuta all’attività di pesca, che sono di primaria importanza per l’adozione di misure gestionali. I metodi di dinamica di popolazione esaminati e confrontati in questa tesi sono stati due: Virtual Population Analysis (VPA) e Integrated Catch-at-Age Analysis (ICA). Prima, però, è stato necessario esaminare le modalità con cui ottenere i dati di “input”, quali: tassi di crescita delle specie, mortalità naturale, sforzo di pesca, dati di cattura. Infine, è stato possibile ricostruire nel tempo la storia dello stock in questione e il suo stato attuale, dando indicazioni per lo sfruttamento futuro in un’ottica di conservazione dello stock stesso. Attraverso la determinazione della curva di crescita si sono potuti ottenere i parametri di crescita delle specie in esame, necessari per definire i tassi di mortalità naturale. L’abbondanza di questi stock è stata valutata con i programmi Age Length Key (ALK) e Iterative Age Length Key (IALK). Nei programmi di stock assessment utilizzati si è preferito utilizzare la stima di abbondanza calcolata con il primo metodo, in quanto più rappresentativo dello stock in esame. Un parametro di fondamentale importanza e di difficile stima è la mortalità; in particolare, in questo studio ci siamo occupati di determinare la mortalità naturale. Questa è stata determinata utilizzando due programmi: ProdBiom (Abella et al., 1998) e il sistema ideato da Gislason et al. (2008). Nonostante l’approccio conservativo suggerisca l’utilizzo dei valori ricavati da ProdBiom, in quanto più bassi, si è preferito utilizzare i tassi di mortalità naturale ricavati dalla seconda procedura. Questa preferenza è stata determinata dal fatto che il programma ProdBiom consegna indici di mortalità naturale troppo bassi, se confrontati con quelli presentati in letteratura per le specie in esame. Inoltre, benché nessuno dei due programmi sia stato costruito appositamente per le specie pelagiche, è comunque preferibile la metodologia ideata da Gislason et al. (2008), in quanto ottenuta da un esame di 367 pubblicazioni, in alcune delle quali erano presenti dati per queste specie. Per quanto riguarda i dati di cattura utilizzati in questo lavoro per il calcolo della Catch Per Unit Effort (CPUE, cioè le catture per unità di sforzo), si sono utilizzati quelli della marineria di Porto Garibaldi, in quanto questa vanta una lunga serie temporale di dati, dal 1975 ad oggi. Inoltre, in questa marineria si è sempre pescato senza imposizione di quote e con quantitativi elevati. Determinati questi dati è stato possibile applicare i programmi di valutazione degli stock ittici: VPA e ICA. L’ICA risulta essere più attendibile, soprattutto per gli anni recenti, in quanto prevede un periodo nel quale la selettività è mantenuta costante, riducendo i calcoli da fare e, di conseguenza, diminuendo gli errori. In particolare, l’ICA effettua i suoi calcoli considerando che i dati di cattura e gli indici di “tuning” possono contenere degli errori. Nonostante le varie differenze dei programmi e le loro caratteristiche, entrambi concordano sullo stato degli stock in mare. Per quanto riguarda l’alice, lo stock di questa specie nel Mar Adriatico Settentrionale e Centrale, altamente sfruttato in passato, oggi risulta moderatamente sfruttato in quanto il livello di sfruttamento viene ottenuto con un basso livello di sforzo di pesca. Si raccomanda, comunque, di non incrementare lo sforzo di pesca, in modo da non determinare nuove drastiche diminuzioni dello stock con pesanti conseguenze per l’attività di pesca. Le sardine, invece, presentano un trend diverso: dalla metà degli anni ottanta lo stock di Sardina pilchardus ha conosciuto un continuo e progressivo declino, che solo nell’ultimo decennio mostra un’inversione di tendenza. Questo, però, non deve incoraggiare ad aumentare lo pressione di pesca, anzi bisogna cercare di mantenere costante lo sforzo di pesca al livello attuale in modo da permettere il completo ristabilimento dello stock (le catture della flotta italiana sono, infatti, ancora relativamente basse). Questo lavoro, nonostante i vari aspetti da implementare (quali: il campionamento, le metodologie utilizzate, l’introduzione di aspetti non considerati, come ad es. gli scarti,… etc.) e le difficoltà incontrate nel suo svolgimento, ha fornito un contributo di approfondimento sugli spinosi aspetti della definizione del tasso di mortalità naturale, individuando una procedura più adatta per stimare questo parametro. Inoltre, ha presentato l’innovativo aspetto del confronto tra i programmi ICA e VPA, mostrando una buon accordo dei risultati ottenuti. E’ necessario, comunque, continuare ad approfondire questi aspetti per ottenere valutazioni sempre più precise e affidabili, per raggiungere una corretta gestione dell’attività di pesca e ai fini della preservazione degli stock stessi.
Resumo:
Lo studio di cambiamenti strutturali inter o intramolecolari nei materiali polimerici può essere effettuato mediante la spettroscopia infrarossa associata a quella di correlazione bidimensionale (2D-COS, two-dimensional correlation spectroscopy). Questa tecnica, applicata a campioni del copolimero stirene-acrilonitrile (SAN) a diversa composizione, consente di interpretare variazioni spettrali riscontrate e l’andamento della temperatura di transizione vetrosa, Tg. L’applicazione della spettroscopia di correlazione bidimensionale (2D-COS) e l’analisi dell’intensità delle bande spettrali in funzione del contenuto di AN nel copolimero SAN, prevedono lo sviluppo di un metodo per correggere gli spettri IR da instabilità dovute alla linea di base e da variazioni derivanti dallo spessore dei film. A tal fine si sottopone lo spettro IR di ogni film di SAN alla correzione della linea di base e successivamente al processo di normalizzazione. La banda di vibrazione sottoposta ad analisi 2D-COS è quella corrispondente allo stretching del gruppo −C≡N in quanto presenta le maggiori variazioni in funzione della composizione del copolimero. La 2D-COS evidenzia che tali variazioni sono attribuibili alla variazione contemporanea di frequenza di assorbimento, larghezza e intensità di banda. A partire da questa osservazione si può dedurre la presenza nel materiale di un’interazione dipolo-dipolo di tipo intra-molecolare tra i gruppi nitrilici.
Resumo:
L'obiettivo di questa tesi è la discretizzazione di superfici a forma libera in gruppi di triangoli uguali tra loro. L'applicazione alle coperture in vetro e acciaio comporta un vantaggio a livello economico, nel rispetto dei vincoli architettonici e delle prestazioni strutturali. L'algoritmo utilizzato prevede una serie di iterazioni volte a trovare la forma ottimale dei triangoli approssimanti, che in seguito vengono ruotati e traslati in modo da riprodurre la forma globale iniziale nella maniera più precisa possibile. L'analisi multi-obiettivo riguarda il numero di triangoli unici usati, la spaziatura tra i triangoli, il distacco dalla superficie di riferimento e la dimensione degli elementi che deve essere compatibile con la struttura di sostegno. Vengono riportati i risultati dell'applicazione del presente metodo alla copertura "La Vela" del complesso Mixed Use Via Larga, sito in Bologna.
Resumo:
Il distretto è un luogo relazionale dinamico dove le imprese danno luogo a differenti comportamenti economici di vario genere e natura, cooperando in un certo senso per lo sviluppo e la crescita del distretto stesso. In un primo momento di formazione del distretto si sono delineati comportamenti di tipo path dependent per vantaggi economici dovuti alla distribuzione delle imprese nel territorio, ma con il tempo si sono cominciati ad avere comportamenti espansionistici differenti sia dall'interno che dall'esterno del distretto influendo direttamente sulla struttura del stesso. É ragionevole dunque pensare che gli attori guardino al rapporto “locale/globale” con una sorta di "strabismo", da un lato leggendo il distretto (dall’interno come dall’esterno) come un luogo privilegiato per la formazione di economie di prossimità, dall’altro puntando a disporre le catene produttive nello spazio globale, alla ricerca dei vantaggi derivanti da un minor costo del lavoro o dalla immediata prossimità dei mercati di sbocco. il distretto viene dunque attraversato da dinamiche che lo globalizzano ma, al contempo, ne preservano (almeno per ora) la specificità. Non è più possibile leggere la sua forma economica solo nella logica della embeddedness, e non sarebbe certo corretto farlo solo in chiave di openness. Si tratta dunque di interrogarsi sul rapporto più di integrazione/complementarità che di contrapposizione fra openness ed embeddedness. In questa tesi verrà descritto un metodo d'approccio per dare un valore al fenomeno di Openness e Embeddedness presente nel distretto partendo da un dataset di dati relazionali ricavati da due database economici Amadeus e Aida. Non essendo possibile trovare pubblicamente dati sulle reti di fornitura delle singole aziende, siamo partiti dai dati relazionali di cinque aziende “seme”, ed attraverso una ricerca ricorsiva nelle relazioni di azionariato/partecipazione, siamo riusciti ad ottenere un campione di analisi che ci permette di mettere in luce tramite la custer analysis le principali tipologie di reti di imprese presenti nel distretto ed estese nello spazio globale.
Resumo:
L'informazione è alla base della conoscenza umana. Senza, non si potrebbe sapere nulla di ciò che esiste, di ciò che è stato o di quello che potrebbe accadere. Ogni giorno si assimilano moltissime informazioni, che vengono registrate nella propria memoria per essere riutilizzate all'occorrenza. Ne esistono di vari generi, ma il loro insieme va a formare quella che è la cultura, educazione, tradizione e storia dell'individuo. Per questo motivo è importante la loro diffusione e salvaguardia, impedendone la perdita che costerebbe la dipartita di una parte di sé, del proprio passato o del proprio futuro. Al giorno d'oggi le informazioni possono essere acquisite tramite persone, libri, riviste, giornali, la televisione, il Web. I canali di trasmissione sono molti, alcuni più efficaci di altri. Tra questi, internet è diventato un potente strumento di comunicazione, il quale consente l'interazione tra chi naviga nel Web (ossia gli utenti) e una partecipazione attiva alla diffusione di informazioni. Nello specifico, esistono siti (chiamati di microblogging) in cui sono gli stessi utenti a decidere se un'informazione possa essere o meno inserita nella propria pagina personale. In questo caso, si è di fronte a una nuova "gestione dell'informazione", che può variare da utente a utente e può defluire in catene di propagazione (percorsi che compiono i dati e le notizie tra i navigatori del Web) dai risvolti spesso incerti. Ma esiste un modello che possa spiegare l'avanzata delle informazioni tra gli utenti? Se fosse possibile capirne la dinamica, si potrebbe venire a conoscenza di quali sono le informazioni più soggette a propagazione, gli utenti che più ne influenzano i percorsi, quante persone ne vengono a conoscenza o il tempo per cui resta attiva un'informazione, descrivendone una sorta di ciclo di vita. E' possibile nel mondo reale trovare delle caratteristiche ricorrenti in queste propagazioni, in modo da poter sviluppare un metodo universale per acquisirne e analizzarne le dinamiche? I siti di microblogging non seguono regole precise, perciò si va incontro a un insieme apparentemente casuale di informazioni che necessitano una chiave di lettura. Quest'ultima è proprio quella che si è cercata, con la speranza di poter sfruttare i risultati ottenuti nell'ipotesi di una futura gestione dell'informazione più consapevole. L'obiettivo della tesi è quello di identificare un modello che mostri con chiarezza quali sono i passaggi da affrontare nella ricerca di una logica di fondo nella gestione delle informazioni in rete.
Resumo:
Nel lavoro di tesi qui presentato si indaga l'applicazione di tecniche di apprendimento mirate ad una più efficiente esecuzione di un portfolio di risolutore di vincoli (constraint solver). Un constraint solver è un programma che dato in input un problema di vincoli, elabora una soluzione mediante l'utilizzo di svariate tecniche. I problemi di vincoli sono altamente presenti nella vita reale. Esempi come l'organizzazione dei viaggi dei treni oppure la programmazione degli equipaggi di una compagnia aerea, sono tutti problemi di vincoli. Un problema di vincoli è formalizzato da un problema di soddisfacimento di vincoli(CSP). Un CSP è descritto da un insieme di variabili che possono assumere valori appartenenti ad uno specico dominio ed un insieme di vincoli che mettono in relazione variabili e valori assumibili da esse. Una tecnica per ottimizzare la risoluzione di tali problemi è quella suggerita da un approccio a portfolio. Tale tecnica, usata anche in am- biti come quelli economici, prevede la combinazione di più solver i quali assieme possono generare risultati migliori di un approccio a singolo solver. In questo lavoro ci preoccupiamo di creare una nuova tecnica che combina un portfolio di constraint solver con tecniche di machine learning. Il machine learning è un campo di intelligenza articiale che si pone l'obiettivo di immettere nelle macchine una sorta di `intelligenza'. Un esempio applicativo potrebbe essere quello di valutare i casi passati di un problema ed usarli in futuro per fare scelte. Tale processo è riscontrato anche a livello cognitivo umano. Nello specico, vogliamo ragionare in termini di classicazione. Una classicazione corrisponde ad assegnare ad un insieme di caratteristiche in input, un valore discreto in output, come vero o falso se una mail è classicata come spam o meno. La fase di apprendimento sarà svolta utilizzando una parte di CPHydra, un portfolio di constraint solver sviluppato presso la University College of Cork (UCC). Di tale algoritmo a portfolio verranno utilizzate solamente le caratteristiche usate per descrivere determinati aspetti di un CSP rispetto ad un altro; queste caratteristiche vengono altresì dette features. Creeremo quindi una serie di classicatori basati sullo specifico comportamento dei solver. La combinazione di tali classicatori con l'approccio a portfolio sara nalizzata allo scopo di valutare che le feature di CPHydra siano buone e che i classicatori basati su tali feature siano affidabili. Per giusticare il primo risultato, eettueremo un confronto con uno dei migliori portfolio allo stato dell'arte, SATzilla. Una volta stabilita la bontà delle features utilizzate per le classicazioni, andremo a risolvere i problemi simulando uno scheduler. Tali simulazioni testeranno diverse regole costruite con classicatori precedentemente introdotti. Prima agiremo su uno scenario ad un processore e successivamente ci espanderemo ad uno scenario multi processore. In questi esperimenti andremo a vericare che, le prestazioni ottenute tramite l'applicazione delle regole create appositamente sui classicatori, abbiano risultati migliori rispetto ad un'esecuzione limitata all'utilizzo del migliore solver del portfolio. I lavoro di tesi è stato svolto in collaborazione con il centro di ricerca 4C presso University College Cork. Su questo lavoro è stato elaborato e sottomesso un articolo scientico alla International Joint Conference of Articial Intelligence (IJCAI) 2011. Al momento della consegna della tesi non siamo ancora stati informati dell'accettazione di tale articolo. Comunque, le risposte dei revisori hanno indicato che tale metodo presentato risulta interessante.
Resumo:
Oggetto di questa tesi è lo studio parametrico del comportamento di paratie mediante modellazione numerica agli elementi finiti. Si è anche analizzato l’aspetto normativo relativo ad esse ed in particolare si è applicato il D.M. 2008 ad una paratia sottolineando le innovazioni nella progettazione geotecnica. Le paratie sono opere di sostegno flessibili interagenti con i fronti di scavo e costituite da una porzione fuori terra, soggetta a condizioni di spinta attiva, e una porzione interrata che contrappone la resistenza passiva del terreno. Le opere di sostegno flessibile si dividono in due categorie: diaframmi e palancole che differiscono molto fra loro sia per il materiale con cui sono realizzate, sia per la tecnica di messa in opera, sia per la geometria, ma hanno in comune il meccanismo di funzionamento. Sono stati illustrati i metodi di calcolo per lo studio delle paratie: metodi dell’equilibrio limite a rottura, metodi a molle e metodi agli elementi finiti. I metodi agli elementi finiti negli ultimi anni hanno avuto maggior successo grazie alla possibilità di definire il modello costitutivo sforzi-deformazioni, le condizioni al contorno e le condizioni iniziali. Esistono numerosi programmi di calcolo che si basano sul metodo agli elementi finiti, tra i quali è da annoverare il programma Plaxis che viene molto usato grazie alla presenza di vari modelli costitutivi in grado di simulare il comportamento del terreno. Tra i legami costitutivi presenti nel programma Plaxis, sono stati presi in esame il modello Mohr-Coulomb, l’Hardening model e il Soft Soil Creep model e sono poi stati applicati per eseguire uno studio parametrico del comportamento delle paratie. Si è voluto comprendere la sensibilità dei modelli al variare dei parametri inseriti nel programma. In particolare si è posta attenzione alla modellazione dei terreni in base ai diversi modelli costitutivi studiando il loro effetto sui risultati ottenuti. Si è inoltre eseguito un confronto tra il programma Plaxis e il programma Paratie. Quest’ultimo è un programma di calcolo che prevede la modellazione del terreno con molle elasto-plastiche incrudenti. Il lavoro di tesi viene illustrato in questo volume come segue: nel capitolo 1 si analizzano le principali caratteristiche e tipologie di paratie mettendo in evidenza la complessità dell’analisi di queste opere e i principali metodi di calcolo usati nella progettazione, nel capitolo 2 si è illustrato lo studio delle paratie secondo le prescrizioni del D.M. 2008. Per comprendere l’argomento è stato necessario illustrare i principi base di questo decreto e le caratteristiche generali del capitolo 6 dedicato alla progettazione geotecnica. Le paratie sono poi state studiate in condizioni sismiche secondo quanto previsto dal D.M. 2008 partendo dall’analisi degli aspetti innovativi nella progettazione sismica per poi illustrare i metodi pseudo-statici utilizzati nello studio delle paratie soggette ad azione sismica. Nel capitolo 3 si sono presi in esame i due programmi di calcolo maggiormente utilizzati per la modellazione delle paratie: Paratie e Plaxis. Dopo aver illustrato i due programmi per comprenderne le potenzialità, i limiti e le differenze, si sono analizzati i principali modelli costituitivi implementati nel programma Plaxis, infine si sono mostrati alcuni studi di modellazione presenti in letteratura. Si è posta molta attenzione ai modelli costitutivi, in particolare a quelli di Mohr-Coulomb, Hardening Soil model e Soft Soil Creep model capaci di rappresentare il comportamento dei diversi tipi di terreno. Nel capitolo 4, con il programma Plaxis si è eseguita un’analisi parametrica di due modelli di paratie al fine di comprendere come i parametri del terreno, della paratia e dei modelli costitutivi condizionino i risultati. Anche in questo caso si è posta molta attenzione alla modellazione del terreno, aspetto che in questa tesi ha assunto notevole importanza. Dato che nella progettazione delle paratie è spesso utilizzato il programma Paratie (Ceas) si è provveduto ad eseguire un confronto tra i risultati ottenuti con questo programma con quelli ricavati con il programma Plaxis. E’ stata inoltra eseguita la verifica della paratia secondo le prescrizioni del D.M. 2008 dal momento che tale decreto è cogente.
Resumo:
In questa Tesi vengono trattati alcuni temi relativi alla modellizzazione matematica delle Transizioni di Fase, il cui filo conduttore è la descrizione basata su un parametro d'ordine, originato dalla Teoria di Landau. Dopo aver presentato in maniera generale un modo di approccio alla dinamica delle transizioni mediante campo di fase, con particolare attenzione al problema della consistenza termodinamica nelle situazioni non isoterme, si considerano tre applicazioni di tale metodo a transizioni di fase specifiche: la transizione ferromagnetica, la transizione superconduttrice e la transizione martensitica nelle leghe a memoria di forma (SMA). Il contributo maggiore viene fornito nello studio di quest'ultima transizione di fase per la quale si è elaborato un modello a campo di fase termodinamicamente consistente, atto a descriverne le proprietà termomeccaniche essenziali.
Resumo:
Il concetto di “sostenibilità” si riferisce allo sviluppo dei sistemi umani attraverso il più piccolo impatto possibile sul sistema ambientale. Le opere che si inseriscono bene nel contesto ambientale circostante e le pratiche che rispettano le risorse in maniera tale da permettere una crescita e uno sviluppo a lungo termine senza impattare sull’ambiente sono indispensabili in una società moderna. I progressi passati, presenti e futuri che hanno reso i conglomerati bituminosi materiali sostenibili dal punto di vista ambientale sono particolarmente importanti data la grande quantità di conglomerato usato annualmente in Europa e negli Stati Uniti. I produttori di bitume e di conglomerato bituminoso stanno sviluppando tecniche innovative per ridurre l’impatto ambientale senza compromettere le prestazioni meccaniche finali. Un conglomerato bituminoso ad “alta lavorabilità” (WMA), pur sviluppando le stesse caratteristiche meccaniche, richiede un temperatura di produzione minore rispetto a quella di un tradizionale conglomerato bituminoso a caldo (HMA). L’abbassamento della temperature di produzione riduce le emissioni nocive. Questo migliora le condizioni dei lavoratori ed è orientato verso uno sviluppo sostenibile. L’obbiettivo principale di questa tesi di laurea è quello di dimostrare il duplice valore sia dal punto di vista dell’eco-compatibilità sia dal punto di vista meccanico di questi conglomerati bituminosi ad “alta lavorabilità”. In particolare in questa tesi di laurea è stato studiato uno SMA ad “alta lavorabilità” (PGGWMA). L’uso di materiali a basso impatto ambientale è la prima fase verso un progetto ecocompatibile ma non può che essere il punto di partenza. L’approccio ecocompatibile deve essere esteso anche ai metodi di progetto e alla caratterizzazione di laboratorio dei materiali perché solo in questo modo è possibile ricavare le massime potenzialità dai materiali usati. Un’appropriata caratterizzazione del conglomerato bituminoso è fondamentale e necessaria per una realistica previsione delle performance di una pavimentazione stradale. La caratterizzazione volumetrica (Mix Design) e meccanica (Deformazioni Permanenti e Comportamento a fatica) di un conglomerato bituminoso è una fase importante. Inoltre, al fine di utilizzare correttamente i materiali, un metodo di progetto avanzato ed efficiente, come quello rappresentato da un approccio Empirico-Meccanicistico (ME), deve essere utilizzato. Una procedura di progetto Empirico-Meccanicistica consiste di un modello strutturale capace di prevedere gli stati di tensione e deformazione all’interno della pavimentazione sotto l’azione del traffico e in funzione delle condizioni atmosferiche e di modelli empirici, calibrati sul comportamento dei materiali, che collegano la risposta strutturale alle performance della pavimentazione. Nel 1996 in California, per poter effettivamente sfruttare i benefici dei continui progressi nel campo delle pavimentazioni stradali, fu iniziato un estensivo progetto di ricerca mirato allo sviluppo dei metodi di progetto Empirico - Meccanicistici per le pavimentazioni stradali. Il risultato finale fu la prima versione del software CalME che fornisce all’utente tre approcci diversi di l’analisi e progetto: un approccio Empirico, uno Empirico - Meccanicistico classico e un approccio Empirico - Meccanicistico Incrementale - Ricorsivo. Questo tesi di laurea si concentra sulla procedura Incrementale - Ricorsiva del software CalME, basata su modelli di danno per quanto riguarda la fatica e l’accumulo di deformazioni di taglio dai quali dipendono rispettivamente la fessurazione superficiale e le deformazioni permanenti nella pavimentazione. Tale procedura funziona per incrementi temporali successivi e, usando i risultati di ogni incremento temporale, ricorsivamente, come input dell’incremento temporale successivo, prevede le condizioni di una pavimentazione stradale per quanto riguarda il modulo complesso dei diversi strati, le fessurazioni superficiali dovute alla fatica, le deformazioni permanenti e la rugosità superficiale. Al fine di verificare le propreità meccaniche del PGGWMA e le reciproche relazioni in termini di danno a fatica e deformazioni permanenti tra strato superficiale e struttura della pavimentazione per fissate condizioni ambientali e di traffico, è stata usata la procedura Incrementale – Ricorsiva del software CalME. Il conglomerato bituminoso studiato (PGGWMA) è stato usato in una pavimentazione stradale come strato superficiale di 60 mm di spessore. Le performance della pavimentazione sono state confrontate a quelle della stessa pavimentazione in cui altri tipi di conglomerato bituminoso sono stati usati come strato superficiale. I tre tipi di conglomerato bituminoso usati come termini di paragone sono stati: un conglomerato bituminoso ad “alta lavorabilità” con granulometria “chiusa” non modificato (DGWMA), un conglomerato bituminoso modificato con polverino di gomma con granulometria “aperta” (GGRAC) e un conglomerato bituminoso non modificato con granulometria “chiusa” (DGAC). Nel Capitolo I è stato introdotto il problema del progetto ecocompatibile delle pavimentazioni stradali. I materiali a basso impatto ambientale come i conglomerati bituminosi ad “alta lavorabilità” e i conglomerati bituminosi modificati con polverino di gomma sono stati descritti in dettaglio. Inoltre è stata discussa l’importanza della caratterizzazione di laboratorio dei materiali e il valore di un metodo razionale di progetto delle pavimentazioni stradali. Nel Capitolo II sono stati descritti i diversi approcci progettuali utilizzabili con il CalME e in particolare è stata spiegata la procedura Incrementale – Ricorsiva. Nel Capitolo III sono state studiate le proprietà volumetriche e meccaniche del PGGWMA. Test di Fatica e di Deformazioni Permanenti, eseguiti rispettivamente con la macchina a fatica per flessione su quattro punti e il Simple Shear Test device (macchina di taglio semplice), sono stati effettuati su provini di conglomerato bituminoso e i risultati dei test sono stati riassunti. Attraverso questi dati di laboratorio, i parametri dei modelli della Master Curve, del danno a fatica e dell’accumulo di deformazioni di taglio usati nella procedura Incrementale – Ricorsiva del CalME sono stati valutati. Infine, nel Capitolo IV, sono stati presentati i risultati delle simulazioni di pavimentazioni stradali con diversi strati superficiali. Per ogni pavimentazione sono stati analizzati la fessurazione superficiale complessiva, le deformazioni permanenti complessive, il danno a fatica e la profondità delle deformazioni in ognuno degli stati legati.
Resumo:
L’obiettivo che l’elaborato si prefigge consiste nel dar forma ad un progetto palladiano rimasto sulla carta attraverso l’utilizzo delle tecnologie informatiche. Nello specifico si è ricostruita Villa Mocenigo in forma tridimensionale attraverso uno schizzo del progetto fatto su carta dallo stesso Palladio nel 1550. Lo schizzo della pianta, conservato al RIBA di Londra, anticiperebbe il successivo progetto finale pubblicato ne “I Quattro Libri dell’Architettura” ma rimasto comunque incompiuta. Il linguaggio di base utilizzato per la definizione dell’ipotesi progettuale del modello 3D è stato attinto dalle regole generali di proporzionamento “alla maniera degli antichi” che lo stesso Architetto illustra nel suo trattato. Al fine di rendere l’ipotesi ricostruttiva il più possibile in linea con il metodo di proporzionamento palladiano, come esercitazione, si è partiti dallo studio preparatorio di un altro progetto: Villa Sarego, edificata solo in parte. A partire quindi dalla ricostruzione 3D basata sui disegni dei rilievi eseguiti dal CISAAP è stata avanzata l’ipotesi di ricostruzione totale della villa, completa della parte incompiuta. Lo studio sintetizzato in questo elaborato ha anche riguardato: la composizione architettonica e lo studio delle regole proporzionali evolutesi nel tempo; il processo di digitalizzazione e archiviazione delle opere palladiane e i progetti attualmente in corso; escursus storico sulle ville romane; le opera di Palladio, costruite e progettate.
Resumo:
Il Medio Oriente è una regione in cui le scarse risorse idriche giocano un ruolo fondamentale nei rapporti e nelle relazioni tra gli Stati. Soprattutto nell'area di Israele, Palestina e Giordania la natura transfrontaliera delle fonti idriche condivise è considerata da qualche ricercatore come un catalizzatore del più ampio conflitto arabo-israeliano. Altri studiosi, tuttavia, vedono nella cooperazione regionale sulle risorse idriche un potenziale cammino verso una pace duratura veicolata dalla natura interdipendente delle fonti idriche comuni a più territori. Dato che l'acqua è l'elemento che per molti aspetti contribuisce allo sviluppo sociale ed economico e dato che le fonti idriche sotterranee e di superficie non conoscono confini e si muovono liberamente nel territorio, la cooperazione tra gli Stati rivieraschi delle risorse idriche dovrebbe arrivare a prevalere sul conflitto. Unica nel suo genere, l'ong trilaterale israelo-palestinese giordana Friends of the Earth Middle East, FoEME, ha fatto proprio tale auspicio e dal 1994 punta a sviluppare progetti di cooperazione per la salvaguardia del patrimonio naturale dell'area del bacino del fiume Giordano e del Mar Morto. Attraverso l'esperienza del Progetto Good Water Neighbors, GWN, avviato nel 2002, sta lavorando ad una serie di iniziative nel campo dell'environmental awareness e del social empowerment a favore di comunità israeliane, palestinesi e giordane transfrontaliere che condividono risorse idriche sotterranee o di superficie. Operando inizialmente a livello locale per identificare i problemi idrico-ambientali di ogni comunità selezionata e lavorare con i cittadini (ragazzi, famiglie e amministratori municipali) per migliorare la conoscenza idrica locale attraverso attività di educazione ambientale, di water awareness e piani di sviluppo urbano eco-compatibile, il Progetto GWN ha facilitato a livello transfrontaliero i rapporti tra le comunità confinanti abbattendo la barriera di sfiducia e sospetto che normalmente impedisce relazioni pacifiche, ha coadiuvato l'analisi dei problemi idrici comuni cercando di risolverli attraverso uno sforzo programmatico condiviso e sostenibile, per giungere infine a livello regionale ad incoraggiare la gestione idrica comune attraverso lo scambio di informazioni, il dialogo e lo sforzo/impegno cooperativo congiunto tra gli attori parte del GWN al fine di incentivare la pace attraverso l'interesse comune della tutela delle fonti idriche condivise. Gli approcci di local development e participation, le azioni di confidence building e il peacebuilding attraverso la tutela ambientale applicati con il metodo di bottom up all'interno di un contesto non pacificato come quello del conflitto arabo-israeliano, fanno del Progetto GWN un esperimento innovativo e originale. Le comunità israeliane, palestinesi e giordane selezionate hanno imparato a migliorare le proprie condizioni idrico-ambiennali cooperando assieme e sfruttando l'interdipendenza dalle fonti idriche condivise, avviando nel contempo rapporti pacifici con società sempre considerate nemiche. La sfida è stata quella di far comprendere le potenzialità di una cooperazione locale, in vista di un coordinamento regionale e di uno sforzo comune in grado di generare un beneficio collettivo. La lezione appresa finora durante questi primi sette anni di Progetto è stata quella di capire che non è necessario attendere la fine del conflitto per poter essere di aiuto alle proprie comunità o per un benessere personale, ma si può agire subito, anche nel pieno dell'Intifada al-Aqsa e con i coprifuoco.
Resumo:
Con il presente lavoro, che ha ad oggetto l’istituto dello scioglimento anticipato delle Camere nell’ordinamento costituzionale italiano, il candidato si propone tre obiettivi. Il primo è quello della ricostruzione dogmatica dell’istituto che sconta inevitabilmente un grosso debito nei confronti della vasta letteratura giuridica che si è sviluppata nel corso dei decenni. Il secondo obiettivo è quello, ben più originale, dell’indagine sulla prassi che ha contraddistinto il ricorso allo scioglimento nella peculiare realtà italiana. In questo modo si viene colmando uno spazio di ricerca diretto a leggere gli avvenimenti e a ricondurli in un quadro costituzionale sistematico, anche al fine di ricavare utili riflessioni circa la conformità della prassi stessa al dato normativo, nonché sulle modalità di funzionamento concreto dell'istituto. Il terzo obiettivo, quello più ambizioso, è utilizzare le considerazioni così sviluppate per ricercare soluzioni interpretative adeguate all’evoluzione subita dall’assetto politico-istituzionale italiano negli ultimi due decenni. Quanto al metodo, la scelta del candidato è stata quella di ricorrere ad uno strumentario che pone in necessaria sequenza logica: a) i presupposti storici/comparatistici e il dibattito in Assemblea costituente, utili per l’acquisizione del patrimonio del parlamentarismo europeo del tempo e per la comprensione del substrato su cui si costruisce l’edificio costituzionale; b) il testo costituzionale, avvalendosi anche delle importanti considerazioni svolte dalla dottrina più autorevole; c) la prassi costituzionale, consistente nella fase di implementazione concreta del disposto normativo. La finalità che il candidato si pone è dimostrare la possibilità di configurare lo scioglimento secondo un modello di tipo “primoministeriale”. Per quanto riguarda la prima parte della ricerca, dalla pur sintetica descrizione dei precedenti storici (sia rispetto alle realtà europee, inglese e francese in primis, che al periodo prerepubblicano) si trae conferma che l’operatività dell’istituto è intrinsecamente influenzata dalla forma di governo. Una prima indicazione che emerge con forza è come la strutturazione del sistema partitico e il grado di legame tra Assemblea rappresentativa e Gabinetto condizionino la ratio del potere di scioglimento, la sua titolarità ed il suo effettivo rendimento. Infatti, in presenza di regimi bipartitici e di impianti istituzionali che accentuano il raccordo fiduciario, il Capo dello Stato tende all’emarginazione, e lo scioglimento acquisisce carattere di automaticità tutte le volte in cui si verificano crisi ministeriali (eventualità però piuttosto rara); più consueto è invece lo scioglimento primoministeriale libero, come arma politica vera e propria attraverso cui il Governo in carica tende a sfruttare il momento migliore per ricercare il giudizio del popolo. Al contrario, dove il sistema politico è più dinamico, e il pluralismo sociale radicalizzato, il Capo dello Stato interferisce fortemente nella vita istituzionale e, in particolare, nella formazione dell’indirizzo politico: in quest’ottica lo scioglimento viene da questi inglobato, ed il suo ricorso subordinato ad esigenze di recupero della funzionalità perduta; soprattutto, quando si verificano crisi ministeriali (invero frequenti) il ricorso alle urne non è conseguenza automatica, ma semmai gli viene preferita la via della formazione di un Gabinetto poggiante su una maggioranza alternativa. L’indagine svolta dal candidato sui lavori preparatori mostra come il Costituente abbia voluto perseguire l'obiettivo di allargare le maglie della disciplina costituzionale il più possibile, in modo da poter successivamente ammettere più soluzioni interpretative. Questa conclusione è il frutto del modo in cui si sono svolte le discussioni. Le maggiori opzioni prospettate si collocavano lungo una linea che aveva ad un estremo una tassativa preordinazione delle condizioni legittimanti, ed all’altro estremo l’esclusiva e pressoché arbitraria facoltà decisionale dello scioglimento nelle mani del Capo dello Stato; in mezzo, la via mediana (e maggiormente gradita) del potere sì presidenziale, benché circondato da tutta una serie di limiti e garanzie, nel quadro della costruzione di una figura moderatrice dei conflitti tra Esecutivo e Legislativo. Ma non bisogna tralasciare che, seppure rare, diverse voci propendevano per la delineazione di un potere governativo di scioglimento la quale impedisse che la subordinazione del Governo al Parlamento si potesse trasformare in degenerazione assemblearista. Quindi, il candidato intende sottolineare come l’adamantina prescrizione dell’art. 88 non postuli, nell’ambito dell’interpretazione teleologica che è stata data, alcuno specifico indirizzo interpretativo dominante: il che, in altri termini, è l’ammissione di una pluralità di concezioni teoricamente valide. L'analisi del dettato costituzionale non ha potuto prescindere dalla consolidata tripartizione delle teorie interpretative. Dall'analisi della letteratura emerge la preferenza per la prospettiva dualistica, anche in virtù del richiamo che la Costituzione svolge nei confronti delle competenze sia del Presidente della Repubblica (art. 88) che del Governo (art. 89), il che lo convince dell’inopportunità di imporre una visione esclusivista, come invece sovente hanno fatto i sostenitori della tesi presidenziale. Sull’altro versante ciò gli permette di riconferire una certa dignità alla tesi governativa, che a partire dal primo decennio repubblicano era stata accantonata in sede di dibattito dottrinario: in questo modo, entrambe le teoriche fondate su una titolarità esclusiva assumono una pari dignità, benchè parimenti nessuna delle due risulti persuasiva. Invece, accedere alla tesi della partecipazione complessa significa intrinsecamente riconoscere una grande flessibilità nell’esercizio del potere in questione, permettendo così una sua più adeguata idoneità a mutare le proprie sembianze in fase applicativa e a calarsi di volta in volta nelle situazioni contingenti. Questa costruzione si inserisce nella scelta costituente di rafforzare le garanzie, ed il reciproco controllo che si instaura tra Presidente e Governo rappresenta la principale forma di tutela contro potenziali abusi di potere. Ad ognuno dei due organi spettano però compiti differenti, poiché le finalità perseguite sono differenti: come l’Esecutivo agisce normalmente secondo canoni politici, in quanto principale responsabile dell’indirizzo politico, al Capo dello Stato si addice soprattutto il compito di sorvegliare il regolare svolgimento dei meccanismi istituzionali, in posizione di imparzialità. Lo schema costituzionale, secondo il candidato, sembra perciò puntare sulla leale collaborazione tra i poteri in questione, senza però predefinire uno ruolo fisso ed immutabile, ma esaltando le potenzialità di una configurazione così eclettica. Assumendo questa concezione, si ha buon gioco a conferire piena cittadinanza costituzionale all’ipotesi di scioglimento disposto su proposta del Presidente del Consiglio, che si può ricavare in via interpretativa dalla valorizzazione dell’art. 89 Cost. anche secondo il suo significato letterale. Al discorso della titolarità del potere di scioglimento, il candidato lega quello circa i presupposti legittimanti, altro nodo irrisolto. La problematica relativa alla loro definizione troverebbe un decisivo ridimensionamento nel momento in cui si ammette la compartecipazione di Governo e Presidente della Repubblica: il diverso titolo con il quale essi cooperano consentirebbe di prevenire valutazioni pretestuose circa la presenza delle condizioni legittimanti, poichè è nel reciproco controllo che entrambi gli organi individuano i confini entro cui svolgere le rispettive funzioni. Si giustificano così sia ragioni legate ad esigenze di funzionalità del sistema (le più ricorrenti in un sistema politico pluripartitico), sia quelle scaturenti dalla divaricazione tra orientamento dei rappresentati e orientamento dei rappresentanti: purchè, sottolinea il candidato, ciò non conduca il Presidente della Repubblica ad assumere un ruolo improprio di interferenza con le prerogative proprie della sfera di indirizzo politico. Il carattere aperto della disciplina costituzionale spinge inevitabilmente il candidato ad approfondire l'analisi della prassi, la cui conoscenza costituisce un fondamentale modo sia per comprendere il significato delle disposizioni positive che per apprezzare l’utilità reale ed il rendimento sistemico dell’istituto. Infatti, è proprio dall'indagine sulla pratica che affiorano in maniera prepotente le molteplici virtualità dello strumento dissolutorio, con modalità operative che, a seconda delle singole fasi individuate, trovano una strutturazione casistica variabile. In pratica: nel 1953 e nel 1958 è l'interesse del partito di maggioranza relativa ad influenzare il Governo circa la scelta di anticipare la scadenza del Senato; nel 1963 e nel 1968 invece si fa strada l'idea del consenso diffuso allo scioglimento, seppure nel primo caso l'anticipo valga ancora una volta per il solo Senato, e nel secondo ci si trovi di fronte all'unica ipotesi di fine naturale della legislatura; nel 1972, nel 1976, nel 1979, nel 1983 e nel 1987 (con una significativa variante) si manifesta con tutta la sua forza la pratica consociativa, figlia della degenerazione partitocratica che ha svuotato le istituzioni giuridiche (a partire dal Governo) e cristallizzato nei partiti politici il centro di gravità della vita pubblica; nel 1992, a chiusura della prima epoca repubblicana, caratterizzata dal dominio della proporzionale (con tutte le sue implicazioni), si presentano elementi atipici, i quali vanno a combinarsi con le consolidate tendenze, aprendo così la via all'incertezza sulle tendenze future. È con l'avvento della logica maggioritaria, prepotentemente affacciatasi per il tramite dei referendum elettorali, a sconvolgere il quadro delle relazioni fra gli organi costituzionali, anche per quanto concerne ratio e caratteristiche del potere di scioglimento delle Camere. Soprattutto, nella fase di stretta transizione che ha attraversato il quadriennio 1992-1996, il candidato mette in luce come i continui smottamenti del sistema politico abbiano condotto ad una fase di destabilizzazione anche per quanto riguarda la prassi, incrinando le vecchie regolarità e dando vita a potenzialità fino allora sconosciute, addirittura al limite della conformità a Costituzione. La Presidenza Scalfaro avvia un processo di netta appropriazione del potere di scioglimento, esercitandolo in maniera esclusiva, grazie anche alla controfirma offerta da un Governo compiacente (“tecnicco”, perciò debitore della piena fiducia quirinalizia). La piena paternità presidenziale, nel 1994, è accompagnata da un altro elemento di brusca rottura con il passato, ossia quello della ragione legittimante: infatti, per la prima volta viene addotta palesemente la motivazione del deficit di rappresentatività. Altro momento ad aver costituito da spartiacque nell’evoluzione della forma di governo è stato il mancato scioglimento a seguito della crisi del I Governo Berlusconi, in cui forti erano state le pressioni perché si adeguasse il parlamentarismo secondo i canoni del bipolarismo e del concetto di mandato di governo conferito direttamente dagli elettori ad una maggioranza (che si voleva predefinita, nonostante essa in verità non lo fosse affatto). Dopo questa parentesi, secondo il candidato la configurazione dello strumento dissolutorio si allinea su ben altri binari. Dal punto di vista della titolarità, sono i partiti politici a riprendere vigorosamente un certo protagonismo decisionale, ma con una netta differenza rispetto al passato consociativo: ora, il quadro politico pare saldamente attestato su una dinamica bipolare, per cui anche in relazione all’opzione da adottare a seguito di crisi ministeriale sono le forze della maggioranza che decidono se proseguire la legislatura (qualora trovino l’accordo tra di loro) o se sciogliere (allorchè invece si raggiunga una sorta di maggioranza per lo scioglimento). Dal punto di vista dei presupposti, sembra consolidarsi l’idea che lo scioglimento rappresenti solo l’extrema ratio, chiamando gli elettori ad esprimersi solo nel momento in cui si certifica l’assoluta impossibilità di ripristinare la funzionalità perduta. Conclusioni. Il rafforzamento della prospettiva bipolare dovrebbe postulare una riconfigurazione del potere di scioglimento tesa a valorizzare la potestà decisionale del Governo. Ciò discenderebbe dal principio secondo cui il rafforzamento del circuito che unisce corpo elettorale, maggioranza parlamentare e Governo, grazie al collante di un programma politico condiviso, una coalizione che si presenta alle elezioni ed un candidato alla Presidenza del Consiglio che incarna la perfetta sintesi di tutte queste istanze, comporta che alla sua rottura non si può che tornare al giudizio elettorale: e quindi sciogliere le Camere, evitando la composizione di maggioranze che non rappresentano la diretta volontà popolare. Il candidato però non ritiene auspicabile l’adozione di un automatismo analogo alla regola dell'aut simul stabunt aut simul cadent proprio dell’esperienza regionale post 1999, perché soluzione eccessivamente rigida, che ingesserebbe in maniera inappropriata una forma parlamentare che comunque richiede margini di flessiblità. La proposta è invece di rileggere il testo costituzionale, rebus sic stantibus, nel senso di far prevalere un potere libero di proposta da parte del Governo, cui il Capo dello Stato non potrebbe non consentire, salvo svolgere un generale controllo di costituzionalità volto ad accertare l’insussistenza di alcuna forma di abuso. Su queste conclusioni il lavoro esprime solo prime idee, che meritano di essere approfondite. Come è da approfondire un tema che rappresenta forse l’elemento di maggiore originalità: trattasi della qualificazione e descrizione di un mandato a governare, ossia della compatibilità costituzionale (si pensi, in primis, al rapporto con il divieto di mandato imperativo di cui all’art. 67 Cost.) di un compito di governo che, tramite le elezioni, gli elettori affidano ad una determinata maggioranza, e che va ad arricchire il significato del voto rispetto a quello classico della mera rappresentanza delle istanze dei cittadini (e propria del parlamentarismo ottocentesco): riflessi di tali considerazioni si avrebbero inevitabilmente anche rispetto alla concezione del potere di scioglimento, che in siffatta maniera verrebbe percepito come strumento per il ripristino del “circuito di consonanza politica” che in qualche modo si sarebbe venuto a rompere. Ad ogni buon conto, già emergono dei riflessi in questo senso, per cui la strada intrapresa dal candidato pare quella giusta affinchè l’opera risulti completa, ben argomentata ed innovativa.
Resumo:
La tesi tratta aspetti relativi all'ottimizzazione strutturale. Algoritmi di ottimizzazione scritti in linguaggio di programmazione Python, sia basati sul metodo del simplesso che di tipo gentico, sono stati integrati in ambiente Salome-Meca/CAE ed applicati ad esempi di interesse strutturale.