998 resultados para Elba,tesi,relazione geologica,rilevamento geologico,rilevamento
Resumo:
Oggetto di questa tesi di laurea è la riqualificazione funzionale ed energetica di un'autorimessa per corriere costruita a Forlì nel 1935 dal geom. Alberto Flamigni e di proprietà dell' ATR, Agenzia per la Mobilità della provincia di Forlì-Cesena. Al deposito per corriere sono annessi dei piccoli capanni adibiti a magazzini ed una palazzina per uffici costruita negli anni '50, non facente parte del progetto originale. Oggi l'intero complesso risulta in disuso e la richiesta espressa dall'Amministrazione Comunale di Forlì è quella di adattare il comparto per ospitare funzioni musicali, d'intrattenimento e cultura, pensando anche ad un collegamento col manufatto storico dell'Arena Forlivese; quest'ultima, costruita negli anni '20, è situata ai margini del lotto in esame, risulta di proprietà privata ed oggi versa in condizioni di grave degrado. Uno dei fini del progetto, sul filo conduttore delle richieste dell'Amministrazione, è quello di mantenere l'involucro originale dell'edificio, su cui grava anche un vincolo storico, essendo stato progettato durante il periodo fascista ed avendo forti richiami alle soluzioni architettoniche adottate da Marcello Piacentini. Si è quindi deciso di lavorare al suo interno, al fine di creare dei nuclei indipendenti che ospitano le nuove funzioni di auditorium, mediateca, spazio espositivo, sale prova, camerini, mantenendo invece intatto il perimetro in mattoni facciavista con basamento in travertino. Il fronte esposto a sud, essendo stato originariamente pensato come mero elemento di chiusura, senza basamento e sistema di rivestimento ma semplicemente intonacato, si distacca dal resto dell'involucro ed è stato perciò oggetto di maggiori modifiche, in relazione anche al nuovo orientamento d'ingresso pensato per il comparto: l'Amministrazione Comunale ha infatti espresso il desiderio di modificare il percorso di accesso all'edificio, dal fronte nord su piazza Savonarola al fronte ovest su via Ugo Bassi. Il progetto ha adottato un approccio integrato dal punto di vista formale e costruttivo, ponendo particolare attenzione al rispetto e alla valorizzazione della struttura esistente: uno dei punti forti dell'ex deposito è infatti la sua copertura in travi reticolari in c.a. con shed vetrati orientati a nord. Tale sistema di copertura è stato mantenuto per favorire l'illuminazione degli spazi interni, isolato termicamente ed integrato con dei pannelli diffusori che garantiscono una luce uniforme e ben distribuita. Dal punto di vista funzionale e distributivo il progetto ha risposto a criteri di massima flessibilità e fruibilità degli ambienti interni, assecondando le esigenze dell'utenza. Mantenendo la finalità del minimo intervento sull'involucro esistente, nel piano terra si è adottata una tipologia di ambienti open space che delimitano il doppio volume dello spazio espositivo, pensato come un semplice e neutro contenitore, allestibile in base al tipo di mostra ed alla volontà degli organizzatori. Particolare attenzione è stata rivolta alla scelta della tipologia costruttiva per l'auditorium ed i volumi adibiti a sale prova, camerini e depositi, adottando elementi prefabbricati in legno assemblati a secco. Si sono studiati anche i sistemi impiantistici al fine di garantire un elevato livello di comfort interno e nel contempo un considerevole risparmio dal punto di vista energetico. Durante le varie fasi di avanzamento e messa a punto del progetto è stata posta grande attenzione all'aspetto acustico, dalla scelta della forma della sala al trattamento superficiale per garantire un'ottima resa prestazionale, parametro imprescindibile nella progettazione di un adeguato spazio musicale. Altro elemento preso in considerazione a scala locale e urbana è stato quello della sistemazione del cortile a sud, oggi asfaltato ed utilizzato come semplice parcheggio di autobus, al fine di trasformarlo in parco pubblico fruibile dagli utenti del complesso culturale e nel contempo elemento di connessione con l'Arena, tramite un nuovo sistema di orientamenti e percorsi.
Resumo:
La distorsione della percezione della distanza tra due stimoli puntuali applicati sulla superfice della pelle di diverse regioni corporee è conosciuta come Illusione di Weber. Questa illusione è stata osservata, e verificata, in molti esperimenti in cui ai soggetti era chiesto di giudicare la distanza tra due stimoli applicati sulla superficie della pelle di differenti parti corporee. Da tali esperimenti si è dedotto che una stessa distanza tra gli stimoli è giudicata differentemente per diverse regioni corporee. Il concetto secondo cui la distanza sulla pelle è spesso percepita in maniera alterata è ampiamente condiviso, ma i meccanismi neurali che manovrano questa illusione sono, allo stesso tempo, ancora ampiamente sconosciuti. In particolare, non è ancora chiaro come sia interpretata la distanza tra due stimoli puntuali simultanei, e quali aree celebrali siano coinvolte in questa elaborazione. L’illusione di Weber può essere spiegata, in parte, considerando la differenza in termini di densità meccano-recettoriale delle differenti regioni corporee, e l’immagine distorta del nostro corpo che risiede nella Corteccia Primaria Somato-Sensoriale (homunculus). Tuttavia, questi meccanismi sembrano non sufficienti a spiegare il fenomeno osservato: infatti, secondo i risultati derivanti da 100 anni di sperimentazioni, le distorsioni effettive nel giudizio delle distanze sono molto più piccole rispetto alle distorsioni che la Corteccia Primaria suggerisce. In altre parole, l’illusione osservata negli esperimenti tattili è molto più piccola rispetto all’effetto prodotto dalla differente densità recettoriale che affligge le diverse parti del corpo, o dall’estensione corticale. Ciò, ha portato a ipotizzare che la percezione della distanza tattile richieda la presenza di un’ulteriore area celebrale, e di ulteriori meccanismi che operino allo scopo di ridimensionare – almeno parzialmente – le informazioni derivanti dalla corteccia primaria, in modo da mantenere una certa costanza nella percezione della distanza tattile lungo la superfice corporea. E’ stata così proposta la presenza di una sorta di “processo di ridimensionamento”, chiamato “Rescaling Process” che opera per ridurre questa illusione verso una percezione più verosimile. Il verificarsi di questo processo è sostenuto da molti ricercatori in ambito neuro scientifico; in particolare, dal Dr. Matthew Longo, neuro scienziato del Department of Psychological Sciences (Birkbeck University of London), le cui ricerche sulla percezione della distanza tattile e sulla rappresentazione corporea sembrano confermare questa ipotesi. Tuttavia, i meccanismi neurali, e i circuiti che stanno alla base di questo potenziale “Rescaling Process” sono ancora ampiamente sconosciuti. Lo scopo di questa tesi è stato quello di chiarire la possibile organizzazione della rete, e i meccanismi neurali che scatenano l’illusione di Weber e il “Rescaling Process”, usando un modello di rete neurale. La maggior parte del lavoro è stata svolta nel Dipartimento di Scienze Psicologiche della Birkbeck University of London, sotto la supervisione del Dott. M. Longo, il quale ha contribuito principalmente all’interpretazione dei risultati del modello, dando suggerimenti sull’elaborazione dei risultati in modo da ottenere un’informazione più chiara; inoltre egli ha fornito utili direttive per la validazione dei risultati durante l’implementazione di test statistici. Per replicare l’illusione di Weber ed il “Rescaling Proess”, la rete neurale è stata organizzata con due strati principali di neuroni corrispondenti a due differenti aree funzionali corticali: • Primo strato di neuroni (il quale dà il via ad una prima elaborazione degli stimoli esterni): questo strato può essere pensato come parte della Corteccia Primaria Somato-Sensoriale affetta da Magnificazione Corticale (homunculus). • Secondo strato di neuroni (successiva elaborazione delle informazioni provenienti dal primo strato): questo strato può rappresentare un’Area Corticale più elevata coinvolta nell’implementazione del “Rescaling Process”. Le reti neurali sono state costruite includendo connessioni sinaptiche all’interno di ogni strato (Sinapsi Laterali), e connessioni sinaptiche tra i due strati neurali (Sinapsi Feed-Forward), assumendo inoltre che l’attività di ogni neurone dipenda dal suo input attraverso una relazione sigmoidale statica, cosi come da una dinamica del primo ordine. In particolare, usando la struttura appena descritta, sono state implementate due differenti reti neurali, per due differenti regioni corporee (per esempio, Mano e Braccio), caratterizzate da differente risoluzione tattile e differente Magnificazione Corticale, in modo da replicare l’Illusione di Weber ed il “Rescaling Process”. Questi modelli possono aiutare a comprendere il meccanismo dell’illusione di Weber e dare così una possibile spiegazione al “Rescaling Process”. Inoltre, le reti neurali implementate forniscono un valido contributo per la comprensione della strategia adottata dal cervello nell’interpretazione della distanza sulla superficie della pelle. Oltre allo scopo di comprensione, tali modelli potrebbero essere impiegati altresì per formulare predizioni che potranno poi essere verificate in seguito, in vivo, su soggetti reali attraverso esperimenti di percezione tattile. E’ importante sottolineare che i modelli implementati sono da considerarsi prettamente come modelli funzionali e non intendono replicare dettagli fisiologici ed anatomici. I principali risultati ottenuti tramite questi modelli sono la riproduzione del fenomeno della “Weber’s Illusion” per due differenti regioni corporee, Mano e Braccio, come riportato nei tanti articoli riguardanti le illusioni tattili (per esempio “The perception of distance and location for dual tactile pressures” di Barry G. Green). L’illusione di Weber è stata registrata attraverso l’output delle reti neurali, e poi rappresentata graficamente, cercando di spiegare le ragioni di tali risultati.
Resumo:
Nel 2009 l'Italia attraversa la più grande crisi economica del secondo dopoguerra. Lo studio di ciò che accade, attraverso uno sguardo attento alle principali variabili congiunturali prodotte nel paese, è fondamentale per capire quali sono state le cause che hanno portato a questa situazione e per dare la possibilità ai policy maker di limitarne gli effetti in futuro. Ma l'Italia non è un territorio dalle caratteristiche monolitiche, è un aggregato di parti molto diverse fra loro. Analizzando il territorio italiano come insieme delle sue parti, osserveremo le medesime condizioni economiche ripetersi in ogni territorio del paese? L'esperienza ci suggerisce di no. La tesi vuole evidenziare come e quanto la struttura caratteristica del tessuto produttivo regionale è responsabile anche della performance economica. La tesi è quindi caratterizzata da due parti. Da un lato si è cercato di analizzare quali siano le differenze nei cicli economici regionali, dall'altro, attraverso l'utilizzo di un sistema di valutazione "fuzzy", si è cercato di ricostruire la natura strutturale delle regioni, al fine di determinare quali siano le specializzazioni che ogni territorio è in grado di mettere in campo. La tesi si conclude con un'analisi comparativa degli indici di dissimilarità tra cicli regionali e nazionale e i livelli sintetici di specializzazione, si è verificato che esiste una relazione forte che lega le caratteristiche strutturali delle regioni alle distanze tra i loro cicli, dimostrando quindi la tesi che struttura regionale e performance economica siano strettamente interconnesse.
Resumo:
La mia tesi analizza il modo in cui è costruito il rapporto tra università e politica, con particolare sguardo sulle Università di Bucarest e di Bologna. E una ricerca empirica che si propone da una parte di fare una radiografia esatta della formulazione delle politiche dello stato in materia d’istruzione superiore, e dall’altro lato, di vedere la maniera in cui si sviluppa l’organizzazione interna delle università romene, prendendo come caso concreto l’Università di Bucarest. L’interesse per questo argomento è stato determinato dal fatto che la politica dell’educazione rappresenta una politica chiave nella ricostruzione dello stato democratico romeno dopo dicembre 1989. In secondo luogo l’intento di approfondire questo tema parte dal fatto che in Romania mancano degli studi consistenti sul percorso dell’università durante la transizione post communista, studi fatti nella prospettiva della scienza politica. In terzo luogo l’educazione è da sempre un argomento con portata politica. La tesi è articolata in tre parti, fondamentali per la comprehensione del rapporto tra politica è università: Università, Elites politiche e università, Stato e università. L’ipotesi è che l’educazione rappresenta un mezzo di legitimazzione per la politica, oppure, la carriera universitaria è un mezzo di legitimazzione per la carriera politica. Da qui deriva il fatto che l’università si constituisce in una fonte di reclutamento per i partiti politici e che in Romania le università private sono create per facilitare uno scambio di capitale, con lo scopo di facilitare il passaggio dal mondo politico verso il mondo accademico. Dal punto di vista metodologico, sono state utilizzate le fonti seguenti: archivio dell’università di Bucarest, fondo senato, periodo 1989-2004; archivio della Camera dei Deputati della Romania; l’archivio della Commisione per l’Insegnamento, la scienza e la gioventù della Camera dei Deputati e interviste semi-direttive con ex ministri dell’istruzione, consiglieri della Commisione per l’Insegnamento della Camera dei Deputati e altri politici. Inoltre, per il caso romeno è stata realizzata una banca dati con i membri del Parlamento romeno 1989-2008, per un totale di 2737 parlamentari, con lo scopo di realizzare il profilo educazionale dell’elite parlamentare nel post communismo. Nel periodo che abbiamo investigato, l’università si definisce attraverso il suo posizionamento verso il passato, da una parte perchè non esiste una politica dell’università romena che abbiamo incluso nello studio di caso, ma ci sono dei tentativi di conquistare i dirittti degli universitari, e dall’altra perchè il cambiamento dell’università è blocatto da routines di tipo burocratico. La relazione tra il mondo accademico e il mondo politico si costruisce a livello di cariera in un senso doppio: dal mondo accademico verso il mondo politico nello spirito della tradizione interbellica romena e dal mondo politico verso il mondo accademico, la cui comprensione è facilitata dal paragone con il caso italiano. Per la terza parte dello studio, possiamo osservare che lo stato è molto presente nello spazio educativo, fatto che rende difficile la negociazzione di una pertinente definizione dell’autonomia universitaria.
Resumo:
La tesi ha come oggetto lo studio dei legami culturali posti in essere tra la Russia e l’Italia nel Settecento effettuato a partire dall’analisi del teatro di Arkhangelskoe (nei pressi di Mosca), ideato da Pietro Gonzaga. Ciò ha consentito di inquadrare l’atmosfera culturale del periodo neoclassico a partire da un’angolazione insolita: il monumento in questione, a dispetto della scarsa considerazione di cui gode all’interno degli studi di storia dell’arte, racchiude diverse ed interessanti problematiche artistiche. Queste ultime sono state tenute in debito conto nel processo dell’organizzazione della struttura del lavoro in relazione ai differenti livelli di analisi emersi in riferimento alla tematica scelta. Ogni capitolo rappresenta un punto di partenza che va utilizzato al fine di approfondire problematiche relative all’arte ed al teatro nei due Paesi, il tutto reso possibile grazie all’applicazione di un originale orientamento analitico. All’interno della tesi vengono infatti adoperati approcci e tecniche metodologiche che vanno dalla storia dell’arte all’analisi diretta dei monumenti, dall’interpretazione iconografica alla semiotica, per arrivare agli studi sociologici. Ciò alla fine ha consentito di rielaborare il materiale già noto e ampiamente studiato in modo convincente ed efficace, grazie al ragionamento sintetico adottato e alla possibilità di costruire paralleli letterari e artistici, frutto delle ricerche svolte nei diversi contesti. Il punto focale della tesi è rappresentato dalla figura di Pietro Gonzaga. Tra i decoratori e gli scenografi italiani attivi presso la corte russa tra il Settecento e l’Ottocento, questi è stato senza dubbio la figura più rilevante ed affascinante, in grado di lasciare una ricca eredità culturale e materiale nell’ambito dell’arte scenografica russa. Dimenticata per lungo tempo, l’opera di Pietro Gonzaga è attualmente oggetto di una certa riconsiderazione critica, suscitando curiosità e interesse da più parti. Guidando la ricerca su di un duplice binario, sia artistico che interculturale, si è quindi cercato di trovare alcune risonanze tra l’arte ed il pensiero di Gonzaga ed altre figure di rilievo non solo del suo secolo ma anche del Novecento, periodo in cui la cultura scenografica russa è riuscita ad affrancarsi dai dettami impartiti dalla lezione settecentesca, seguendo nuove ed originali strade espressive. In questo contesto spicca, ad esempio, la figura di Vsevolod Meyerchold, regista teatrale (uno dei protagonisti dell’ultimo capitolo della tesi) che ha instaurato un legame del tutto originale con i principi della visione scenica comunicati da Pietro Gonzaga. Lo sviluppo dell’argomento scelto ha richiesto di assumere una certa responsabilità critica, basandosi sulla personale sicurezza metodologica ed esperienza multidisciplinare al fine di tener conto dall’architettura, della teoria e della pratica teatrale – dalla conoscenza delle fonti fino agli studi del repertorio teatrale, delle specifiche artistiche locali, del contesto sociale dei due paesi a cavallo tra il ‘700 e l’‘800. Le problematiche toccate nella tesi (tra le quali si ricordano il ruolo specifico rivestito dal committente, le caratteristiche proprie della villa neoclassica russa, il fenomeno di ‘spettacoli muti’, la “teatralità” presente nel comportamento dei russi nell’epoca dei Lumi, la risonanza delle teorie italiane all’interno del arte russa) sono di chiara attualità per quanto concerne le ricerche relative al dialogo storico-artistico tra i due Paesi.
Resumo:
La presente tesi si pone in continuità con il Laboratorio di Sintesi Finale in Urbanistica “La città e le case. L’urbanistica e lo spazio dell’abitare”e si propone di applicare e sperimentare una nuova forma urbana quella dell’open block derivante dall’omonima teoria dell’architetto francese Christian de Portzamparc. L’intervento si inserisce all’interno della cosiddetta Darsena di Città di Ravenna, un’ex area industriale di 136 ettari collocata a ridosso del centro storico della città, ma priva di collegamenti diretti con questo da cui si discosta nettamente per caratteristiche e funzioni. Nel corso del laboratorio si sono condotte analisi in maniera approfondita rispetto alle caratteristiche dello stato di fatto e dei bisogni principali del territorio, non solo facendo riferimento agli stessi strumenti urbanistici, ma anche avvalendosi dell’incontro con professionisti, tecnici e docenti. La conoscenza dell’area così raggiunta ci ha permesso di redigere, a conclusione del laboratorio, una serie di linee guida generali da cui nasce il masterplan. Su questo si basa la riqualificazione urbana dell’intera area da cui deriva la peculiarità della nuova Darsena ovvero la coesistenza di due rive dalle caratteristiche opposte e allo stesso tempo complementari. A nord trova spazio la “riva naturale” contraddistinta dalla prevalenza di spazi verdi di diversa natura; questa riva si pone in stretta relazione con il verde agricolo collocato nelle immediate vicinanze della Darsena e fortemente segnato dalla centuriazione romana. La riva sud, la “riva urbana”, è invece caratterizzata dalla prevalenza del costruito che trova un diretto confronto con il tessuto urbano preesistente collocato sia all’interno dell’area sia lungo il limite sud della stessa. Grande importanza per la riqualificazione del Comparto Darsena è stata data al mantenimento degli edifici di archeologia industriale ai quali viene dato ruolo centrale attraverso le nuove funzioni che vengono loro affidate. Altro aspetto fondamentale per la riuscita della riqualificazione della Darsena e allo stesso tempo valoreaggiunto per l’intero territorio comunale, nonché argomento centrale della presente tesi, è il tema dell’housing sociale. A seguito di analisi, studi sulle politiche abitative attualmente vigenti a livello regionale e comunale e indagini sui bisogni radicati nel territorio, si è redatto un masterplan da cui nasce un progetto per un quartiere con housing sociale situato all’interno del comparto CMC. Il progetto nasce dalle riflessioni condotte sull’argomento, mette al centro l’idea della mixité e si fonda sulla forma urbana dell’isolato aperto.
Resumo:
Questo lavoro ha l’obbiettivo di valutare i risultati ottenuti su campioni stratificati sabbia/argilla attraverso l’applicazione della risonanza magnetica nucleare e di confrontare la risposta ottenuta tramite uno strumento di misura di laboratorio con quella di una sonda geofisica normalmente utilizzata per le analisi in pozzo. Tale lavoro si è reso necessario per comprendere le cause per cui la sonda CMR-Tool realizzata da Schlumberger non sia in grado di mettere in evidenza la stratificazione sabbia/argilla che caratterizza il bacino sedimentario dell’Adriatico in cui è presente un importante bacino di coltivazione di gas naturale. La tipica risposta NMR su una formazione stratificata sabbia/argilla è costituita da una distribuzione bimodale dei tempi di rilassamento che la sonda suddetta, nel caso specifico, non è in grado di produrre. Pertanto, per conoscere le cause per cui tale bimodalità della distribuzione non si presenti, è stato necessario confrontare i risultati derivanti dalla sonda CMR-Tool e quelli ottenuti con un rilassometro a basso campo (0,2T) presente nei laboratori LAGIRN della Facoltà di Ingegneria di Bologna. Le misure sono state eseguite su diversi campioni, stratificati e non, realizzati ad hoc con conformazioni diverse per i due strumenti. Si sono inoltre eseguite misure su 4 sabbie a diversa granulometria, per valutare l’andamento dei tempi di rilassamento in funzione della dimensione dei grani. A tal fine, il lavoro di tesi si struttura in cinque capitoli principali. Nei primi due capitoli si sono discusse in breve le metodologie e le tecniche di valutazione delle georisorse fluide e si sono introdotti i principi fisici della risonanza magnetica nucleare ed i meccanismi che regolano tale fenomeno nei mezzi porosi. Nel terzo e quarto capitolo sono descritte le applicazioni petrofisiche, le tecniche e le metodologie di indagine comunemente usate allo scopo di ricavare alcune grandezze fisiche di interesse e gli strumenti adoperati per ottenere le misure geofisiche in pozzo. Nell’ultimo capitolo sono invece esposti, in maniera completa e schematica, le prove sperimentali eseguite sia presso il laboratorio LAGIRN dell’Università di Bologna e presso quello Schlumberger di Pescara. Nella sua impostazione, il lavoro è stato sviluppato per essere studiato e compreso in maniera chiara, cercando di rendere la lettura la più semplice possibile, in relazione con la complessità caratteristica del fenomeno NMR. I risultati ottenuti hanno una valenza importante e di estrema attualità nell’ambito della valutazione delle georisorse fluide ed arricchiscono ancor di più le conoscenze riguardanti le applicazioni delle tecniche a risonanza magnetica nucleare sui mezzi porosi.
Resumo:
Negli ultimi anni si sente sempre più spesso parlare di cloud computing. L'idea di fondo di questo concetto è quella di pagare per il solo effettivo utilizzo di un servizio, disponibile sulla rete, avendo a disposizione la possibilità di poter variare le proprie risorse utilizzabili a seconda delle necessità, che potrebbero essere, per esempio, applicazioni standard oppure spazi di storage per i dati. Quando cominciò a diffondersi l'utilizzo del Web, la rete Internet veniva raffigurata come una nuvola (cloud) in modo tale che si rendesse l'idea di un'entità esterna rispetto alla nostra casa o al nostro posto di lavoro, un qualcosa cioè al di fuori dei luoghi abituali in cui vengono utilizzati i PC. Tale rappresentazione diventa ora utile per poter spiegare il concetto di cloud computing. Infatti, grazie a questa nuova tecnologia, dati e programmi normalmente presenti nei nostri computer potranno ora trovarsi sul cloud. Molti reparti IT sono costretti a dedicare una parte significativa del loro tempo a progetti di implementazione, manutenzione e upgrade che spesso non danno un vero valore per l'azienda. I team di sviluppo hanno cominciato quindi a rivolgersi a questa nuova tecnologia emergente per poter minimizzare il tempo dedicato ad attività a basso valore aggiunto per potersi concentrare su quelle attività strategiche che possono fare la differenza per un'azienda. Infatti un'infrastruttura come quella cloud computing promette risparmi nei costi amministrativi che raggiungono addirittura il 50% rispetto ad un software standard di tipo client/server. Questa nuova tecnologia sta dando inizio ad un cambiamento epocale nel mondo dello sviluppo delle applicazioni. Il passaggio che si sta effettuando verso le nuove soluzioni cloud computing consente infatti di creare applicazioni solide in tempi decisamente più brevi e con costi assai inferiori, evitando inoltre tutte le seccature associate a server, soluzioni software singole, aggiornamenti, senza contare il personale necessario a gestire tutto questo. L'obiettivo di questa tesi è quello di mostrare una panoramica della progettazione e dello sviluppo di applicazioni Web nel cloud computing, analizzandone pregi e difetti in relazione alle soluzioni software attuali. Nel primo capitolo viene mostrato un quadro generale in riferimento al cloud, mettendo in luce le sue caratteristiche fondamentali, esaminando la sua architettura e valutando vantaggi e svantaggi di tale piattaforma. Nel secondo capitolo viene presentata la nuova metodologia di progettazione nel cloud, operando prima di tutto un confronto con lo sviluppo dei software standard e analizzando poi l'impatto che il cloud computing opera sulla progettazione. Nel terzo capitolo si entra nel merito della progettazione e sviluppo di applicazioni SaaS, specificandone le caratteristiche comuni ed elencando le piattaforme di rilievo allo stato dell'arte. Si entrerà inoltre nel merito della piattaforma Windows Azure. Nel quarto capitolo viene analizzato nel particolare lo sviluppo di applicazioni SaaS Multi-Tenant, specificando livelli e caratteristiche, fino a spiegare le architetture metadata-driven. Nel quinto capitolo viene operato un confronto tra due possibili approcci di sviluppo di un software cloud, analizzando nello specifico le loro differenze a livello di requisiti non funzionali. Nel sesto capitolo, infine, viene effettuata una panoramica dei costi di progettazione di un'applicazione cloud.
Resumo:
Il fenomeno del collegamento contrattuale prevede la presenza di due o più contratti, diversi e distinti, che, pur caratterizzati dagli elementi e dalla disciplina propri di ognuno, risultano coordinati teleologicamente da un nesso di reciproca dipendenza, in modo che le vicende dell’uno si trasmettono all’altro, influenzandone la validità e l’efficacia. Tale nozione è il frutto dell’elaborazione della dottrina e della giurisprudenza, poiché la disciplina positiva difetta di previsioni recanti la definizione di operazioni in cui si ricorra all’impiego di più contratti in vista di uno scopo economico unitario. Fra le molteplici classificazioni realizzate in relazione a tale strumento, la tipologia che è oggetto di analisi nel presente lavoro è espressione dell’autonomia contrattuale dei contraenti che istituiscono fra i negozi un nesso bilaterale, funzionale e volontario. I presupposti del fenomeno de quo sono, allora, rappresentati dalla necessaria intenzione delle parti di attuare il collegamento, del vincolo che viene creato in concreto e, soprattutto, dal fine pratico unitario ed ulteriore, che esse intendono perseguire coordinando i vari atti. Da qui, l’inquadramento di siffatta figura di collegamento nel fenomeno dell’atipicità contrattuale, frutto dell’attività creativa dei privati di autoregolamentazione dei propri interessi. Dottrina e giurisprudenza, in particolare, reputano il collegamento un meccanismo che agisce sul piano degli effetti dei contratti. Infatti, ogni negozio coinvolto, pur conservando una causa autonoma, è finalizzato ad un unico regolamento di interessi, di talché le vicende che investono uno dei negozi possono ripercuotersi sull’altro (che in sé considerato è immune da vizi) e, pertanto, tutti i contratti simul stabunt simul cadent. In definitiva, così opinando, le patologie che riguardano un atto finiscono per condizionare non solo l’esecuzione, ma anche la validità dell’altro. Successivamente, l’indagine si incentra sull’esegesi dei rari interventi normativi, quasi esclusivamente ascrivibili alla legislazione speciale, che trattano del meccanismo de quo e che si pongono nel solco di quanto affermato dagli interpreti. Muovendo, poi, dal presupposto che l’ordinamento riconosce ai contraenti il potere di dar vita ad autodeterminazioni strutturalmente semplici ovvero come in tal caso più articolate, si cerca di dimostrare che in tali fattispecie l’apprezzamento non va condotto sul singolo contratto, bensì sull’operazione economica unitariamente considerata, come risultante dal collegamento fra più contratti. Infatti, una volta accertata l’interdipendenza funzionale delle diverse prestazioni, l’analisi su di esse assume un rilievo diverso se è compiuta per valutare l’assetto complessivo dell’intera operazione giuridico-economica posta in essere dalle parti: solo a fronte di una valutazione globale dei diritti e degli obblighi, anche in termini economici, si può appurare la reale portata giuridico-economica dell’affare. In forza di tali premesse può, quindi, procedersi ad un compiuto approfondimento del possibile ruolo svolto dalle clausole generali di buona fede ed equilibrio, quali strumenti di garanzia della giustizia negli scambi. Ne consegue l’abbandono di una prospettiva atomistica e, tenendo conto dell’unicità degli interessi perseguiti che vanno oltre le cause proprie dei singoli contratti collegati, si tenta di superare l’assunto per il quale il difetto che inficia uno dei contratti comporti l’automatica caducazione dell’altro. In una visione complessiva dell’operazione, la verifica attinente all’equilibrio tra i singoli atti nei quali essa si svolge ed alla sua possibile alterazione a causa di circostanze sopravvenute o originarie potrebbe sovvertire le certezze interpretative sotto il profilo della disciplina del collegamento, degli effetti dello stesso e delle patologie.
Resumo:
La misura della luminosità è un obiettivo importante per tutta la fisica del modello standard e per la scoperta di nuova fisica, poiché è legata alla sezione d'urto (σ) e al rate di produzione (R) di un determinato processo dalla relazione L = R*σ. Nell'eserimento ATLAS a LHC è installato un monitor di luminosità dedicato chiamato LUCID (Luminosity measurements Using Cherenkov Integrating Detector). Grazie ai dati acquisiti durante il 2010 la valutazione off-line delle performances del LUCID e l'implementazione di controlli on-line sulla qualità dei dati raccolti è stata possibile. I dati reali sono stati confrontati con i dati Monte Carlo e le simulazioni sono state opportunamente aggiustate per ottimizzare l'accordo tra i due. La calibrazione della luminosità relativa che permette di ottenere una valutazione della luminosità assoluta è stata possibile grazie ai cosiddetti Van der Meer scan, grazie ai quale è stata ottenuta una precisione dell'11%. L'analisi della fisica del decadimento della Z è in tuttora in corso per ottenere tramite il rate a cui avviene il processo una normalizzazione della luminosità con una precisione migliore del 5%.
Resumo:
Il lavoro svolto durante il dottorato di ricerca ha permesso lo sviluppo e la verifica della attendibilità di marcatori molecolari neutrali (loci microsatelliti) specifici per Aristeus antennatus. Tali marcatori sono stati poi utilizzati per studiare la struttura genetica di popolazione della specie del Mediterraneo occidentale e i risultati ottenuti sono stati confrontati con quelli di un progetto di ricerca parallelo su Aristeaomorpha foliacea, analizzando differenze ed analogie fra le due specie. I risultati delle analisi su Aristeus antennatus hanno evidenziato una completa assenza di struttura di popolazione e come i due sessi contribuiscano in modo diverso al flusso genico. La specie infatti presenta un sex-ratio a favore dei maschi oltre gli 800m, mentre tale rappoorto è a favore delle femmine in strati più superficiali, dove sono probabilmente soggette a condizioni oceanografiche più dispersive. Tramite test genetici appropriati è stato possibile valutare indirettamente il grado di dospersione dei sessi dimostrando che nell'area analizzati i maschi erano rappresentati maggiormente da individui stanziali, mentre gli individui di sesso femminile erano migranti. Le femmine appaiono pertanto giocare un ruolo preminente rispetto ai maschi nel determinare l'entità del flusso genico. Il confronto dei risultati ottenuti in Aristeus antennatus con quelli di Aristaeomorpha foliacea ha evidenziato la relazione fra alta capacità dispersiva, sia allo stato larvale che adulto, e completo rimescolamento genetico nei gamberi aristeidi nel Mediterraneo occidentale anche se in quest'ultima specie non ci sono evidenze di dispersione genetica mediata dal sesso. E' pertanto di forte interesse (dato anche il valore economico di questi organismi) come una struttura di popolazione qualitativamente e quantitavamente comporabile venga raggiunta con dinamiche di popolazione molto diverse.
Resumo:
NGAL è considerato dalla comunità scientifica un marcatore di danno renale sia di tipo ischemico che tossico. In questo studio è stato effettuato un follow-up ad un mese di una popolazione sottoposta a trapianto di rene, sono state analizzate la fase post-operatoria e l’immediato periodo di stabilizzazione del trapianto. E' stato osservato l’andamento di NGAL in relazione alle principali variabili incidenti.
Resumo:
The present thesis is divided into two main research areas: Classical Cosmology and (Loop) Quantum Gravity. The first part concerns cosmological models with one phantom and one scalar field, that provide the `super-accelerated' scenario not excluded by observations, thus exploring alternatives to the standard LambdaCDM scenario. The second part concerns the spinfoam approach to (Loop) Quantum Gravity, which is an attempt to provide a `sum-over-histories' formulation of gravitational quantum transition amplitudes. The research here presented focuses on the face amplitude of a generic spinfoam model for Quantum Gravity.