964 resultados para parchi divertimento teoria dei grafi analisi combinatoria
Resumo:
Il tema oggetto della presente tesi di dottorato trae spunto dall'analisi dell'art. 2468 c.c. nel quale può dirsi contenuto il nucleo fondamentale della disciplina della partecipazione sociale. In primo luogo vi è un'analisi comparata dell'istituto in esame con quelli previsti negli altri paesi europei. Dopo una breve analisi di diritto comparato ci si è concentrati sulla legislazione italiana ed, in particolare, l'elaborato cerca di dare una risposta ai seguenti interrogativi: a) quali sono i “particolari diritti” ex art. 2468 c.c.? b) si può parlare di “categorie speciali di partecipazioni”? Con riferimento al primo interrogativo va considerato che il modello legale prevede che i diritti particolari attribuibili ai soci riguardano l’amministrazione della società o la distribuzione degli utili. Tale disciplina sussiste quando l’atto costitutivo attribuisce i particolari diritti senza disporre nulla sulla loro trasferibilità, modificabilità ed inerenza alla partecipazione sociale piuttosto che alla persona del socio. Ci si è chiesti quali siano i confini delle due categorie espressamente previste dall’art. 2468, 3 c.c. e se tale previsione sia tassativa piuttosto che esemplificativa, aprendosi quindi la strada alla libera determinabilità dei diritti sociali, alla stregua di quanto sancisce l’art. 2348, 2 c.c., in merito alle azioni “speciali”. Si giunge così alla conclusione che la previsione sia esemplificativa e che anche nelle s.r.l. le parti sono libere di attribuire ai soci diritti sociali diversi da quelli derivanti dal modello legale, nei limiti derivanti da specifiche norme imperative. Nel secondo capitolo sono stati approfonditi i principi dettati dall’art. 2468 c.c., la natura di tali "particolari diritti" ed i loro profili di qualificazione nonché le loro esplicazioni contenutistiche Nel terzo capitolo si è analizzato cosa accade ai "particolari diritti" in caso di vicende modificative. Nel quarto capitolo poi è stato affrontata la controversa questione relativa alla possibilità di creare delle “categorie di quote”.
Resumo:
La tesi intende offrire una disamina approfondita dell’istituto del giudicato implicito, di rito e di merito, sotto il duplice profilo dei recenti orientamenti della giurisprudenza di legittimità, da un lato, e dei rilievi critici della dottrina, dall’altro. Il candidato si sofferma, preliminarmente, sulla ratio delle recenti sentenze delle sezioni unite della Cassazione, le quali promuovono un’interpretazione restrittiva e residuale dell’art. 37 c.p.c. alla luce del principio costituzionale della ragionevole durata. Si pone, quindi, il problema del rapporto tra il giudicato implicito sulla giurisdizione e i principi processuali costituzionali, dedicando ampio spazio e rilievo alle riflessioni critiche della dottrina sulla teoria del giudicato implicito. Il candidato passa così all’esame del giudicato implicito sulle questioni preliminari di merito, dopo aver trattato il tema dell’ordine logico-giuridico delle questioni e della struttura della decisione. Nel corso di questa analisi, ravvisa nel principio della ragione più liquida la negazione dell’idea di giudicato implicito, sviluppando così alcune riflessioni critiche sul giudicato di merito implicito. A questo punto, il piano dell’indagine si incentra su un aspetto specifico dell’istituto in esame, particolarmente importante sotto il profilo dei risvolti applicativi: le implicazioni del giudicato implicito in sede di impugnazione. Segue, quindi, la parte conclusiva della tesi dedicata ai profili di criticità del recente orientamento delle sezioni unite, con particolare riguardo all’onere di appello incidentale della parte vittoriosa nel merito. La tesi mette in luce come la struttura degli istituti venga in qualche misura piegata ad esigenze di deflazione, che andrebbero però perseguite con altri e più coerenti strumenti.
Resumo:
La Piana di foce del Garigliano (al confine tra Lazio e Campania) è caratterizzata, fino ad epoche recenti, dalla presenza di aree palustri e umide. Lo studio in corso cerca di ricostruire l’evoluzione dell’ambiente costiero mettendolo in relazione alla presenza dell’uomo, alla gestione del territorio, alle vicende storiche e alle variazioni climatiche utilizzando molteplici metodologie tipiche della geoarcheologia. Si tratta di un approccio multidisciplinare che cerca di mettere insieme analisi tipiche dell’archeologia, della topografia antica, della geomorfologia, della geologia e della paleobotanica. Fino all’età del Ferro l’unica traccia di popolamento viene da Monte d’Argento, uno sperone roccioso isolato lungo la costa, posto al limite occidentale di un ambiente sottostante che sembra una palude chiusa e isolata da apporti sedimentari esterni. Con il passaggio all’età del ferro si verifica un mutamento ambientale con la fine della grande palude e la formazione di una piccola laguna parzialmente comunicante con il mare. L’arrivo dei romani alla fine del III secolo a.C. segna la scomparsa dei grandi centri degli Aurunci e la deduzione di tre colonie (Sessa Aurunca, Sinuessa, Minturno). Le attività di sistemazione territoriale non riguardarono però le aree umide costiere, che non vennero bonificate o utilizzate per scopi agricoli, ma mantennero la loro natura di piccoli laghi costieri. Quest’epoca è dunque caratterizzata da una diffusione capillare di insediamenti, basati su piccole fattorie o installazioni legate allo sfruttamento agricolo. Poche sono le aree archeologiche che hanno restituito materiali successivi al II-III secolo d.C. La città resta comunque abitata fino al VI-VII secolo, quando l’instabilità politica e l’impaludamento dovettero rendere la zona non troppo sicura favorendo uno spostamento verso le zone collinari. Un insediamento medievale è attestato solo a Monte d’Argento e una frequentazione saracena dell’inizio del IX secolo è riportata dalle fonti letterarie, ma non vi è ancora nessuna documentazione archeologica.
Resumo:
Il modello gravitazionale e' ormai diventato un "cavallo da battaglia" in economia internazionle ed e' comunemente utilizzato nella determinazione dei flussi commerciali. Recentemente, molti studi hanno mostrato l'importanza della dipendenza spaziale, che va' a considerare quegli effetti dovuti al cosiddetto "third country". Intervengono a questo scopo la modellistica e le tecniche di stima di Econometria Spaziale. Verra' fatto uso di tali tecniche allo scopo di stimare con un modello gravitazionale spaziale il commercio internazionale tra paesi dell'OCSE per un panel di 22 anni. L'obiettivo e' quindi duplice: da un lato, si andra' ad applicare le piu' moderne tecniche di Econometria Spaziale, in un campo in cui tali contributi scarseggiano. Dall'altro lato,verra' fornita una interpretazione del comportamento del commercio internazionale tra paesi dell'OCSE, approfondendo gli aspetti relativi all'effetto del"third country" e del fenomeno migratorio. Inoltre , viene proposta un'analisi che ha lo scopo di validare l'ipotesi di omissione della distanza dal modello gravitazione strutturale.
Resumo:
Nell’attuale contesto di aumento degli impatti antropici e di “Global Climate Change” emerge la necessità di comprenderne i possibili effetti di questi sugli ecosistemi inquadrati come fruitori di servizi e funzioni imprescindibili sui quali si basano intere tessiture economiche e sociali. Lo studio previsionale degli ecosistemi si scontra con l’elevata complessità di questi ultimi in luogo di una altrettanto elevata scarsità di osservazioni integrate. L’approccio modellistico appare il più adatto all’analisi delle dinamiche complesse degli ecosistemi ed alla contestualizzazione complessa di risultati sperimentali ed osservazioni empiriche. L’approccio riduzionista-deterministico solitamente utilizzato nell’implementazione di modelli non si è però sin qui dimostrato in grado di raggiungere i livelli di complessità più elevati all’interno della struttura eco sistemica. La componente che meglio descrive la complessità ecosistemica è quella biotica in virtù dell’elevata dipendenza dalle altre componenti e dalle loro interazioni. In questo lavoro di tesi viene proposto un approccio modellistico stocastico basato sull’utilizzo di un compilatore naive Bayes operante in ambiente fuzzy. L’utilizzo congiunto di logica fuzzy e approccio naive Bayes è utile al processa mento del livello di complessità e conseguentemente incertezza insito negli ecosistemi. I modelli generativi ottenuti, chiamati Fuzzy Bayesian Ecological Model(FBEM) appaiono in grado di modellizare gli stati eco sistemici in funzione dell’ elevato numero di interazioni che entrano in gioco nella determinazione degli stati degli ecosistemi. Modelli FBEM sono stati utilizzati per comprendere il rischio ambientale per habitat intertidale di spiagge sabbiose in caso di eventi di flooding costiero previsti nell’arco di tempo 2010-2100. L’applicazione è stata effettuata all’interno del progetto EU “Theseus” per il quale i modelli FBEM sono stati utilizzati anche per una simulazione a lungo termine e per il calcolo dei tipping point specifici dell’habitat secondo eventi di flooding di diversa intensità.
Resumo:
Numerosi incidenti verificatisi negli ultimi dieci anni in campo chimico e petrolchimico sono dovuti all’innesco di sostanze infiammabili rilasciate accidentalmente: per questo motivo gli scenari incidentali legati ad incendi esterni rivestono oggigiorno un interesse crescente, in particolar modo nell’industria di processo, in quanto possono essere causa di ingenti danni sia ai lavoratori ed alla popolazione, sia alle strutture. Gli incendi, come mostrato da alcuni studi, sono uno dei più frequenti scenari incidentali nell’industria di processo, secondi solo alla perdita di contenimento di sostanze pericolose. Questi eventi primari possono, a loro volta, determinare eventi secondari, con conseguenze catastrofiche dovute alla propagazione delle fiamme ad apparecchiature e tubazioni non direttamente coinvolte nell’incidente primario; tale fenomeno prende il nome di effetto domino. La necessità di ridurre le probabilità di effetto domino rende la mitigazione delle conseguenze un aspetto fondamentale nella progettazione dell’impianto. A questo scopo si impiegano i materiali per la protezione passiva da fuoco (Passive Fire Protection o PFP); essi sono sistemi isolanti impiegati per proteggere efficacemente apparecchiature e tubazioni industriali da scenari di incendio esterno. L’applicazione dei materiali per PFP limita l’incremento di temperatura degli elementi protetti; questo scopo viene raggiunto tramite l’impiego di differenti tipologie di prodotti e materiali. Tuttavia l’applicazione dei suddetti materiali fireproofing non può prescindere da una caratterizzazione delle proprietà termiche, in particolar modo della conducibilità termica, in condizioni che simulino l’esposizione a fuoco. Nel presente elaborato di tesi si è scelto di analizzare tre materiali coibenti, tutti appartenenti, pur con diversità di composizione e struttura, alla classe dei materiali inorganici fibrosi: Fibercon Silica Needled Blanket 1200, Pyrogel®XT, Rockwool Marine Firebatt 100. I tre materiali sono costituiti da una fase solida inorganica, differente per ciascuno di essi e da una fase gassosa, preponderante come frazione volumetrica. I materiali inorganici fibrosi rivestono una notevole importanza rispetto ad altri materiali fireproofing in quanto possono resistere a temperature estremamente elevate, talvolta superiori a 1000 °C, senza particolari modifiche chimico-fisiche. Questo vantaggio, unito alla versatilità ed alla semplicità di applicazione, li rende leader a livello europeo nei materiali isolanti, con una fetta di mercato pari circa al 60%. Nonostante l’impiego dei suddetti materiali sia ormai una realtà consolidata nell’industria di processo, allo stato attuale sono disponibili pochi studi relativi alle loro proprietà termiche, in particolare in condizioni di fuoco. L’analisi sperimentale svolta ha consentito di identificare e modellare il comportamento termico di tali materiali in caso di esposizione a fuoco, impiegando nei test, a pressione atmosferica, un campo di temperatura compreso tra 20°C e 700°C, di interesse per applicazioni fireproofing. Per lo studio delle caratteristiche e la valutazione delle proprietà termiche dei tre materiali è stata impiegata principalmente la tecnica Transient Plane Source (TPS), che ha consentito la determinazione non solo della conducibilità termica, ma anche della diffusività termica e della capacità termica volumetrica, seppure con un grado di accuratezza inferiore. I test sono stati svolti su scala di laboratorio, creando un set-up sperimentale che integrasse opportunamente lo strumento Hot Disk Thermal Constants Analyzer TPS 1500 con una fornace a camera ed un sistema di acquisizione dati. Sono state realizzate alcune prove preliminari a temperatura ambiente sui tre materiali in esame, per individuare i parametri operativi (dimensione sensori, tempi di acquisizione, etc.) maggiormente idonei alla misura della conducibilità termica. Le informazioni acquisite sono state utilizzate per lo sviluppo di adeguati protocolli sperimentali e per effettuare prove ad alta temperatura. Ulteriori significative informazioni circa la morfologia, la porosità e la densità dei tre materiali sono state ottenute attraverso stereo-microscopia e picnometria a liquido. La porosità, o grado di vuoto, assume nei tre materiali un ruolo fondamentale, in quanto presenta valori compresi tra 85% e 95%, mentre la frazione solida ne costituisce la restante parte. Inoltre i risultati sperimentali hanno consentito di valutare, con prove a temperatura ambiente, l’isotropia rispetto alla trasmissione del calore per la classe di materiali coibenti analizzati, l’effetto della temperatura e della variazione del grado di vuoto (nel caso di materiali che durante l’applicazione possano essere soggetti a fenomeni di “schiacciamento”, ovvero riduzione del grado di vuoto) sulla conducibilità termica effettiva dei tre materiali analizzati. Analoghi risultati, seppure con grado di accuratezza lievemente inferiore, sono stati ottenuti per la diffusività termica e la capacità termica volumetrica. Poiché è nota la densità apparente di ciascun materiale si è scelto di calcolarne anche il calore specifico in funzione della temperatura, di cui si è proposto una correlazione empirica. I risultati sperimentali, concordi per i tre materiali in esame, hanno mostrato un incremento della conducibilità termica con la temperatura, da valori largamente inferiori a 0,1 W/(m∙K) a temperatura ambiente, fino a 0,3÷0,4 W/(m∙K) a 700°C. La sostanziale similitudine delle proprietà termiche tra i tre materiali, appartenenti alla medesima categoria di materiali isolanti, è stata riscontrata anche per la diffusività termica, la capacità termica volumetrica ed il calore specifico. Queste considerazioni hanno giustificato l’applicazione a tutti i tre materiali in esame dei medesimi modelli per descrivere la conducibilità termica effettiva, ritenuta, tra le proprietà fisiche determinate sperimentalmente, la più significativa nel caso di esposizione a fuoco. Lo sviluppo di un modello per la conducibilità termica effettiva si è reso necessario in quanto i risultati sperimentali ottenuti tramite la tecnica Transient Plane Source non forniscono alcuna informazione sui contributi offerti da ciascun meccanismo di scambio termico al termine complessivo e, pertanto, non consentono una facile generalizzazione della proprietà in funzione delle condizioni di impiego del materiale. La conducibilità termica dei materiali coibenti fibrosi e in generale dei materiali bi-fasici tiene infatti conto in un unico valore di vari contributi dipendenti dai diversi meccanismi di scambio termico presenti: conduzione nella fase gassosa e nel solido, irraggiamento nelle superfici delle cavità del solido e, talvolta, convezione; inoltre essa dipende fortemente dalla temperatura e dalla porosità. Pertanto, a partire dal confronto con i risultati sperimentali, tra cui densità e grado di vuoto, l’obiettivo centrale della seconda fase del progetto è stata la scelta, tra i numerosi modelli a disposizione in letteratura per materiali bi-fasici, di cui si è presentata una rassegna, dei più adatti a descrivere la conducibilità termica effettiva nei materiali in esame e nell’intervallo di temperatura di interesse, fornendo al contempo un significato fisico ai contributi apportati al termine complessivo. Inizialmente la scelta è ricaduta su cinque modelli, chiamati comunemente “modelli strutturali di base” (Serie, Parallelo, Maxwell-Eucken 1, Maxwell-Eucken 2, Effective Medium Theory) [1] per la loro semplicità e versatilità di applicazione. Tali modelli, puramente teorici, hanno mostrato al raffronto con i risultati sperimentali numerosi limiti, in particolar modo nella previsione del termine di irraggiamento, ovvero per temperature superiori a 400°C. Pertanto si è deciso di adottare un approccio semi-empirico: è stato applicato il modello di Krischer [2], ovvero una media pesata su un parametro empirico (f, da determinare) dei modelli Serie e Parallelo, precedentemente applicati. Anch’esso si è rivelato non idoneo alla descrizione dei materiali isolanti fibrosi in esame, per ragioni analoghe. Cercando di impiegare modelli caratterizzati da forte fondamento fisico e grado di complessità limitato, la scelta è caduta sui due recenti modelli, proposti rispettivamente da Karamanos, Papadopoulos, Anastasellos [3] e Daryabeigi, Cunnington, Knutson [4] [5]. Entrambi presentavano il vantaggio di essere stati utilizzati con successo per materiali isolanti fibrosi. Inizialmente i due modelli sono stati applicati con i valori dei parametri e le correlazioni proposte dagli Autori. Visti gli incoraggianti risultati, a questo primo approccio è seguita l’ottimizzazione dei parametri e l’applicazione di correlazioni maggiormente idonee ai materiali in esame, che ha mostrato l’efficacia dei modelli proposti da Karamanos, Papadopoulos, Anastasellos e Daryabeigi, Cunnington, Knutson per i tre materiali analizzati. Pertanto l’obiettivo finale del lavoro è stato raggiunto con successo in quanto sono stati applicati modelli di conducibilità termica con forte fondamento fisico e grado di complessità limitato che, con buon accordo ai risultati sperimentali ottenuti, consentono di ricavare equazioni predittive per la stima del comportamento, durante l’esposizione a fuoco, dei materiali fireproofing in esame. Bologna, Luglio 2013 Riferimenti bibliografici: [1] Wang J., Carson J.K., North M.F., Cleland D.J., A new approach to modelling the effective thermal conductivity of heterogeneous materials. International Journal of Heat and Mass Transfer 49 (2006) 3075-3083. [2] Krischer O., Die wissenschaftlichen Grundlagen der Trocknungstechnik (The Scientific Fundamentals of Drying Technology), Springer-Verlag, Berlino, 1963. [3] Karamanos A., Papadopoulos A., Anastasellos D., Heat Transfer phenomena in fibrous insulating materials. (2004) Geolan.gr http://www.geolan.gr/sappek/docs/publications/article_6.pdf Ultimo accesso: 1 Luglio 2013. [4] Daryabeigi K., Cunnington G. R., and Knutson J. R., Combined Heat Transfer in High-Porosity High-Temperature Fibrous Insulation: Theory and Experimental Validation. Journal of Thermophysics and Heat Transfer 25 (2011) 536-546. [5] Daryabeigi K., Cunnington G.R., Knutson J.R., Heat Transfer Modeling for Rigid High-Temperature Fibrous Insulation. Journal of Thermophysics and Heat Transfer. AIAA Early Edition/1 (2012).
Resumo:
Il continuo sviluppo dei sistemi di iniezione, rispondente ad aumento di performance unito alla riduzione delle emissioni inquinanti, evidenzia sempre più la necessità di studiare i fenomeni cavitanti che si instaurano all’interno degli iniettori. La cavitazione, infatti, se particolarmente intensa e prolungata nel tempo porta all’erosione del materiale con la conseguente rottura dell’organo elettromeccanico. Attraverso un confronto tra le diverse tipologie di fori iniettore, si è messa a punto una metodologia di analisi per prevedere quali siano le zone dell’iniettore a maggior rischio di danneggiamento per erosione da cavitazione e quale sia l’influenza della geometria su queste. Lo studio è stato effettuato con il software commerciale FLUENT, codice di simulazione fluidodinamica di ANSYS.
Resumo:
In questa tesi viene presentata un’analisi dettagliata sulla struttura di profili recettori di neuroni coinvolti nell’elaborazione visiva, con particolare attenzione per le cellule appartenenti alla corteccia visiva primaria (V1). Dopo aver illustrato brevemente il percorso effettuato dall’informazione visiva, costituito da retina, nucleo genicolato laterale e V1, vengono descritte la struttura e le principali caratteristiche di profili recettori dei neuroni appartenenti ad ognuno di questi livelli di elaborazione. Per modellare i profili recettori di cellule corticali in V1 si è deciso di utilizzare filtri bidimensionali realizzati mediante funzioni di Gabor nel dominio spaziale. Questo modello ha, infatti, il grande vantaggio di possedere alcune tra le maggiori proprietà dei profili recettori di neuroni appartenenti a V1: struttura del profilo recettore nello spazio (x,y), selettività in orientazione e in frequenza spaziale, indipendenza dalla fase dello stimolo. Viene successivamente presentato il concetto di campo di associazione visivo, mediante il quale sono determinate le caratteristiche principali (posizione spaziale ed orientazione) che diversi oggetti devono possedere per essere percepiti non come unità singole, ma come un unico elemento. I campi di associazione possono essere modellati mediante l’utilizzo del sistema di equazioni differenziali proposto da Citti-Sarti, le cui soluzioni sono curve integrali adatte a ricostruire la struttura dei campi di associazione, come proposti da Field, Hayes ed Hess. Diverse ipotesi sono state presentate su come cellule appartenenti a V1 siano in grado di realizzare simili campi di associazione, ed in particolare, da dove queste possano prendere le informazioni necessarie per farlo. Una di queste è quella sostenuta dai dati di Bosking et al., secondo i quali le connessioni intracorticali più fitte sono quelle tra neuroni non adiacenti tra loro, i cui profili recettori sono co-orientati (con la stessa orientazione preferenziale) e co-assiali (disposti lungo un asse del campo visivo che corrisponde all’orientazione preferenziale). L’analisi effettuata in questa tesi ha come obbiettivo proprio quello di ottenere informazioni utili su come cellule corticali siano legate alla fenomenologia dei campi di associazione. Come già detto, un filtro di Gabor bidimensionale può essere considerato un buon modello per profili recettori di questo tipo di cellule e quindi è possibile definirlo in maniera astratta come l’unità fondamentale nel processo di elaborazione visiva. Per questo motivo viene effettuata un’analisi di cross-correlazione tra un filtro di Gabor con una determinata orientazione e una famiglia di filtri di Gabor aventi n orientazioni. I risultati ottenuti sono stati trattati utilizzando la tecnica di soppressione dei non massimi, in modo da estrarre per ogni punto dell’immagine l’orientazione per la quale si ottiene la risposta massima. Successivamente, dai dati è stato possibile calcolare delle curve integrali simili a quelle ottenute dal modello differenziale proposto da Citti-Sarti. I risultati ottenuti da questa analisi si sono rivelati utili per comprendere più nel dettaglio i processi di elaborazione dei neuroni corticali, ed in particolare, per capire in che modo le informazioni necessarie per la realizzazione di strutture complesse ed articolate come quelle dei campi di associazione, siano già contenute intrinsecamente all’interno di ogni cellula corticale, unità fondamentale dell’elaborazione visiva.
Resumo:
L’obiettivo di questo lavoro di tesi è di ottenere un’analisi climatica giornaliera ad alta risoluzione della precipitazione sul territorio del nord Italia realizzata con tecniche di controllo statistico, di analisi e di strumenti di descrizione dei risultati presentati nella recente letteratura. A tal fine, sono stati utilizzati i dati dell’Archivio ARCIS. In seguito alle fasi di controllo qualità, omogeneità e sincronicità i dati sono stati utilizzati per realizzare un’analisi giornaliera su grigliato regolare a 10 km di risoluzione utile alla rappresentazione della variabilità spazio-temporale della precipitazione sul Nord Italia per il periodo 1961-2005. I risultati di tale analisi mettono in evidenza dei valori medi di precipitazione annuale abbastanza intensi sulla parte centrale dell’arco Alpino, con massimi (oltre 2000 mm) sull’estremità orientale e sull’Appennino Ligure. Valori minimi (500 – 600 mm) sono osservati lungo le aree prospicienti il fiume Po, in Val d’Aosta ed in Alto Adige. La corrispondente analisi del trend temporale indica la presenza di lievi cali statisticamente significativi solo in aree limitate del territorio. In coerenza con questi risultati, la variazione nel tempo della precipitazione annuale mediata su tutto il territorio mette in evidenza un’intensa variabilità decennale, ma solo una lieve flessione lineare sull’intero periodo. Il numero annuo di giorni piovosi ed il 90° percentile della precipitazione giornaliera presentano invece trend lineari un po’ più pronunciati. In particolare, sul periodo considerato si nota un calo del numero di giorni piovosi su gran parte del territorio e solo su alcune aree del territorio un aumento dell’intensità del 90° percentile, sia a scala annuale che stagionale. Nell’ultima parte di questo lavoro è stato realizzato uno studio della relazione fra la forzante climatica e l’evoluzione della morfologia dell’Appennino Emiliano-Romagnolo. I risultati mostrano che a parità di quota, di pendenza e di litologia, la franosità è influenzata dalle precipitazioni.
Resumo:
Lo scopo del progetto triennale del dottorato di ricerca è lo studio delle alterazioni genetiche in un gruppo di pazienti affetti da micosi fungoide ed un gruppo di pazienti affetti da sindrome di Sezary. Dalle biopsie cutanee è stato estratto il DNA e analizzato, comparandolo con DNA sano di riferimento, utilizzando la tecnica array-CGH, allo scopo di identificare la presenza di geni potenzialmente implicati nel processo di oncogenesi. Questa analisi è stata eseguita, per ogni paziente, su biopsie effettuate ad una fase iniziale di malattia e ad una fase di progressione della stessa. Sugli stessi pazienti è stata inoltre eseguita un’analisi miRNA. Si ipotizza che il profilo d’espressione dei miRNA possa infatti dare informazioni utili per predire lo stato di malattia, il decorso clinico, la progressione tumorale e la riposta terapeutica. Questo lavoro è stato poi eseguito su biopsie effettuate in pazienti affetti da sindrome di Sezary che, quando non insorge primitivamente come tale, si può considerare una fase evolutiva della micosi fungoide. La valutazione delle alterazioni genetiche, ed in particolare la correlazione esistente tra duplicazione e delezione genetica e sovra/sottoespressione genetica, è stata possibile attraverso l’interpretazione e la comparazione dei dati ottenuti attraverso le tecniche array-CGH e miRNA. Sono stati comparati i risultati ottenuti per valutare quali fossero le alterazioni cromosomiche riscontrate nei diversi stadi di malattia. L’applicazione dell’array-CGH e della metodica di analisi mi-RNA si sono rivelate molto utili per l’identificazione delle diverse aberrazioni cromosomiche presenti nel genoma dei pazienti affetti da micosi fungoide e sindrome di Sezary, per valutare la prognosi del paziente e per cercare di migliorare o trovare nuove linee terapeutiche per il trattamento delle due patologie. Lo studio di questi profili può rappresentare quindi uno strumento di grande importanza nella classificazione e nella diagnosi dei tumori.
Resumo:
Nel 2011 si sono registrati in Italia 205.638 incidenti stradali con lesioni a persone. Il numero dei morti (entro il 30° giorno) è stato di 3.860, quello dei feriti ammonta a 292.019.Rispetto all’obiettivo fissato dall’Unione Europea nel Libro Bianco del 2001, che prevedeva la riduzione della mortalità del 50% entro il 2010, benché sia vicina a questo traguardo, l’Italia non ha ancora raggiunto tale livello (Figura I.1). Sulle strade urbane si sono verificati 157.023 incidenti, con 213.001 feriti e 1.744 morti. Sulle Autostrade gli incidenti sono stati 11.007, con 18.515 feriti e 338 decessi. Sulle altre strade extraurbane, ad esclusione delle Autostrade, si sono verificati 37.608 incidenti, con 65.503 feriti e 1.778 morti. L’indice di mortalità mostra che gli incidenti più gravi avvengono sulle strade extraurbane (escluse le autostrade), dove si registrano 4,7 decessi ogni 100 incidenti. Gli incidenti sulle strade urbane sono meno gravi, con 1,1 morti ogni 100 incidenti. Sulle Autostrade tale indice è pari a 3,1. L’indice di mortalità si mantiene superiore alla media giornaliera (1,9 decessi ogni 100 incidenti) per tutto l’arco di tempo che va dalle 21 alle 7 del mattino, raggiungendo il valore massimo intorno alle 5 del mattino (6,0 decessi ogni 100 incidenti). La domenica è il giorno nel quale si registra il livello più elevato dell’indice di mortalità (2,8 morti per 100 incidenti). In 7 casi su 10 (69,7%) le vittime sono i conducenti di veicoli, nel 15,3% i passeggeri trasportati e nel 15,1% i pedoni. La categoria di veicolo più coinvolta in incidente stradale è quella delle autovetture(66,1%), seguono motocicli (14,0%), i ciclomotori (5,4%) e le biciclette (4,5%).
Resumo:
Una delle tecnologie radio che negli ultimi anni ha subito il maggior sviluppo è quella dell’identificazione a radio frequenza (Radio Frequency Identification), utilizzata in un gran numero di ambiti quali la logistica, il tracciamento, l’autenticazione e i pagamenti elettronici. Tra le tecnologie specifiche legate all’RFID si ritrova la Near Field Communication (NFC). Questa è una tecnologia di trasmissione dati a corto raggio che rappresenta un’evoluzione dell’RFID. Una delle caratteristiche dell’NFC è quella di instaurare una comunicazione tra due dispositivi in maniera semplice e intuitiva. L’oggetto che instaura la comunicazione è il Reader, nell’ambito RFID è un dispositivo altamente specializzato, poiché può lavorare a diverse frequenze operative. L’elemento innovativo che ha consentito il successo dell’NFC è il fatto che questa tecnologia possa integrare il Reader in uno strumento di comunicazione di largo uso, ovvero lo smartphone. Questo permette di inizializzare lo scambio dati, sia esso di lettura di un circuito integrato passivo o una trasmissione peer-to-peer, a seguito del naturale gesto di avvicinare lo smartphone. Analisti ed esperti del settore sono convinti del successo dell’NFC, nonostante siano state smentite le attese che vedevano l’NFC integrato in oltre la metà dei cellulari entro il 2010. Tra le molteplici applicazioni NFC in questo elaborato ci si soffermerà in particolare sul cosiddetto Smart Poster. Questo utilizzo può essere molto efficace avendo una gamma di impiego molto vasta. Per l’immagazzinamento dei dati nei Tag o nelle Smart Card si è utilizzato un protocollo d’incapsulamento dati chiamato NDEF (NFC Data Exchange Format) trattato nel capitolo 3 di questa trattazione. Nella seconda parte dell’elaborato si è realizzata una sperimentazione per misurare le distanze di funzionamento di cellulari e Reader per PC. In questo ambito si è realizzato quello che si è definito lo Smart Brick, cioè un mattone che comunica con dispositivi NFC grazie all’installazione di un Tag al suo interno. Si parlerà della realizzazione e degli strumenti software/hardware che hanno permesso di realizzare e programmare questo ”mattone elettronico”.
Resumo:
Questo lavoro si occupa di studiare l’effetto delle rappresentazioni sociali della musica degli studenti universitari che diventeranno insegnanti di scuola dell’infanzia e in particolare i cambiamenti che intervengono durante il periodo di formazione universitaria sia italiana sia venezuelana. Obiettivo fondamentale è quindi realizzare un’analisi comparativa sulle seguenti tematiche: bambino musicale, competenze dell’insegnante e finalità dell’educazione musicale. Questo lavoro si è inserito all’interno del progetto “Il sapere musicale come rappresentazione sociale” (Addessi-Carugati 2010). L’ipotesi guida è che le concezioni implicite della musica funzionino come rappresentazioni sociali che influenzano le pratiche dell’insegnamento e dell’educazione musicale. Il primo capitolo, affronta i temi dei bambini, degli insegnanti e dell’educazione musicale nella scuola dell’infanzia in Italia e Venezuela. Nel secondo vengono presentati gli studi sui saperi musicali; la teoria delle rappresentazioni sociali (Moscovici 1981) e il progetto pilota realizzato presso l’Università di Bologna “Il sapere musicale come Rappresentazione Sociale”. Il capitolo successivo presenta l'analisi e l'interpretazione dell’indagine empirica effettuata su un gruppo di studenti dei corsi di formazione per insegnanti dell’Università di Mérida (Venezuela). Nel quarto capitolo si sviluppano riflessioni e discussioni riguardo i risultati dello studio comparativo; i piani e programmi di studio universitari e il profilo professionale musicale dell’insegnante. Le conclusioni finali illustrano come l’ipotesi iniziale sia effettivamente confermata: dall’analisi e interpretazione dei dati sembra che le concezioni implicite sui saperi musicali possedute dagli studenti influiscano sulla loro pratica professionale in qualità di futuri insegnanti. Si è anche osservato che le differenze incontrate sembrano essere dovute ai diversi tipi di variabili del contesto dove si trova l’insegnante di educazione musicale; e soprattutto ai significati espressi dai programmi di studi, dai contenuti didattici diversi, dai contesti sociali e culturali e dal curriculum universitario.
Resumo:
L’ultimo decennio ha visto un radicale cambiamento del mercato informatico, con la nascita di un numero sempre maggiore di applicazioni rivolte all’interazione tra utenti. In particolar modo, l’avvento dei social network ha incrementato notevolmente le possibilità di creare e condividere contenuti sul web, generando volumi di dati sempre maggiori, nell’ordine di petabyte e superiori. La gestione di tali quantità di dati ha portato alla nascita di soluzioni non relazionali appositamente progettate, dette NoSQL. Lo scopo di questo documento è quello di illustrare come i sistemi NoSQL, nello specifico caso di MongoDB, cerchino di sopperire alle difficoltà d’utilizzo dei database relazionali in un contesto largamente distribuito. Effettuata l'analisi delle principali funzionalità messe a disposizione da MongoDB, si illustreranno le caratteristiche di un prototipo di applicazione appositamente progettato che sfrutti una capacità peculiare di MongoDB quale la ricerca full-text. In ultima analisi si fornirà uno studio delle prestazioni di tale soluzione in un ambiente basato su cluster, evidenziandone il guadagno prestazionale.
Resumo:
Il lavoro di questa tesi è incentrato sulla crescita e lo studio delle proprietà strutturali di sistemi nanostrutturati di titanio e ossido di titanio, prodotti mediante la tecnica della condensazione in gas inerte. Lo studio è finalizzato in particolare ad ottenere un materiale idoneo per la produzione di idrogeno tramite la foto-elettrolisi. Nel primo capitolo viene descritto a livello teorico il processo di scissione dell’acqua all’interno di celle foto-elettrochimiche, in cui viene impiegato il TiO2 (titania) come foto-anodo. Nel secondo capitolo viene introdotta la tecnica di crescita, viene descritta la macchina utilizzata illustrandone vantaggi e limitazioni. Inoltre viene fornita una descrizione teorica del tipo di crescita che avviene all’interno della camera di evaporazione. Allo scopo di comprendere meglio questi processi, vengono riportati nel capitolo 3 alcuni studi, basati su principi primi, riguardanti la stabilità di fase e le trasformazioni di fase per i tre principali polimorfi del TiO2. Nel capitolo 4 sono illustrate le tecniche impiegate per l’indagine strutturale: diffrazione e assorbimento di raggi X con relativa analisi dati, microscopia elettronica a scansione. Prima di misurare l’attività fotocatalitica dei campioni di nanoparticelle di titania, è necessario condurre delle misure di fotocorrente in una cella foto-elettrochimica, i risultati di queste analisi di tipo funzionale sono presentati nel capitolo 5. Nel capitolo 6 sono riportate le conclusioni del lavoro di tesi.