908 resultados para analisi non lineari


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nel 2009 l'Italia attraversa la più grande crisi economica del secondo dopoguerra. Lo studio di ciò che accade, attraverso uno sguardo attento alle principali variabili congiunturali prodotte nel paese, è fondamentale per capire quali sono state le cause che hanno portato a questa situazione e per dare la possibilità  ai policy maker di limitarne gli effetti in futuro. Ma l'Italia non è un territorio dalle caratteristiche monolitiche, è un aggregato di parti molto diverse fra loro. Analizzando il territorio italiano come insieme delle sue parti, osserveremo le medesime condizioni economiche ripetersi in ogni territorio del paese? L'esperienza ci suggerisce di no. La tesi vuole evidenziare come e quanto la struttura caratteristica del tessuto produttivo regionale è responsabile anche della performance economica. La tesi è quindi caratterizzata da due parti. Da un lato si è cercato di analizzare quali siano le differenze nei cicli economici regionali, dall'altro, attraverso l'utilizzo di un sistema di valutazione "fuzzy", si è cercato di ricostruire la natura strutturale delle regioni, al fine di determinare quali siano le specializzazioni che ogni territorio è in grado di mettere in campo. La tesi si conclude con un'analisi comparativa degli indici di dissimilarità  tra cicli regionali e nazionale e i livelli sintetici di specializzazione, si è verificato che esiste una relazione forte che lega le caratteristiche strutturali delle regioni alle distanze tra i loro cicli, dimostrando quindi la tesi che struttura regionale e performance economica siano strettamente interconnesse.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il presente lavoro si occupa dell’analisi numerica di combustione di gas a basso potere calorifico (gas di sintesi derivanti da pirolisi di biomasse). L’analisi è stata condotta su due principali geometrie di camera di combustione. La prima è un bruciatore sperimentale da laboratorio adatto allo studio delle proprietà di combustione del singas. Esso è introdotto in camera separatamente rispetto ad una corrente d’aria comburente al fine di realizzare una combustione non-premiscelata diffusiva in presenza di swirl. La seconda geometria presa in considerazione è la camera di combustione anulare installata sulla microturbina a gas Elliott TA 80 per la quale si dispone di un modello installato al banco al fine dell’esecuzione di prove sperimentali. I principali obbiettivi conseguiti nello studio sono stati la determinazione numerica del campo di moto a freddo su entrambe le geometrie per poi realizzare simulazioni in combustione mediante l’utilizzo di diversi modelli di combustione. In particolare è stato approfondito lo studio dei modelli steady laminar flamelet ed unsteady flamelet con cui sono state esaminate le distribuzioni di temperatura e delle grandezze tipiche di combustione in camera, confrontando i risultati numerici ottenuti con altri modelli di combustione (Eddy Dissipation ed ED-FR) e con i dati sperimentali a disposizione. Di importanza fondamentale è stata l’analisi delle emissioni inquinanti, realizzata per entrambe le geometrie, che mostra l’entità di tali emissioni e la loro tipologia. Relativamente a questo punto, il maggior interesse si sposta sui risultati ottenuti numericamente nel caso della microturbina, per la quale sono a disposizione misure di emissione ottenute sperimentalmente. Sempre per questa geometria è stato inoltre eseguito il confronto fra microturbina alimentata con singas a confronto con le prestazioni emissive ottenute con il gas naturale. Nel corso dei tre anni, l’esecuzione delle simulazioni e l’analisi critica dei risultati ha suggerito alcuni limiti e semplificazioni eseguite sulle griglie di calcolo realizzate per lo studio numerico. Al fine di eliminare o limitare le semplificazioni o le inesattezze, le geometrie dei combustori e le griglie di calcolo sono state migliorate ed ottimizzate. In merito alle simulazioni realizzate sulla geometria del combustore della microturbina Elliott TA 80 è stata condotta dapprima l’analisi numerica di combustione a pieno carico per poi analizzare le prestazioni ai carichi parziali. Il tutto appoggiandosi a tecniche di simulazione RANS ed ipotizzando alimentazioni a gas naturale e singas derivato da biomasse. Nell’ultimo anno di dottorato è stato dedicato tempo all’approfondimento e allo studio della tecnica Large Eddy Simulation per testarne una applicazione alla geometria del bruciatore sperimentale di laboratorio. In tale simulazione è stato implementato l’SGS model di Smagorinsky-Lilly completo di combustione con modelli flamelet. Dai risultati sono stati estrapolati i profili di temperatura a confronto con i risultati sperimentali e con i risultati RANS. Il tutto in diverse simulazioni a diverso valore del time-step imposto. L’analisi LES, per quanto migliorabile, ha fornito risultati sufficientemente precisi lasciando per il futuro la possibilità di approfondire nuovi modelli adatti all’applicazione diretta sulla MTG.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il presente lavoro di tesi si inserisce all’interno del progetto Europeo Theseus (Innovative technologies for European coasts in a changing climate), volto a fornire una metodologia integrata per la pianificazione sostenibile di strategie di difesa per la gestione dell’erosione costiera e delle inondazioni che tengano in conto non solo gli aspetti tecnici ma anche quelli sociali, economici e ambientali/ecologici. L'area oggetto di studio di questo elaborato di tesi è la zona costiera della Regione Emilia Romagna, costituita unicamente da spiagge sabbiose. In particolare si è focalizzata l’attenzione sulla zona intertidale, in quanto, essendo l’ambiente di transizione tra l’ambiente marino e quello terrestre può fornire indicazioni su fenomeni erosivi di una spiaggia e cambiamenti del livello del mare, unitamente alla risposta agli interventi antropici. Gli obiettivi della tesi sono sostanzialmente tre: un primo obiettivo è confrontare ecosistemi di spiagge dove sono presenti strutture di difesa costiera rispetto a spiagge che ne erano invece prive. Il secondo obiettivo è valutare l’impatto provocato sugli ecosistemi di spiaggia dall’attività stagionale del “bulldozing” e in ultimo proporre un sistema esperto di nuova concezione in grado di prevedere statisticamente la risposta delle comunità bentoniche a diversi tipi di interventi antropici. A tal fine è stato pianificato un disegno di campionamento dove sono stati indagati tre siti differenti per morfologia e impatto antropico: Cesenatico (barriere e pratica bulldozing), Cervia, dissipativa e non soggetta a erosione (assenza di barriere e ma con pratica del bulldozing) e Lido di Dante, tendenzialmente soggetta a erosione (senza barriere e senza pratica del bulldozing). Il campionamento è stato effettuato in 4 tempi (due prima del “bulldozing” e due dopo) nell’arco di 2 anni. In ciascun sito e tempo sono stati campionati 3 transetti perpendicolari alla linea di costa, e per ogni transetto sono stati individuati tre punti relativi ad alta, media e bassa marea. Per ogni variabile considerata sono stati prelevati totale di 216 campioni. Io personalmente ho analizzato i campioni dell’ultima campagna di campionamento, ma ho analizzato l’insieme dei dati. Sono state considerate variabili relative ai popolamenti macrobentonici quali dati di abbondanza, numero di taxa e indice di diversità di Shannon e alcune variabili abiotiche descrittive delle caratteristiche morfologiche dell’area intertidale quali granulometria (mediana, classazione e asimmetria), detrito conchigliare, contenuto di materia organica (TOM), pendenza e lunghezza della zona intertidale, esposizione delle spiagge e indici morfodinamici. L'elaborazione dei dati è stata effettuata mediante tecniche di analisi univariate e multivariate sia sui dati biotici che sulle variabili ambientali, “descrittori dell’habitat”, allo scopo di mettere in luce le interazioni tra le variabili ambientali e le dinamiche dei popolamenti macrobentonici. L’insieme dei risultati delle analisi univariate e multivariate sia dei descrittori ambientali che di quelli biotici, hanno evidenziato, come la risposta delle variabili considerate sia complessa e non lineare. Nonostante non sia stato possibile evidenziare chiari pattern di interazione fra “protezione” e “bulldozing”, sono comunque emerse delle chiare differenze fra i tre siti indagati sia per quanto riguarda le variabili “descrittori dell’habitat” che quelle relative alla struttura dei popolamenti. In risposta a quanto richiesto in contesto water framework directive e in maniera funzionale all’elevate complessità del sistema intertidale è stato proposto un sistema esperto basato su approccio congiunto fuzzy bayesiano (già utilizzato con altre modalità all’interno del progetto Theseus). Con il sistema esperto prodotto, si è deciso di simulare nel sito di Cesenatico due ripascimenti virtuali uno caratterizzato da una gralometria fine e da uno con una granulometria più grossolana rispetto a quella osservata a Cesenatico. Il sistema fuzzy naïve Bayes, nonostante al momento sia ancora in fase di messa a punto, si è dimostrato in grado di gestire l'elevato numero di interazioni ambientali che caratterizzano la risposta della componente biologica macrobentonica nell'habitat intertidale delle spiagge sabbiose.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A partire dagli anni '70, si è assistito ad un progressivo riassetto geopolitico a livello mondiale Grazie anche all’evoluzione tecnologica ed alla sua diffusione di massa, il tempo e lo spazio si contraggono nel processo di globalizzazione che ha caratterizzato le società contemporanee ove l'informazione e la comunicazione assumono ormai un ruolo centrale nelle dinamiche di conoscenza. Il presente studio, intende far luce in primis sulla disciplina dell'intelligence, così come enunciata in ambito militare e "civile", in particolare nel contesto USA, NATO ed ONU, al fine quindi di evidenziare le peculiarità di una nuova disciplina di intelligence, cosiddetta Open Source Intelligence, che ha come elemento di innovazione l'utilizio delle informazioni non classificate. Dopo aver affrontato il problema della concettualizzazione ed evoluzione del fenomeno terroristico, sarà posto il focus sull’espressione criminale ad oggi maggiormente preoccupante, il terrorismo internazionale di matrice islamica, in prospettiva multidimensionale, grazie all’adozione di concetti criminologici interdisciplinari. Sotto il profilo della sperimentazione, si è, quindi, deciso di proporre, progettare e sviluppare l’architettura della piattaforma Open Source Intellicence Analysis Platform,un tool operativo di supporto per l’analista Open Source Intelligence, che si pone quale risorsa del’analisi criminologica, in grado di fornire un valido contributo, grazie al merge tra practice e research, nell’applicazione di tale approccio informativo al fenomeno terroristico.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il patrimonio edilizio italiano è costituito in gran parte da costruzioni che utilizzano la muratura come struttura portante. Le conoscenze acquisite negli ultimi anni nel campo dell’ingegneria hanno reso evidente come le costruzioni in muratura siano state concepite, nel corso dei secoli, senza quegli accorgimenti che l’evoluzione delle tecniche moderne di analisi ha dimostrato essere necessari. Progettare un intervento edilizio su un edificio esistente, correlato anche alla valutazione di rischio sismico, e cercare di migliorare le prestazioni dello stesso edificio, richiede partire sempre dalla conoscenza delle caratteristiche statiche intrinseche che il materiale della muratura possiede. La conoscenza della patologia comporta l'indubbio vantaggio di mettere al corrente di cosa ci si può attendere nel futuro dal punto di vista strutturale, come ad esempio che il fenomeno non sarà eliminabile all'origine e che la fessura o lesione magari si riformerà sempre, a meno d’interventi statici rilevanti e di costi ingenti. Diventa quindi di fondamentale importanza eseguire uno studio approfondito dei fenomeni strutturali anomali di deterioramento, quali lesioni, fessurazioni e simili, legati spesso a fattori ambientali, attraverso specifiche indagini diagnostiche e di monitoraggio dello stato interno delle strutture, per definire le cause responsabili e il metodo più adeguato alla tutela dei beni storici [Mastrodicasa, 1993]. Il monitoraggio dei possibili parametri che influenzano tali processi può essere continuo nel tempo o per mezzo di metodologia discontinua che prevede l’utilizzo e la ripetizione di prove non distruttive. L’elevato costo di un eventuale processo continuo ha limitato significativamente la sua applicazione, riducendo lo studio all’analisi di pochi parametri derivanti dalle prove diagnostiche e spesso non del tutto adatti alla completa analisi della struttura. Il seguente lavoro di tesi è sviluppato all’interno del progetto SmooHS (Smart Monitoring of Historic Structures) nell’ambito del 7° Programma Quadro della Commissione Europea che si pone come obiettivo lo sviluppo di strumenti di monitoraggio innovativi ‘intelligenti’ e poco invasivi e modelli di degrado e la loro sperimentazione sul campo per verificarne l’effettiva efficacia attraverso il confronto con risultati di prove non distruttive. La normativa correlata a questo studio, “Norme Tecniche per le Costruzioni’ (D.M. 14/01/2008), evidenzia come ‘La conoscenza della costruzione storica in muratura è un presupposto fondamentale sia ai fini di un’attendibile valutazione della sicurezza sismica attuale sia per la scelta di un efficace intervento di miglioramento…. Si ha pertanto la necessità di affinare tecniche di analisi e interpretazione dei manufatti storici mediante fasi conoscitive dal diverso grado di attendibilità, anche in relazione al loro impatto. La conoscenza può, infatti, essere conseguita con diversi livelli di approfondimento, in funzione dell’accuratezza delle operazioni di rilievo, delle ricerche storiche, e delle indagini sperimentali. Tali operazioni saranno funzione degli obiettivi preposti e andranno a interessare tutto o in parte l’edificio, secondo la tipologia dell’intervento previsto’. L’utilizzo di ‘Tecniche diagnostiche non distruttive di tipo indiretto, quali prove soniche e ultrasoniche’ è preferibile poiché molto promettenti e hanno il pregio di poter essere utilizzate in modo diffuso con un relativo impatto sulla costruzione e costi relativamente contenuti. La non identificazione di una procedura univoca di prove non distruttive per ciascuna tipologia edilizia rende necessario uno studio di fattibilità di diverse tecniche per valutarne l’effettiva efficacia in base al risultato atteso. L’obiettivo di questo lavoro di tesi è stato lo studio sperimentale di valutazione dell’efficacia di alcune tecniche soniche in trasmissione, tomografia e prove soniche dirette, nel monitoraggio di provini precedentemente realizzati ad hoc nei laboratori LISG (Laboratorio di Ingegneria Strutturale e Geotecnica) del DICAM dell’Università di Bologna caratterizzati da presenze di discontinuità (vacui o inclusioni di polistirolo) o materiali differenti in determinate posizioni di geometria e localizzazione nota e diverse tessiture murarie (muratura di laterizio tradizionale, muratura a sacco, inclusioni lapidee). Il capitolo 1 presenta una descrizione generale delle murature, le cause principali di deterioramento e conseguenti dissesti. Presenta inoltre una finestra sulle prove diagnostiche. Nel capitolo 2 sono riportati alcuni esempi di applicazioni di tomografia e prove soniche e sviluppi di ricerca su strutture storiche lignee e murarie eseguite recentemente. Nel capitolo 3 sono presentati i provini oggetto di studio, la loro geometria, i difetti, le sezioni. Il capitolo 4 descrive i principi fisici delle prove soniche e grandezze caratteristiche e presenta la procedura di acquisizione e relative strumentazioni. I capitoli 5 e 6 riguardano lo studio sperimentale vero e proprio ottenuto attraverso l’utilizzo di tomografia sonica e prove dirette, con descrizione delle stazioni di prova, visualizzazione dei dati in tabelle per una semplice interpretazione, loro elaborazione e susseguente analisi approfondita, con valutazione dei risultati ottenuti e debite conclusioni. Il capitolo 7 presenta un confronto delle analisi comuni a entrambe le tipologie di prove soniche, visualizzazioni di istogrammi di paragone e considerazioni deducibili.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Abbiamo studiato ABSFJf, un linguaggio ad oggetti concorrente con tipi di dato futuro ed operazioni per acquisire e rilasciare il controllo delle risorse. I programmi ABSFJf possono manifestare lock (deadlock e livelock) a causa degli errori del programmatore. Per individuare staticamente possibili com- portamenti non voluti abbiamo studiato e implementato una tecnica per l'analisi dei lock basata sui contratti, che sono una descrizione astratta del comportamento dei metodi. I contratti si utilizzano per formare un automa i cui stati racchiudono informazioni di dipendenza di tipo chiamante-chiamato; vengono derivati automaticamente da un algoritmo di type inference e model- lati da un analizzatore che sfrutta la tecnica del punto

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il termine extravergine, per un olio di alta qualità, rappresenta solo un pre-requisito: la categoria merceologica, intesa come conformità ad una serie di analisi chimico-sensoriali previste dalla normativa Europea, non è sufficiente ad esaltare il valore aggiunto che un olio può avere in termini di attributi di qualità sensoriale e salutistica. Questi ultimi sono fortemente influenzati dalla presenza di alcuni composti minori, come le molecole volatili e quelle a struttura fenolica (biofenoli). I composti volatili sono i principali responsabili dell'aroma di un olio extravergine d’oliva, mentre i biofenoli lo sono per gli attributi positivi, di amaro e piccante, già normati dal legislatore. Lo studio ha riguardato le relazioni esistenti tra le sostanze volatili e biofenoliche e le percezioni sensoriali ad esse associate. Tra gli oli extravergini di oliva partecipanti all’International Olive Oil Award di Zurigo 2012, sono stati selezionati 28 campioni monovarietali di diversa provenienza geografica (principalmente Italia, Spagna e Grecia). La valutazione sensoriale è stata eseguita dal panel dell’Institute of Food and Beverage Innovation di Zurigo con l’impiego di una scheda di profilo più descrittiva di quella ufficiale (Reg. CE 640/2008), contenente numerosi attributi positivi secondari valutati su scala discreta a 4 punti, oltre ad armonia e persistenza, su scala continua di 10 cm. I campioni sono stati sottoposti alla caratterizzazione della frazione biofenolica (indice di amaro, contenuto in fenoli totali ed analisi delle principali molecole fenoliche mediante HPLC-DAD/MSD) e dei composti volatili (SPME/GC-MSD). I dati ottenuti sono stati elaborati con l’ausilio di tecniche di analisi multivariata nel tentativo di valutare le correlazioni esistenti tra le variabili e di individuare gruppi omogenei di oli. La finalità di questo lavoro è stata quella di suggerire attributi discriminanti la qualità sensoriale di oli di pregio, che possano essere impiegati come leve di promozione dei prodotti, così come indicatori addizionali di autenticità.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Numerose evidenze dimostrano che le proprietà dei materiali compositi sono strettamente legate ai processi produttivi, alle tipologie di fibra e resina impiegate nel materiale stesso. Proprietà caratterizzate anche dai difetti contenuti nel materiale stesso. Nella tesi si presta particolare attenzione al processo produttivo con prepreg e autoclave trattando anche il tema della stesura di un ply-book. Si valutano in modo teorico e critico alcuni tra i metodi N.D.T. più avanzati tra cui: P.T.(Penetrant Test), Rx(Radiography Test), UT (Ultrasound Test in Phased Array) e IRT (InfraRed Termography - Pulsata). Molteplici sono i componenti testati che variano tra loro per: tipologia di resina e fibra impiegata, processo produttivo e geometria. Tutti questi componenti permettono di capire come i singoli parametri influenzino la visualizzazione e l'applicabilità delle tecniche N.D.T. sopra citate. Su alcuni provini è stata eseguita la prova meccanica Drop Weight Test secondo ASTM D7136 per correlare le aree di delaminazione indotte e la sensibilità di ogni singolo metodo, visualizzando così la criticità indotta dagli urti con bassa energia di impatto (BVID Barely Invisible Impact)di cui i materiali compositi soffrono durante la "service life". A conclusione del lavoro si potrà comprendere come solo l'analisi con più metodi in parallelo permetta di ottenere una adeguata Probability Of Detection.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les théories du post-industrialisation utilisent comme une preuve empirique du changement du processus historique l’entrée dans une nouvelle structure sociale que, par ailleurs, se distingue par le déplacement des biens et des services et par la formation de nouvelles structures professionnelles et de la gestion. Dans ce contexte, en premier lieu, c’est très intéressant à comprendre comme les nouvelles formes de l’organisation économique et sociale ont reussies à influer sur les systèmes de la fiscalité directe de l’État italien et de l’État français à la formation et au perfectionnement de la notion de revenu du travail indépendant et aussi à la formation et au perfectionnement des modèles de la taxation directe des revenus du travail indépendant. Par conséquent, la recherche, dans le principe, se concentre sur le processus de la construction et de l’évolution de la notion de revenu du travail indépendant et aussi de la construction et de l’évolution des formes nationales de la taxation directe des revenus du travail indépendant; un processus dévelopé au cours de l’Époque Moderne et de l’Époque Contemporaine que, du point de vue historique-fiscale, s’encadre comme l’époque des grands changements en ce qui concerne aussi à la fiscalité directe des revenus de la richesse mobilière. En second lieu, c’est très important à préciser si existe la possibilité de reconstruire les notions actuelles des revenus du travail indépendant en vue de l’aproximation des modalitès de la taxation directe de cette catégorie de revenus de la richesse mobilière avec les modalitès de la taxation directe des revenus de l’entreprise adoptées dans les systèmes italien et français de la fiscalitè directe; par conséquent, la recherche s’oriente vers la déscrition et l’analyse des questions en ce qui concerne à la définition fiscale objective et subjective des revenus du travail indépendant, à la direction vers laquelle on doit s’adresser actuellement les modèles nationaux de la taxation directe des revenus du travail indépendant et les raisons que la justifient. En autre, la recherche s’étendre vers une analyse comparative laquelle évidence les éléments de la convergence et de la divergence nécessaires pour tirer avec exactitude des conclusions sur l’approximation au niveau national et européen des notions des revenus du travail indépendant et des principes et modalités de la taxation directe des revenus du travail indépendant à fin de garantir les libertés de l’établissement et de la prestation des services et les principes de non-dicrimination et de la non-différenciation fiscale des travailleurs indépendants transfrontières dans le marché intérieur. En troisième lieu, c’est très intéressant à préciser avec cette recherche si dans le cadre conventionnel et européen existe une notion de revenu du travail indépendant ou non et si existe un modèle européen unifié ou, au contraire, il s’agit d’une approximation des modèles nationales de la taxation directe des revenus du travail indépendant. Par conséquent, un’autre argument de la recherce est l’analyse de la normative conventionnelle et de la législation européenne et aussi de la jurisprudence de la Cour de la Justice de l’Union Européenne relatives à la construction d’une notion conventionnelle et aussi européenne du travail indépendant au matiere de la fiscalité directe et l’incidence de principes conventionnels et aussi de libertés européenne de l’établissement et de la prestation des services à la taxation directe des revenus des travailleurs indépendants par rapport aux principes de non-discrimination et de la non-différenciation fiscale; une analyse laquelle évidence l’absence d’un modèle conventionnel et d’un modèle européen harmonisé relativement à la taxation directe des revenus du travail indépendant à raison de la prévalence du principe de la souveranité fiscale au domaine de la fiscalitè directe et pour cette raison en peut parler seulement d’une approximation des modèles nationales de la taxation directe des revenus du travail indépendant à fin de garantir les libertés européenne de l’établissement et de la prestation des services des travailleurs indépendants et les principes conventionnels de non-discrimination et de la non-différenciation fiscale. À la fin, c’est très intéressant à préciser si existe une corrélation entre les Traités fiscales et le Droit fiscal européen en ce qui concerne à la notion de revenus du travail indépendant et les principes fiscales. Par conséquent, la recherche se compléte avec l’analyse du régime fiscale des revenus du travail indépendant évidencé dans le Modèle de la Convention de l’OCDE et dans la Convention Italie-France concernant à l’élimination de la double imposition; une analyse laquelle, en analogie avec le droit fiscal européen, précise l’approximation des revenus du travail indépendant avec les revenus de l’entreprise en se référant le Modèle de la Convention de l’OCDE et l’absence d’un modèle conventionel de la taxation directe des revenus du travail indépendant, mais, à différence du droit fiscal européen, évidence la présence des certains critéres adoptés par la normative conventionnelle à fin de garantir l’arrêt de la double imposition et le principe de la non-discrimination que, en substance, sont points de convérgence avec le droit fiscal européen. En autre, l’analyse de la normative conventionnelle de l’OCDE, à différence de la normative conventionnelle relative à la Convention de l’élimination de la double imposition finalisée par l’Italie et la France, évidence une évolution de la fiscalitè directe en ce qui concerne aux travailleurs indépendants laquelle se vérifie à l’adoption des critéres de la fiscalitè directe des revenus des sociétés et de la quelle en se dérive l’approximation de la notion des revenus du travail indépendant avec la notion des revenus de l’entreprise, en substance, revenus provenant par les activités économiques. Compte tenu de ce qui précède, c’est clair la convérgence parmis les législations nationales de la taxation directe des revenus du travail indépendant et la normative conventionnelle du Modèle de la Convention de l’OCDE et la normative europénne; une convérgence que confirme la nouvelle diréction vers la quelle s’adressent les notions et les modèles de la taxation directe des revenus du travail indépendant dans les systèmes nationals de la taxation directe: l’approximation avec les modèles nationales de la taxation directe des revenus des sociétés en vue de l’approximation des notions des revenus dérives par les activités économiques.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Gli impianti di incenerimento di rifiuti solidi suscitano preoccupazione nella popolazione per i possibili effetti avversi associati all’esposizione. Gli effetti delle polveri sottili (PM2.5), generate dai processi di combustione, sulla salute umana includono l’insorgenza di patologie a carico del sistema respiratorio e cardiovascolare e l’aumento della mortalità per malattie polmonari e probabilmente cancro al polmone. Lo scopo della tesi è quello di valutare il profilo tossicologico e cancerogeno del particolato atmosferico in prossimità dell’inceneritore di Bologna rispetto alle aree adiacenti mediante l’utilizzo di test alternativi alle metodologie in vivo, come il test di trasformazione cellulare e approcci di tossicogenomica (soprattutto trascrittomica) oltre alla valutazione della variazione del rischio cancerogeno indotto dall’esposizione di PM2.5 in diversi siti (massima ricaduta, controllo, fondo urbano e fondo rurale) e in differenti periodi di campionamento (estate 2008 e inverno 2009). Gli estratti di PM2.5 relativi alla stagione invernale sono risultati più tossici rispetto ai campioni estivi, che inducono tossicità soprattutto alle alte dosi. Per i campioni invernali il numero medio di colonie di cellule BALB/c 3T3 A31-1-1 risulta ridotto in modo significativo anche per le dosi più basse saggiate indipendentemente dal sito di provenienza. Tutti i campioni analizzati sono risultati negativi nel test di trasformazione cellulare in vitro. L’analisi dell’espressione genica delle cellule BALB/c 3T3 A31-1-1, in seguito all’esposizione agli estratti di PM2.5, ha mostrato un effetto stagionale evidente. Relativamente ai campioni invernali è stato evidenziato un maggior effetto tossico da parte del sito di controllo rispetto alla massima ricaduta, poiché nel sito di controllo risultano attivati marcatori di morte cellulare per apoptosi. La valutazione del rischio cancerogeno in tutti i siti valutati non mostra situazioni preoccupanti legate alla predizione di eccessi di rischio di tumori imputabili all’attività dell’inceneritore in quanto le stime di rischio non eccedono mai il valore limite riportato in letteratura.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Uno dei temi più discussi ed interessanti nel mondo dell’informatica al giorno d’oggi è sicuramente il Cloud Computing. Nuove organizzazioni che offrono servizi di questo tipo stanno nascendo ovunque e molte aziende oggi desiderano imparare ad utilizzarli, migrando i loro centri di dati e le loro applicazioni nel Cloud. Ciò sta avvenendo anche grazie alla spinta sempre più forte che stanno imprimendo le grandi compagnie nella comunità informatica: Google, Amazon, Microsoft, Apple e tante altre ancora parlano sempre più frequentemente di Cloud Computing e si stanno a loro volta ristrutturando profondamente per poter offrire servizi Cloud adeguandosi così a questo grande cambiamento che sta avvenendo nel settore dell’informatica. Tuttavia il grande movimento di energie, capitali, investimenti ed interesse che l’avvento del Cloud Computing sta causando non aiuta a comprendere in realtà che cosa esso sia, al punto tale che oggi non ne esiste ancora una definizione univoca e condivisa. La grande pressione inoltre che esso subisce da parte del mondo del mercato fa sì che molte delle sue più peculiari caratteristiche, dal punto di vista dell’ingegneria del software, vengano nascoste e soverchiate da altre sue proprietà, architetturalmente meno importanti, ma con un più grande impatto sul pubblico di potenziali clienti. L’obbiettivo che ci poniamo con questa tesi è quindi quello di esplorare il nascente mondo del Cloud Computing, cercando di comprenderne a fondo le principali caratteristiche architetturali e focalizzando l’attenzione in particolare sullo sviluppo di applicazioni in ambiente Cloud, processo che sotto alcuni aspetti si differenzia molto dallo sviluppo orientato ad ambienti più classici. La tesi è così strutturata: nel primo capitolo verrà fornita una panoramica sul Cloud Computing nella quale saranno date anche le prime definizioni e verranno esposti tutti i temi fondamentali sviluppati nei capitoli successivi. Il secondo capitolo costituisce un approfondimento su un argomento specifico, quello dei Cloud Operating System, componenti fondamentali che permettono di trasformare una qualunque infrastruttura informatica in un’infrastruttura Cloud. Essi verranno presentati anche per mezzo di molte analogie con i classici sistemi operativi desktop. Con il terzo capitolo ci si addentra più a fondo nel cuore del Cloud Computing, studiandone il livello chiamato Infrastructure as a Service tramite un esempio concreto di Cloud provider: Amazon, che fornisce i suoi servizi nel progetto Amazon Web Services. A questo punto, più volte nel corso della trattazione di vari temi saremo stati costretti ad affrontare le problematiche relative alla gestione di enormi moli di dati, che spesso sono il punto centrale di molte applicazioni Cloud. Ci è parso quindi importante approfondire questo argomento in un capitolo appositamente dedicato, il quarto, supportando anche in questo caso la trattazione teorica con un esempio concreto: BigTable, il sistema di Google per la gestione della memorizzazione di grandi quantità di dati. Dopo questo intermezzo, la trattazione procede risalendo lungo i livelli dell’architettura Cloud, ricalcando anche quella che è stata l’evoluzione temporale del Cloud Computing: nel quinto capitolo, dal livello Infrastructure as a Service si passa quindi a quello Platform as a Service, tramite lo studio dei servizi offerti da Google Cloud Platform. Il sesto capitolo costituisce invece il punto centrale della tesi, quello che ne soddisfa l’obbiettivo principale: esso contiene infatti uno studio approfondito sullo sviluppo di applicazioni orientate all’ambiente Cloud. Infine, il settimo capitolo si pone come un ponte verso possibili sviluppi futuri, analizzando quali sono i limiti principali delle tecnologie, dei modelli e dei linguaggi che oggi supportano il Cloud Computing. In esso viene proposto come possibile soluzione il modello ad attori; inoltre viene anche presentato il framework Orleans, che Microsoft sta sviluppando negli ultimi anni con lo scopo appunto di supportare lo sviluppo di applicazioni in ambiente Cloud.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il Test di Risposta Termica (Thermal Response Test-TRT) (Mogenson,1983) è il test esistente con il più alto grado di accuratezza per la caratterizzazione del reservoir geotermico superficiale. Il test consiste in una simulazione in situ del funzionamento di un sistema a circuito chiuso di sfruttamento dell’energia geotermica, per un periodo limitato di tempo, attraverso l’iniezione o estrazione di calore a potenza costante all’interno del geo-scambiatore (Borehole Heat Exchanger-BHE). Dall’analisi della variazione delle temperature del fluido circolante, è possibile avere una stima delle proprietà termiche medie del volume del reservoir geotermico interessato dal test. Le grandezze principali per la caratterizzazione di un serbatoio geotermico sono la conduttività termica (λ), la capacità termica volumetrica (c), la temperatura indisturbata del suolo (Tg) e la resistenza termica del pozzo (Rb); la loro determinazione è necessaria per il corretto progettazione degli geo-scambiatori. I risultati del TRT sono tuttavia sensibili alle condizioni al contorno spazio-temporali quali ad es.: variazione della temperatura del terreno, movimento d’acqua di falda, condizioni metereologiche, eventi stagionali, ecc. Questo lavoro vuole: i) introdurre uno studio sui problemi di caratterizzazione del reservoir geotermico superficiale, in particolare analizzando l’effetto che il movimento d’acqua di falda ha sui parametri termici; ii) analizzare la sensitività dei risultati del test alle variabilità dei parametri caratteristici del funzionamento delle attrezzature. Parte del lavoro della mia tesi è stata svolta in azienda per un periodo di 4 mesi presso la “Groenholland Geo Energy systems” che ha sede ad Amsterdam in Olanda. Tre diversi esperimenti sono stati realizzati sullo stesso sito (stratigrafia nota del terreno: argilla, sabbia fine e sabbia grossa) usando una sonda profonda 30 metri e diversi pozzi per l’estrazione d’acqua e per monitorare gli effetti in prossimità del geo scambiatore. I risultati degli esperimenti sono stati molto diversi tra di loro, non solo in termini di dati registrati (temperature del fluido termovettore), ma in termini dei valori dei parametri ottenuti elaborando i dati. In particolare non è sufficiente adottare il modello classico della sorgente lineare infinita (Infinite Line Source Solution- ILS) (Ingersoll and Plass, 1948), il quale descrive il trasferimento di calore per conduzione in un mezzo omogeneo indefinito a temperatura costante. Infatti, lo scambio di calore avviene anche tramite convezione causata dal movimento d’acqua di falda, non identificabile mediante gli approcci classici tipo CUSUM test (Cumulative Sum test) (Brown e altri,1975) Lo studio della tesi vuole dare un quadro di riferimento per correlare la variabilità dei risultati con la variabilità delle condizioni al contorno. L’analisi integra le metodologie classiche (ILS) con un approccio geostatistico utile a comprendere i fenomeni e fluttuazioni che caratterizzano il test. Lo studio delle principali variabili e parametri del test, quali temperatura in ingresso e uscita del fluido termovettore, portata del fluido e potenza iniettata o estratta, è stato sviluppato mediante: il variogramma temporale, ovvero la semivarianza dell’accrescimento, che esprime il tipo di autocorrelazione temporale della variabile in esame; la covarianza incrociata temporale, ovvero la covarianza fra due variabili del sistema, che ne definisce quantitativamente il grado di correlazione in funzionamento del loro sfasamento temporale. L’approccio geostatistico proposto considera la temperatura del fluido Tf come una funzione aleatoria (FA) non stazionaria nel tempo (Chiles, 1999), il cui trend è formalmente definito, ma deve essere identificato numericamente. Si considera quindi un classico modello a residuo; in cui la FA è modellizzata come la somma di un termine deterministico, la media (il valore atteso) m(t),coincidente col modello descritto dalla teoria della sorgente lineare infinità, e di un termine aleatorio, la fluttuazione, Y(t). Le variabili portata e potenza sono invece considerate delle funzioni aleatorie stazionarie nel tempo, ovvero a media costante. Da questo studio di Tesi si sono raggiunte delle conclusioni molto importanti per lo studio del TRT: Confronto tra gli esperimenti in estrazione di calore, con e senza movimento d’acqua di falda: si studia l’effetto indotto dalla falda sul TRT. E’ possibile caratterizzare quantitativamente l’incremento della conducibilità termica equivalente legata a fenomeni convettivi dovuti al movimento d’acqua di falda. Inoltre, i variogrammi sperimentali evidenziano periodicità simili nei due casi e legate al funzionamento della pompa di calore e della componentistica associata ed alla circolazione del fluido termovettore all’interno della sonda. Tuttavia, la componente advettiva ha un effetto di smorzamento sulle piccole periodicità dei variogrammi, ma di aumento dell’ampiezza delle periodicità maggiori a causa del funzionamento della pompa di calore che deve fornire maggiore energia al sistema per bilanciare le dispersioni dovute al movimento d’acqua di falda. Confronto fra estrazione ed iniezione di calore, con movimento d’acqua di falda: si studia la significatività dei risultati nei due casi. L’analisi delle variografie evidenzia significative differenze nella struttura dei variogrammi sperimentali. In particolare, nel test con iniezione di calore i variogrammi sperimentali delle temperature hanno valori sistematicamente inferiori, circostanza che assicura una migliore precisione nella stima dei parametri termici. Quindi eseguire il TRT in iniezione di calore risulta più preciso. Dall’analisi dei variogrammi sperimentali delle singole variabili quali temperatura del fluido in ingresso e uscita all’interno del geoscambiatore è stato confermato il fenomeno di smorzamento delle oscillazioni da parte del terreno. Dall’analisi delle singole variabili del test (temperature, potenza, portata) è stata confermata l’indipendenza temporale fra portate e temperature. Ciò è evidenziato dalle diverse strutture dei variogrammi diretti e dalle covarianze incrociate prossime a zero. Mediante correlogrami è stato dimostrato la possibilità di calcolare il tempo impiegato dal fluido termovettore per circolare all’interno della sonda. L’analisi geostatistica ha permesso quindi di studiare in dettaglio la sensitività dei risultati del TRT alle diverse condizioni al contorno, quelle legate al reservoir e quelle legate al funzionamento delle attrezzature

Relevância:

30.00% 30.00%

Publicador:

Resumo:

I sistemi di drenaggio urbano meritano particolare attenzione per l’importante compito che devono garantire all’interno della società. L’allontanamento delle acque reflue dalle zone urbanizzate infatti è indispensabile per non creare problemi ed interferenze con attività sociali ed economiche che in esse si svolgono; inoltre un corretto funzionamento del sistema di drenaggio assicura anche un basso impatto ambientale in termini di qualità e quantità. La disponibilità di nuove tecnologie costruttive e materiali in continua evoluzione devono fare fronte alla crescente complessità idraulica, geotecnica e urbanistica delle strutture componenti i sistemi di drenaggio; in tale elaborato si vuole porre l’accento sul problema dello smaltimento delle acque meteoriche nelle zone densamente urbanizzate, la cui soluzione è costituita dall'adozione delle cosiddette BMP (Best Management Practices). Le BMP sono definite come strategie, pratiche o metodi per la rimozione, la riduzione, il ritardo o la prevenzione della quantità di costituenti inquinanti e contaminanti delle acque di pioggia, prima che giungano nei corpi idrici ricettori. Tra esse ricordiamo le cisterne o rain barrels, i pozzi asciutti, i sistemi drywell, le vasche verdi filtranti, i tetti verdi, i canali infiltranti, i fossi di infiltrazione, i pozzi perdenti, i planting container, i canali inerbiti, i bacini di infiltrazione, le gross pullutant traps (gpts), gli stagni, i sistemi di fitodepurazione estensiva (sfe), le pavimentazioni drenanti. In Italia esse risultano ancora scarsamente studiate ed applicate, mentre trovano più ampio sviluppo in realtà estere come in Inghilterra ed in Australia. Per comprendere la efficacia di tali tecniche BMP è necessario analizzarle e, soprattutto, analizzare il loro effetto sul territorio in cui esse vengono inserite e sul regime idrogeologico dell’ambiente. Questa analisi può essere svolta con prove sperimentali su aree di controllo (soluzione economicamente gravosa) o attraverso modelli matematici tramite l’utilizzo di software di calcolo che simulino il comportamento delle portate, dei tiranti idrici e degli inquinanti nei canali e nelle strutture accessorie costituenti la rete fognaria, in conseguenza ad eventi di pioggia dei quali sia nota la distribuzione spaziale e temporale. In questo elaborato si modellizza attraverso il programma Matlab un unico elemento BMP e si osservano i suoi effetti; si procede cioè alla analisi del funzionamento di un ipotetico brown roof installato nella zona di Rimini e si osservano i benefici effetti che ne derivano in termini di volumi di pioggia trattenuti dal sistema considerando diverse tipologie di pioggia e diversi parametri progettuali per il tetto (i fori dello strato inferiore del tetto, la altezza dello strato di terreno, la sua permeabilità e la sua porosità). Si procede poi con la analisi di una ipotetica zona commerciale che sorge sulle sponde di un fiume. Tali analisi vengono svolte con il software HEC-RAS per quanto riguarda la analisi dei livelli del fiume e delle zone a rischio di inondazione. I risultati forniti da questo studio preliminare vengono poi utilizzati come condizioni al contorno per una successiva analisi effettuata con il software InfoWorks in cui si valutano i benefici che derivano dalla installazione di diverse BMP nella zona commerciale oggetto di studio. Tale modello esamina un verosimile scenario inglese, la cittadina infatti si ipotizza situata in Inghilterra e anche gli eventi pluviometrici a cui ci si riferisce sono tipici eventi di pioggia inglesi. Tutti i dati di input elaborati nelle simulazioni sono stati forniti all’interno di un progetto universitario svolto presso l’università di Bradford con la supervisione dei professori Simon Tait ed Alma Schellart. Infine la parte conclusiva dell’elaborato è stata sviluppata in collaborazione con Hera S.p.a. di Rimini all’interno di un percorso di tirocinio curriculare che ha previsto la analisi delle tecnologie BMP adatte per l’ambiente cittadino di Rimini e la osservazione delle performance garantite da tecnologie esistenti sul territorio: i parcheggi permeabili. La realtà riminese infatti deve far fronte a diversi problemi che si innescano durante i periodi di pioggia ed una mitigazione dei volumi di acqua in arrivo alla fognatura grazie a questo tipo di tecnologie, senza quindi ricorrere agli usuali sistemi puntuali, porterebbe sicuramente a notevoli vantaggi. Tali tecnologie però non devono solo essere progettate e costruite in modo corretto, ma devono essere sottoposte a periodici controlli ed adeguate operazioni di manutenzione per non perdere la loro efficacia. Per studiare tale aspetto si procede quindi alla misura della permeabilità di parcheggi drenanti presenti all’interno dei comuni di Cattolica e Rimini ricercando i fattori che influenzano tale caratteristica fondamentale dei parcheggi.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La studio dell’efficienza di un indice azionario ha accresciuto la propria importanza nell’industria dell’asset management a seguito della diffusione dell’utilizzo di benchmark e investimenti indicizzati. Il presente lavoro valuta il livello di efficienza dei principali indici del mercato azionario statunitense, dell’Area Euro e italiano. Lo studio empirico ricorre a quattro misure di efficienza: il GRS, un test small-sample multivariato fondato sul CAPM; il test large sample di Wald, implementato tramite una simulazione bootstrap; il test GMM, che è stato applicato in una cornice non-gaussiana attraverso una simulazione block bootstrap; la misura di efficienza relativa di Kandel e Stambaugh. I risultati empirici forniscono una prova evidente della superiore efficienza degli indici equiponderati. Questa conclusione è interpretata sulla base della letteratura scientifica esistente, analizzando le diverse cause di ordine teorico ed empirico che sono state proposte.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La green chemistry può essere definita come “l’utilizzo di una serie di principi che riducono o eliminano l’uso o la formazione di sostanze pericolose nella progettazione, produzione e applicazione di prodotti chimici”. . È in questo contesto che si inserisce la metodologia LCA (Life Cycle Assessment), come strumento di analisi e di valutazione. Lo scopo del presente lavoro di tesi è l’analisi degli impatti ambientali associati a processi chimici, ambito ancora poco sviluppato nella letteratura degli studi di LCA. Viene studiato e modellato il ciclo di vita (dall’ottenimento delle materie prime fino alla produzione del prodotto) della reazione di ammonossidazione per la produzione di acrilonitrile, valutando e comparando due alternative di processo: quella tradizionale, che utilizza propilene ( processo SOHIO), e le vie sintetiche che utilizzano propano, ad oggi poco sviluppate industrialmente. Sono stati pertanto creati sei scenari: due da propene (SOHIO FCC, con propene prodotto mediante Fluid Catalytic Cracking, e SOHIO Steam), e quattro da propano (ASAHI, MITSUBISHI, BP povero e ricco in propano). Nonostante la produzione dell’alcano abbia un impatto inferiore rispetto all’olefina, dovuto ai minori stadi di processo, dai risultati emerge che l’ammonossidazione di propano ha un impatto maggiore rispetto a quella del propene. Ciò è dovuto ai processi catalitici che utilizzano propano, che differiscono per composizione e prestazioni, rispetto a quelli da propene: essi risultano meno efficienti rispetto ai tradizionali, comportando maggiori consumi di reattivi in input . Dai risultati emerge che gli scenari da propano presentano maggiori impatti globali di quelli da propene per le categorie Cambiamento climatico, Formazione di materiale e Consumo di combustibili fossili. Invece per la categoria Consumo di metalli un impatto maggiore viene attribuito ai processi che utilizzano propene, per la maggior percentuale di metalli impiegata nel sistema catalitico, rispetto al supporto. L’analisi di contributo, eseguita per valutare quali sono le fasi più impattanti, conferma i risultati. Il maggior contributo per la categoria Consumo di combustibili fossili è ascrivibile ai processi di produzione del propano, dell’ammoniaca e del solfato di ammonio ( legato all’ammoniaca non reagita ). Stessi risultati si hanno per la categoria Cambiamento climatico, mentre per la categoria Formazione di materiale particolato, gli impatti maggiori sono dati dai processi di produzione del solfato di ammonio, del propano e dell’acido solforico (necessario per neutralizzare l’ammoniaca non reagita). Per la categoria Consumo di metalli, il contributo maggiore è dato dalla presenza del catalizzatore. È stata infine eseguita un’analisi di incertezza tramite il metodo Monte Carlo, verificando la riproducibilità dei risultati.