640 resultados para Prestazioni dirigibilicaratteristiche dirigibilistoria dirigibili
Resumo:
Il Web nel corso della sua esistenza ha subito un mutamento dovuto in parte dalle richieste del mercato, ma soprattutto dall’evoluzione e la nascita costante delle numerose tecnologie coinvolte in esso. Si è passati da un’iniziale semplice diffusione di contenuti statici, ad una successiva collezione di siti web, dapprima con limitate presenze di dinamicità e interattività (a causa dei limiti tecnologici), ma successivamente poi evoluti alle attuali applicazioni web moderne che hanno colmato il gap con le applicazioni desktop, sia a livello tecnologico, che a livello di diffusione effettiva sul mercato. Tali applicazioni web moderne possono presentare un grado di complessità paragonabile in tutto e per tutto ai sistemi software desktop tradizionali; le tecnologie web hanno subito nel tempo un evoluzione legata ai cambiamenti del web stesso e tra le tecnologie più diffuse troviamo JavaScript, un linguaggio di scripting nato per dare dinamicità ai siti web che si ritrova tutt’ora ad essere utilizzato come linguaggio di programmazione di applicazioni altamente strutturate. Nel corso degli anni la comunità di sviluppo che ruota intorno a JavaScript ha prodotto numerose librerie al supporto del linguaggio dotando così gli sviluppatori di un linguaggio completo in grado di far realizzare applicazioni web avanzate. Le recenti evoluzioni dei motori javascript presenti nei browser hanno inoltre incrementato le prestazioni del linguaggio consacrandone la sua leadership nei confronti dei linguaggi concorrenti. Negli ultimi anni a causa della crescita della complessità delle applicazioni web, javascript è stato messo molto in discussione in quanto come linguaggio non offre le classiche astrazioni consolidate nel tempo per la programmazione altamente strutturata; per questo motivo sono nati linguaggi orientati alla programmazione ad oggetti per il web che si pongono come obiettivo la risoluzione di questo problema: tra questi si trovano linguaggi che hanno l’ambizione di soppiantare JavaScript come ad esempio Dart creato da Google, oppure altri che invece sfruttano JavaScript come linguaggio base al quale aggiungono le caratteristiche mancanti e, mediante il processo di compilazione, producono codice JavaScript puro compatibile con i motori JavaScript presenti nei browser. JavaScript storicamente fu introdotto come linguaggio sia per la programmazione client-side, che per la controparte server-side, ma per vari motivi (la forte concorrenza, basse performance, etc.) ebbe successo solo come linguaggio per la programmazione client; le recenti evoluzioni del linguaggio lo hanno però riportato in auge anche per la programmazione server-side, soprattutto per i miglioramenti delle performance, ma anche per la sua naturale predisposizione per la programmazione event-driven, paradigma alternativo al multi-threading per la programmazione concorrente. Un’applicazione web di elevata complessità al giorno d’oggi può quindi essere interamente sviluppata utilizzando il linguaggio JavaScript, acquisendone sia i suoi vantaggi che gli svantaggi; le nuove tecnologie introdotte ambiscono quindi a diventare la soluzione per i problemi presenti in JavaScript e di conseguenza si propongono come potenziali nuovi linguaggi completi per la programmazione web del futuro, anticipando anche le prossime evoluzioni delle tecnologie già esistenti preannunciate dagli enti standard della programmazione web, il W3C ed ECMAScript. In questa tesi saranno affrontate le tematiche appena introdotte confrontando tra loro le tecnologie in gioco con lo scopo di ottenere un’ampia panoramica delle soluzioni che uno sviluppatore web dovrà prendere in considerazione per realizzare un sistema di importanti dimensioni; in particolare sarà approfondito il linguaggio TypeScript proposto da Microsoft, il quale è nato in successione a Dart apparentemente con lo stesso scopo, ma grazie alla compatibilità con JavaScript e soprattutto con il vasto mondo di librerie legate ad esso nate in questi ultimi anni, si presenta nel mercato come tecnologia facile da apprendere per tutti gli sviluppatori che già da tempo hanno sviluppato abilità nella programmazione JavaScript.
Resumo:
Questa Tesi aspira a mostrare un codice a livello di pacchetto, che abbia performance molto vicine a quello ottimo, per progetti di comunicazioni Satellitari. L’altro scopo di questa Tesi è quello di capire se rimane ancora molto più difficile maneggiare direttamente gli errori piuttosto che le erasures. Le applicazioni per comunicazioni satellitari ora come ora usano tutte packet erasure coding per codificare e decodificare l’informazione. La struttura dell’erasure decoding è molto semplice, perché abbiamo solamente bisogno di un Cyclic Redundancy Check (CRC) per realizzarla. Il problema nasce quando abbiamo pacchetti di dimensioni medie o piccole (per esempio più piccole di 100 bits) perché in queste situazioni il costo del CRC risulta essere troppo dispendioso. La soluzione la possiamo trovare utilizzando il Vector Symbol Decoding (VSD) per raggiungere le stesse performance degli erasure codes, ma senza la necessità di usare il CRC. Per prima cosa viene fatta una breve introduzione su come è nata e su come si è evoluta la codifica a livello di pacchetto. In seguito è stato introdotto il canale q-ary Symmetric Channel (qSC), con sia la derivazione della sua capacità che quella del suo Random Coding Bound (RCB). VSD è stato poi proposto con la speranza di superare in prestazioni il Verification Based Decoding (VBD) su il canale qSC. Infine, le effettive performance del VSD sono state stimate via simulazioni numeriche. I possibili miglioramenti delle performance, per quanto riguarda il VBD sono state discusse, come anche le possibili applicazioni future. Inoltre abbiamo anche risposto alla domande se è ancora così tanto più difficile maneggiare gli errori piuttosto che le erasure.
Resumo:
Microprocessori basati su singolo processore (CPU), hanno visto una rapida crescita di performances ed un abbattimento dei costi per circa venti anni. Questi microprocessori hanno portato una potenza di calcolo nell’ordine del GFLOPS (Giga Floating Point Operation per Second) sui PC Desktop e centinaia di GFLOPS su clusters di server. Questa ascesa ha portato nuove funzionalità nei programmi, migliori interfacce utente e tanti altri vantaggi. Tuttavia questa crescita ha subito un brusco rallentamento nel 2003 a causa di consumi energetici sempre più elevati e problemi di dissipazione termica, che hanno impedito incrementi di frequenza di clock. I limiti fisici del silicio erano sempre più vicini. Per ovviare al problema i produttori di CPU (Central Processing Unit) hanno iniziato a progettare microprocessori multicore, scelta che ha avuto un impatto notevole sulla comunità degli sviluppatori, abituati a considerare il software come una serie di comandi sequenziali. Quindi i programmi che avevano sempre giovato di miglioramenti di prestazioni ad ogni nuova generazione di CPU, non hanno avuto incrementi di performance, in quanto essendo eseguiti su un solo core, non beneficiavano dell’intera potenza della CPU. Per sfruttare appieno la potenza delle nuove CPU la programmazione concorrente, precedentemente utilizzata solo su sistemi costosi o supercomputers, è diventata una pratica sempre più utilizzata dagli sviluppatori. Allo stesso tempo, l’industria videoludica ha conquistato una fetta di mercato notevole: solo nel 2013 verranno spesi quasi 100 miliardi di dollari fra hardware e software dedicati al gaming. Le software houses impegnate nello sviluppo di videogames, per rendere i loro titoli più accattivanti, puntano su motori grafici sempre più potenti e spesso scarsamente ottimizzati, rendendoli estremamente esosi in termini di performance. Per questo motivo i produttori di GPU (Graphic Processing Unit), specialmente nell’ultimo decennio, hanno dato vita ad una vera e propria rincorsa alle performances che li ha portati ad ottenere dei prodotti con capacità di calcolo vertiginose. Ma al contrario delle CPU che agli inizi del 2000 intrapresero la strada del multicore per continuare a favorire programmi sequenziali, le GPU sono diventate manycore, ovvero con centinaia e centinaia di piccoli cores che eseguono calcoli in parallelo. Questa immensa capacità di calcolo può essere utilizzata in altri campi applicativi? La risposta è si e l’obiettivo di questa tesi è proprio quello di constatare allo stato attuale, in che modo e con quale efficienza pùo un software generico, avvalersi dell’utilizzo della GPU invece della CPU.
Resumo:
Il complesso residenziale “Pilastro” costruito tra il 1962 e il 1985 si trova a Bologna, a nord del quartiere San Donato, oltre la linea tracciata dalla tangenziale e si è costituito in tre fasi, corrispondenti ai tre comparti di intervento: il nucleo di prima realizzazione, il “Virgolone” e le torri. Il tema affrontato in questa tesi, elaborato all’interno del laboratorio di sintesi finale Architettura sostenibile, riguarda la definizione di strategie di intervento per la riqualificazione del comparto di “Primo impianto” che attualmente presenta molteplici criticità: - debole coesione sociale ed episodi di disagio e micro-criminalità - inadeguatezza sismica - scarse prestazioni energetiche degli edifici Il progetto si è proposto l’obbiettivo di ricucire e rifunzionalizzare l’intero comparto, investendo in modo integrato gli aspetti urbanistico, architettonico e tecnologico, in modo da influire positivamente sulle condizioni socio-economiche dell’insediamento.
Educazione sostenibile. Progetto di riqualificazione del complesso scolastico Ponte Pietra a Cesena.
Resumo:
Oggetto di questa tesi è la riqualificazione energetica del complesso scolastico, formato dalla scuola materna "i Girasoli" e dalla scuola elementare "il Gelso", localizzate a Ponte Pietra, frazione di Cesena. La strategia di intervento prevede l'assunzione degli obiettivi funzionali fissati dall‟Amministrazione, ma anche una riqualificazione urbana del sito in esame e una riqualificazione architettonica delle due scuole. Per definire gli obiettivi di progetto e quindi le strategie da adottare, è stata effettuata una analisi dell'area in cui si andava ad operare e soprattutto una analisi dei due edifici in oggetto. A scala urbana, analizzando le funzioni dell'area di intervento è emerso che il lotto all‟interno del quale è inserito il polo scolastico è centrale per la frazione, ospitando infatti i principali edifici pubblici. Dall‟ analisi sono emerse diverse criticità, tra cui la localizzazione su una strada ad alto scorrimento, si è perciò previsto di inserire una "zona 30" e di riqualificare i percorsi esistenti, per garantire la massima permeabilità e valorizzare la fruizione pedonale dell'area. Per quanto concerne le funzioni, il progetto ha proposto di recuperare un edificio di quest‟area e adibirlo a spazio ricreativo costituendo un polo attrattivo che aumenti la fruizione dell‟area in ogni ora della giornata e che sia anche punto di incontro per la comunità, sia per i più piccoli sia per gli anziani. A scala architettonica, gli due edifici presentano numerosi inconvenienti. Innanzi tutto la relazione con il contesto: l‟ingresso alle due scuole risulta infatti pericoloso perché localizzato sulla strada a scorrimento veloce, e inoltre scomodo perché servito da un insufficiente parcheggio. All‟interno degli edifici,la disposizione degli spazi non permette di sfruttare appieno le potenzialità delle due piccole scuole, inoltre alcuni ambienti risultano sottodimensionati rispetto alla normativa vigente. Il progetto prevede una ridistribuzione interna dei vari ambienti, anche per consentire agli edifici di soddisfare le mutate esigenze dell'utenza . Per quanto concerne gli obiettivi di contenimento dei consumi energetici dell‟edificio fissati dall'Amministrazione, il fabbisogno attuale è stato verificato tramite un software certificato. Quindi si è proceduto ipotizzando diversi step di progressivo miglioramento delle prestazioni energetiche, simulate tramite il software, fino a fare raggiungere agli edifici la Classe energetica A. Ciò ha richiesto di intervenire sia sull'involucro che sul sistema impiantistico esistente. La tesi ha valutato anche alcuni elementi del quadro economico e finanziario dell'intervento, determinando il tempo di ritorno degli investimenti necessari per la riqualificazione energetica, in relazione alla riduzione dei consumi futuri che essa è permette di conseguire.
Resumo:
Oggetto di questa tesi di Laurea è la progettazione di un insediamento sostenibile a Bertinoro (FC), in un’area a sud-ovest del centro urbano, in una posizione strategica per l’arrivo e l’accesso alla città alta. Coerentemente con le indicazioni dell’Amministrazione Comunale, l’intervento comprende la realizzazione di edifici terziari e residenziali, di un parcheggio di attestazione per il borgo di Bertinoro, e la riqualificazione dell’area verde ai piedi delle mura storiche. La progettazione ha adottato un approccio integrato dal punto di vista compositivo e costruttivo, mostrando particolare attenzione ai temi ambientali, assunti come determinanti per ambire ad elevati livelli di benessere per gli abitanti e per i fruitori del nuovo polo urbano. Il progetto affronta due scenari: uno a scala urbana e uno a scala architettonica. Alla scala urbana si è scelto di valorizzare e potenziare il sistema di percorsi pedonali esistenti che consente il collegamento tra le diverse parti della città, valorizzando il paesaggio come risorsa primaria. La definizione delle strategie urbane è stata prioritaria, tenendo in considerazione una gestione sostenibile del territorio. Intervenendo in un luogo caratterizzato da forti pendii – sia naturali sia, in parte, anche artificiali- che rendono difficile la mobilità, la tesi si è posta come obiettivo la riduzione dei flussi veicolari all’interno del centro storico, garantendo nel contempo la completa accessibilità di quest’ultimo attraverso nuovi percorsi di risalita nel verde, che possano incentivare la mobilità pedonale. Questo ha portato ad un studio dei percorsi pedonali di Bertinoro e ad una ricerca sui vari tipi di parcheggio, finalizzata alla definizione della soluzione più adeguata per il luogo. Alla scala architettonica, per assicurare l’integrazione del nuovo intervento con il contesto locale e il territorio, il progetto ha condotto un’approfondita analisi del sito, affrontando lo studio di elementi del contesto sociale, culturale, ambientale e paesaggistico. A questi si è affiancata l'analisi degli aspetti relativi al clima, funzionali alla scelta dell’esposizione e sagoma volumetrica degli edifici. La complessità del progetto è stata quella di dare uguale importanza a dati oggettivi e quantificabili, come orientamento, apporti solari, impianti, senza tralasciare i valori storico-paesaggistici di questi luoghi. La sfida è stata quindi quella di progettare un insediamento urbano con requisiti energetici aventi un impatto ambientale sostenibile. La complessità del progetto è stata quella di dare uguale importanza a dati oggettivi e quantificabili, come orientamento, apporti solari, impianti, senza tralasciare i valori storico-paesaggistici, risorsa fondamentale per questi luoghi. La sfida è stata quindi quella di progettare un insediamento dotato di prestazioni energetiche sensibilmente più elevate rispetto alle soglie stabilite dalla normativa e di riuscire ad integrare nel contesto, con il minor impatto ambientale e percettivo, l’intero insediamento urbano. Per garantire un corretto rapporto tra costruito e contesto urbano si è deciso di utilizzare materiali da rivestimento della tradizione locale, come la pietra e l’intonaco, e di attenuare l’impatto visivo del costruito con l’impiego di coperture verdi che possono restituire, in quota, il suolo occupato dai volumi edificati. Il titolo “la nuova porta urbana” sintetizza l’idea del nostro progetto; un progetto che non si limita all’area d’intervento ma guarda ben oltre cercando un rapporto con la città storica e un legame con essa diventando un nuovo polo funzionale e un nuovo accesso per Bertinoro. Durante tutto il processo progettuale si è operato verificando contestualmente ogni scelta dal punto di vista architettonico, tecnologico ed energetico, puntando ad un progetto che possa essere definito sostenibile a tutte le sue scale: urbana e architettonica. La realizzazione di edifici tecnologicamente efficienti dal punto di vista delle prestazioni energetiche rappresenta la premessa per la formazione di una città più responsabile e rispettosa nei confronti dell’ambiente che la circonda.
Resumo:
Oggetto di questa tesi di Laurea è la riqualificazione della Scuola d’Infanzia Diana a Reggio nell’Emilia (RE), svolta con particolare attenzione al comfort ambientale interno e alla ricerca di una relazione con il contesto urbano e sociale circostante. I soggetti interessati al progetto sono due: l’Istituzione Scuole e Nidi d’Infanzia del comune di Reggio Emilia, che dal 2003 si occupa dei servizi educativi comunali, e la società “Reggio Children”, che opera al fine di “esportare” all’estero gli esempi delle scuole reggiane. L’interesse nei confronti di questo asilo nasce dalla notevole importanza che esso ricopre nel panorama nazionale e mondiale in riferimento al modello educativo applicato. L’edificio presenta inoltre alcuni interessanti caratteri: collocato in una posizione strategica rispetto alla città, si trova nel cuore dei Giardini Pubblici, circondato da alcuni dei principali monumenti. Tuttavia, un’analisi approfondita ha evidenziato alcune criticità, che questo lavoro ha cercato di risolvere. La problematica principale rilevata, che la tesi ha affrontato, riguarda il benessere degli utenti. Dal punto di vista della fruibilità degli spazi, poi, si riscontra il sottodimensionamento del grande-atelier in relazione alle esigenze del modello pedagogico, nonché la necessità di una riorganizzazione degli arredi, al fine di rendere gli ambienti più vivibili. A ciò si affiancano, infine, l’inefficienza energetica dell’involucro, la vulnerabilità sismica dell’edificio e la mancanza di adeguate connessioni tra asilo, verde di pertinenza e parco pubblico. Al centro delle strategie progettuali c’è il bambino, che diventa il “vero committente”, ossia il soggetto di cui soddisfare esigenze e desideri. Si è cercato quindi di realizzare un ambiente confortevole e sicuro, agendo sull’involucro, sul sistema impiantistico, e rinforzando la struttura dell’edificio. A scala architettonica la complessità del progetto è stata quella di dotare l’asilo degli spazi necessari. Si è quindi prevista la realizzazione di un ampliamento, puntando a conseguire prestazioni energetiche più elevate rispetto agli standard fissati dalla dalla normativa, cercando di non alterare i caratteri del luogo e di interagire con il contesto. Durante tutto l’iter progettuale si è dunque operato verificando contestualmente ogni scelta dal punto di vista architettonico, tecnologico ed energetico e puntando ad una soluzione attuabile per fasi.
Resumo:
In questa Tesi di Dottorato di Ricerca sono state studiate le caratteristiche strutturali e le relative prestazioni dei sistemi strutturali cellulari a pareti tozze di tipo sandwich in c. a. gettato in opera realizzate con la tecnologia del pannello di supporto in polistirene. Tali sistemi strutturali sono caratterizzati da numerose peculiarità; infatti, (i) il comportamento globale delle strutture risulta essere di tipo cellulare, e, le pareti che costituiscono il sistema resistente alle azioni sia orizzontali che verticali risultano essere: (ii) tozze, (iii) di tipo sandwich e caratterizzate da: (iv) basse percentuali di armatura, (v) ridotti tassi di lavoro a sforzo assiale e (vi) stesso quantitativo di armatura orizzontale e verticale. Date le specificità dei sistemi strutturali in esame, si è, in primo luogo, cercato di inquadrare le peculiarità strutturali sopra elencate nell’ambito scientifico. Ciò ha consentito di riscontrare una profonda carenza nella conoscenza relativa al comportamento di tali strutture specialmente nei confronti delle azioni orizzontali di tipo sismico. Pertanto i due principali obiettivi di questa Tesi di Dottorato sono stati: (1) la sistematizzazione scientifica e la relativa interpretazione di 10 anni di prove sperimentali condotte sul sistema strutturale in esame; e (2) la progettazione, la realizzazione e l’interpretazione preliminare dei risultati di una prova su tavola vibrante di una struttura a tre piani con pianta rettangolare, realizzata con la tecnologia del pannello di supporto in polistirene (la prova è stata effettuata nell’ambito del progetto di ricerca Europeo SERIES). Questa ricerca ha dunque consentito di far luce sul comportamento (in particolar modo, nei confronti delle azioni orizzontali di tipo sismico) dei sistemi strutturali composti da pareti tozze di tipo sandwich in c. a. gettato in opera realizzati con la tecnologia del pannello di supporto in polistirene.
Resumo:
Nella prima parte viene ricostruito il concetto di vincolo espropriativo alla luce dell’elaborazione della giurisprudenza della Corte costituzionale e della Corte EDU, giungendo alla conclusione che rientrano in tale concetto le limitazioni al diritto di proprietà che: - derivano da scelte discrezionali dell’Amministrazione non correlate alle caratteristiche oggettive del bene; - superano la normale tollerabilità nel senso che impediscono al proprietario la prosecuzione dell’uso in essere o incidono sul valore di mercato del bene in modo sproporzionato rispetto alle oggettive caratteristiche del bene e all’interesse pubblico perseguito. Ragione di fondo della teoria dei vincoli è censurare l’eccessiva discrezionalità del potere urbanistico, imponendo una maggiore obiettività e controllabilità delle scelte urbanistiche. Dalla teoria dei vincoli consegue altresì che nell’esercizio del potere urbanistico l’Amministrazione, pur potendo differenziare il territorio, deve perseguire l’obiettivo del riequilibrio economico degli interessi incisi dalle sue determinazioni. L’obbligo della corresponsione dell’indennizzo costituisce la prima forma di perequazione urbanistica. Nel terzo e nel quarto capitolo viene analizzata la giurisprudenza civile e amministrativa in tema di vincoli urbanistici, rilevandone la non corrispondenza rispetto all’elaborazione della Corte costituzionale e l’incongruità dei risultati applicativi. Si evidenzia in particolare la necessità del superamento del criterio basato sulla distinzione zonizzazioni-localizzazioni e di considerare conformative unicamente quelle destinazioni realizzabili ad iniziativa privata che in concreto consentano al proprietario di conseguire un’utilità economica proporzionata al valore di mercato del bene. Nel quinto capitolo viene analizzato il rapporto tra teoria dei vincoli e perequazione urbanistica, individuandosi il discrimine tra i due diversi istituti non solo nel consenso, ma anche nella proporzionalità delle reciproche prestazioni negoziali. Attraverso la perequazione non può essere attribuito al proprietario un’utilità inferiore a quella che gli deriverebbe dall’indennità di esproprio.
Resumo:
I sistemi di versionamento moderni quali "git" o "svn" sono ad oggi basati su svariati algoritmi di analisi delle differenze (detti algoritmi di diffing) tra documenti (detti versioni). Uno degli algoritmi impiegati con maggior successo a tal proposito è il celebre "diff" di Unix. Tale programma è in grado di rilevare le modifiche necessarie da apportare ad un documento al fine di ottenerne un altro in termini di aggiunta o rimozione di linee di testo. L'insieme di tali modifiche prende nome di "delta". La crescente richiesta e applicazione dei documenti semi-strutturati (ed in particolar modo dei documenti XML) da parte della comunità informatica soprattutto in ambito web ha motivato la ricerca di algoritmi di diffing più raffinati che operino al meglio su tale tipologia di documenti. Svariate soluzioni di successo sono state discusse; algoritmi ad alte prestazioni capaci di individuare differenze più sottili della mera aggiunta o rimozione di testo quali il movimento di interi nodi, il loro riordinamento finanche il loro incapsulamento e così via. Tuttavia tali algoritmi mancano di versatilità. L'incapsulamento di un nodo potrebbe essere considerata una differenza troppo (o troppo poco) generale o granulare in taluni contesti. Nella realtà quotidiana ogni settore, pubblico o commerciale, interessato a rilevare differenze tra documenti ha interesse nell'individuarne sempre e soltanto un sottoinsieme molto specifico. Si pensi al parlamento italiano interessato all'analisi comparativa di documenti legislativi piuttosto che ad un ospedale interessato alla diagnostica relativa alla storia clinica di un paziente. Il presente elaborato di tesi dimostra come sia possibile sviluppare un algoritmo in grado di rilevare le differenze tra due documenti semi-strutturati (in termini del più breve numero di modifiche necessarie per trasformare l'uno nell'altro) che sia parametrizzato relativamente alle funzioni di trasformazione operanti su tali documenti. Vengono discusse le definizioni essenziali ed i principali risultati alla base della teoria delle differenze e viene dimostrato come assunzioni più blande inducano la non calcolabilità dell'algoritmo di diffing in questione.
Resumo:
Il presente progetto di ricerca analizza quella particolare forma di affidamento diretto dei servizi pubblici denominata in house providing e si articola in tre sezioni. Nella prima sezione viene analizzata la disciplina dei servizi pubblici locali nell’ordinamento italiano mediante un excursus normativo dai primi del 900 ad oggi; la seconda sezione è dedicata alla disciplina dell’affidamento dei servizi pubblici locali di trasporto; la terza sezione, infine, descrive l’in house providing e l’elaborazione pretoria di tale istituto operata dalla giurisprudenza comunitaria. Come noto, la pubblica amministrazione può soddisfare le sue esigenze secondo due diverse modalità: ricorrendo al libero mercato come qualsiasi altro operatore economico oppure auto-producendo i beni e i servizi di cui necessita. Infatti, nonostante il diritto comunitario imponga il rispetto del principio di tutela della concorrenza, lascia impregiudicato il potere di auto-organizzazione in capo alle pubbliche amministrazioni negli Stati membri, le quali potranno scegliere di agire “in economia” o di ricorrere alle prestazioni di operatori terzi. Con la locuzione di derivazione comunitaria in house providing si definisce quel modello organizzativo mediante il quale le pubbliche amministrazioni realizzano le attività di loro competenza attraverso i propri organismi, cioè senza ricorrere al libero mercato per procurarsi i lavori, i servizi e le forniture ad esse occorrenti o per erogare alla collettività prestazioni di pubblico servizio, in deroga ai principi comunitari sulla tutela della concorrenza stabiliti nel Trattato istitutivo della Comunità Europea, che invece imporrebbero lo svolgimento di gare ad evidenza pubblica per l'affidamento di tali servizi. Tuttavia, come chiarito dalla giurisprudenza comunitaria e nazionale, affinché la procedura di gara non sia necessaria, occorre che tra l’amministrazione e il prestatore ci sia sostanziale identità, nonostante le distinte personalità giuridiche, in modo tale da configurare il contratto tra le stesse intercorso come un atto di organizzazione interna.
Resumo:
Life Cycle Assessment (LCA) is a chain-oriented tool to evaluate the environment performance of products focussing on the entire life cycle of these products: from the extraction of resources, via manufacturing and use, to the final processing of the disposed products. Through all these stages consumption of resources and pollutant releases to air, water, soil are identified and quantified in Life Cycle Inventory (LCI) analysis. Subsequently to the LCI phase follows the Life Cycle Impact Assessment (LCIA) phase; that has the purpose to convert resource consumptions and pollutant releases in environmental impacts. The LCIA aims to model and to evaluate environmental issues, called impact categories. Several reports emphasises the importance of LCA in the field of ENMs. The ENMs offer enormous potential for the development of new products and application. There are however unanswered questions about the impacts of ENMs on human health and the environment. In the last decade the increasing production, use and consumption of nanoproducts, with a consequent release into the environment, has accentuated the obligation to ensure that potential risks are adequately understood to protect both human health and environment. Due to its holistic and comprehensive assessment, LCA is an essential tool evaluate, understand and manage the environmental and health effects of nanotechnology. The evaluation of health and environmental impacts of nanotechnologies, throughout the whole of their life-cycle by using LCA methodology. This is due to the lack of knowledge in relation to risk assessment. In fact, to date, the knowledge on human and environmental exposure to nanomaterials, such ENPs is limited. This bottleneck is reflected into LCA where characterisation models and consequently characterisation factors for ENPs are missed. The PhD project aims to assess limitations and challenges of the freshwater aquatic ecotoxicity potential evaluation in LCIA phase for ENPs and in particular nanoparticles as n-TiO2.
Resumo:
Negli ultimi anni l’interesse nei confronti dell’H2 è cresciuto notevolmente per l’aumento della richiesta energetica mondiale. Uno dei processi più importanti per la produzione di H2 utilizza la reazione di Water-Gas Shift (WGS) per il trattamento delle correnti in uscita dai processi di steam reforming o di ossidazione parziale catalitica. CO + H2O CO2 + H2 ∆H0298 = -41,2 KJ/mol Sono quindi stati sviluppati sistemi catalitici attivi nella reazione di WGS a media temperatura (circa 300 °C). Partendo da sistemi catalitici a base di Cu/Zn/Al, ottenuti da precursori idrotalcitici e sviluppati in lavori di tesi precedenti, sono state effettuate modifiche nella composizione al fine di aumentarne l’attività e la stabilità. L’aggiunta di piccole quantità di Mg ha un effetto positivo sull’attività dei sistemi catalitici, con effetti più evidenti a 250 °C. Tuttavia, l’aumento del contenuto di Mg, sebbene migliori le proprietà fisiche del catalizzatore (area superficiale e dispersione del Cu) sia del campione calcinato che di quello scaricato dopo reazione, peggiora drasticamente l’attività catalitica. L’aggiunta di piccole quantità di Mg sembra portare alla stabilizzazione della specie attiva Cu+ e promuovere un meccanismo redox superficiale (Cu0 e Cu+). E’ possibile correlare la conversione del CO con il rapporto ZnO/Cu, confermando il ruolo nella reazione di WGS dell’interazione Cu0/ZnO libero. La sostituzione di Mg con Ba comporta un miglioramento delle prestazioni catalitiche, in particolare nelle condizioni MTS (300 °C), suggerendo una più facile dissociazione dell’acqua legata alla stabilizzazione degli ossidrili da parte dei siti basici. È però accompagnato da una diminuzione della stabilità nelle condizioni di reazione. L’aggiunta di piccole quantità di La, Ce o Zr (con un rapporto Al/R = 50 mol/mol) incrementa la stabilità termica, sia in termini di proprietà fisiche che di attività catalitica. A seguito dei cicli termici di invecchiamento accelerato, infatti, non si riscontrano importanti diminuzioni di attività catalitica, evidenziando un’elevata stabilità della fase attiva.
Resumo:
Ci si propone di ottimizzare un piccolo motore bicilindrico per uso aeronautico e di trovare una soluzione adeguata per equilibrare il motore stesso. Il propulsore è un motore bicilindrico quattro tempi 500 cc, di derivazione motociclistica, convertito al campo aeronautico. L’installazione del motore sarà nel futuro rivolta agli aeromobili ultraleggeri. Visti i pesi massimi al decollo imposti dalle regolamentazione, dobbiamo far si che il motore sia il più leggero possibile. Lo studio in questione si suddivide in due parti fondamentali: la valutazione di quale sia la soluzione migliore per costruire un motore bicilindrico, con cilindri in linea o in tandem, e la riprogettazione dei cilindri, della testata, dell’albero motore e del sistema di equilibratura utilizzando come software di disegno SolidWorks. Lo studio è nato dalla volontà di progettare un piccolo motore in grado di essere concorrenziale in termini di affidabilità e di prestazioni con i maggiori produttori di motori per ultraleggeri, l’azienda austriaca Rotax che detiene di monopolio, Jabiru, HKS ed altre marche meno importanti.
Resumo:
Studio e dimensionamento di un compressore assiale da inserire in un gruppo turbofan in cui la camera di combustione verrebbe sostituita da un motore diesel ad alte prestazioni che a sua volta andrebbe, tramite un riduttore, a trascinare il gruppo delle eliche; inoltre i gas combusti fornirebbero energia ad una turbina per il funzionamento del compressore assiale stesso.