1000 resultados para Analisi Layout,simulazione,ottimizzazione,analisi dei flussi,magazzino
Resumo:
L’analisi condotta nella tesi mira ad indagare le determinanti del debito delle piccole e medie imprese italiane: la domanda di ricerca è indirizzata a capire se la struttura finanziaria di queste ultime segue i modelli teorici sviluppati nell’ambito della letteratura di Corporate Finance o se, d’altro canto, non sia possibile prescindere dalle peculiarità delle piccole e medie imprese per spiegare il ricorso alle diverse fonti di finanziamento. La ricerca empirica effettuata nella dissertazione vuole essere un tentativo di coniugare le teorie di riferimento e le evidenze empiriche relative alle piccole e medie imprese italiane, analizzandone il comportamento attraverso lo studio del campione di dati fornito da Capitalia, relativo alla Nona Indagine per il periodo 2001-2003. Il campione in oggetto fa riferimento a circa 4000 imprese con più di 10 addetti, prevalentemente del settore manifatturiero. Per indagare le determinanti del debito nelle sue componenti più tradizionali, si sono prese in considerazione il debito commerciale e il debito bancario a breve termine come forme di finanziamento correnti mentre, tra le forme di finanziamento di medio-lungo periodo, le variabili usate sono state il ricorso al debito bancario a lungo termine e a strumenti obbligazionari. Inoltre, si è ricorso anche a misure più tradizionali di leva finanziaria, quali il rapporto di indebitamento, la proporzione tra debiti bancari, sia di breve che di lungo periodo, e l’ammontare dei finanziamenti esterni rispetto al valore dell’impresa, distinguendo anche qui, tra finanziamenti a breve e a lungo termine. L’analisi descrittiva ha mostrato il massiccio ricorso al debito bancario e, in generale, alle forme di indebitamento a breve. Le imprese di dimensioni minori, più giovani e opache tendono a ricorrere alle fonti interne e a forme di indebitamento a breve, mentre le imprese maggiormente dimensionate mostrano una struttura del debito più articolata. Questo ha suggerito la definizione di una diversa misura di debito, che tiene conto della complessità della sua struttura all’interno delle imprese, in base ad un ricorso di tipo gerarchico alle fonti di finanziamento: il grado di complessità dipende dalle tipologie e dalla quantità dei contratti di debito conclusi dall’impresa . E’ plausibile pensare che le imprese ricorrano prima alle fonti interne di finanziamento, perché prive di costi, e poi all’indebitamento nei confronti di diversi stakeholders: rispetto alla prossimità e alla facilità dell’ottenimento del finanziamento, è sembrato naturale pensare che un’impresa ricorra dapprima al debito commerciale, poi al debito bancario e solo infine all’emissione di obbligazioni, in un ordine gerarchico. Ne consegue che se un’impresa (non) ha contratto debiti con fornitori, banche e mercato, la complessità della struttura del suo debito è massima (nulla). L’analisi econometrica successiva è stata indirizzata in tre direzioni. In primis, l’analisi longitudinale dei dati è stata volta ad evidenziare se la struttura finanziaria delle PMI risponde ad un particolare modello teorico, in accordo con le teoria tradizionali di riferimento. In secondo luogo, l’analisi delle determinanti si è allargata allo studio degli aspetti peculiari delle imprese medio-piccole. Infine, si è indagato se, nell’ambito delle imprese di dimensioni minori, si osservano comportamenti omogenei oppure se determinate scelte nelle fonti di finanziamento sono da ricondurre all’esistenza di alcuni vincoli. Quindi, partendo dalla rassegna dei principali riferimenti nella letteratura, costituiti dalla Trade-off theory (Modigliani e Miller, 1963, De Angelo e Masulis, 1980, Miller, 1977), dalla Pecking order theory (Myers 1984, Myers e Majluf, 1984) e dalla Financial growth cycle theory (Berger e Udell, 1998), una prima serie di analisi econometriche è stata rivolta alla verifica empirica delle teorie suddette. Una seconda analisi mira, invece, a capire se il comportamento delle imprese possa essere spiegato anche da altri fattori: il modello del ciclo di vita dell’impresa, mutuato dalle discipline manageriali, così come il contesto italiano e la particolarità del rapporto bancaimpresa, hanno suggerito l’analisi di altre determinanti al ricorso delle diverse fonti di debito. Di conseguenza, si sono usate delle opportune analisi econometriche per evidenziare se la struttura proprietaria e di controllo dell’impresa, il suo livello di complessità organizzativa possano incidere sulla struttura del debito delle imprese. Poi, si è indagato se il massiccio ricorso al debito bancario è spiegato dalle peculiarità del rapporto banca-impresa nel nostro Paese, rintracciabili nei fenomeni tipici del relationship lending e del multiaffidamento. Ancora, si sono verificati i possibili effetti di tale rapporto sulla complessità della struttura del debito delle imprese. Infine, l’analisi della letteratura recente sulla capital structure delle imprese, l’approccio sviluppato da Fazzari Hubbard e Petersen (1988) e Almeida e Campello (2006 , 2007) ha suggerito un ultimo livello di analisi. La presenza di vincoli nelle decisioni di finanziamento, legati essenzialmente alla profittabilità, alla dimensione delle imprese, alle sue opportunità di crescita, e alla reputazione verso l’esterno, secondo la letteratura recente, è cruciale nell’analisi delle differenze sistematiche di comportamento delle imprese. Per di più, all’interno del lavoro di tesi, così come in Almeida e Campello (2007), si è ipotizzato che la propensione agli investimenti possa essere considerata un fattore endogeno rispetto alla struttura del debito delle imprese, non esogeno come la letteratura tradizionale vuole. Per questo motivo, si è proceduto ad un ultimo tipo di analisi econometrica, volta a rilevare possibili differenze significative nel comportamento delle imprese rispetto al ricorso alle fonti di finanziamento a titolo di debito: nel caso in cui esse presentino una dimensione contenuta, una bassa redditività e una scarsa reputazione all’esterno infatti, vi dovrebbe essere un effetto di complementarietà tra fonti interne ed esterne. L’effetto sarebbe tale per cui non sussisterebbe, o per lo meno non sarebbe significativa, una relazione negativa tra fonti interne ed esterne. Complessivamente, i risultati delle analisi empiriche condotte, supportano sia le teorie classiche di riferimento nell’ambito della disciplina della Corporate finance, sia la teoria proposta da Berger e Udell (1998): le variabili che risultano significative nella spiegazione della struttura del debito sono principalmente quelle relative alla dimensione, all’età, al livello e alla qualità delle informazioni disponibili. Inoltre, il ricorso a fonti interne risulta essere la primaria fonte di finanziamento, seguita dal debito. Il ricorso a fonti esterne, in particolare al debito bancario, aumenta quanto più l’impresa cresce, ha una struttura solida e la capacità di fornire delle garanzie, e ha una reputazione forte. La struttura del debito, peraltro, diventa più complessa all’aumentare della dimensione, dell’età e del livello di informazioni disponibili. L’analisi della struttura proprietaria e della componente organizzativa all’interno delle imprese ha evidenziato principalmente che la struttura del debito aumenta di complessità con maggiore probabilità se la proprietà è diffusa, se vi è un management indipendente e se la piramide organizzativa è ben definita. Relativamente al rapporto banca-impresa, i principali risultati mostrano che l’indebitamento bancario sembra essere favorito dai fenomeni di relationship lending e dal multiaffidamento. Tali peculiarità assumono tratti diversi a seconda della fase del ciclo di vita delle imprese della Nona Indagine. Infine, per quanto attiene all’ultima tipologia di analisi condotta, le evidenze empiriche suggeriscono che le piccole e medie imprese possano essere soggette a delle restrizioni che si riflettono nell’ambito delle loro politiche di investimento. Tali vincoli, relativi alla dimensione, ai profitti conseguiti e alla reputazione all’esterno, aiutano a spiegare le scelte di finanziamento delle PMI del campione.
Resumo:
L'Appenino Emiliano è tra le zone più franose al mondo; i fenomeni che la interessano sono abbastanza lenti e quindi mai catastrofici, ma, vista la loro diffusione, molto dannosi per le infrastrutture. La ricerca della pericolosità associata alle frane si distingue in previsione spaziale e previsione temporale; la prima, detta anche suscettività, è il tema del presente lavoro. La suscettività è volta alla realizzazione di carte di propensione al dissesto, relative e indipendenti dal tempo. Dall'inizio degli anni '90 sono disponibili in letteratura diversi modelli per rispondere a questa esigenza, i quali sono generalmente costituiti da una componente geo-meccanica (di solito il modello del Pendio Infinito) e una idrologica. Il presente lavoro si concentra su quest'ultima che, nei diversi modelli, presenta la maggiore varietà, e cerca di capire quale sia il contributo che questa componente può dare all'analisi di suscettività in un'area argillosa. Per valutare questo contributo, sono stati applicati ad un'area di studio rappresentativa, diversi modelli fisicamente basati noti in letteratura o creati appositamente. Le informazioni dinamiche dei modelli transitori sono state integrate nel tempo secondo diversi metodi che tengono conto della permanenza delle condizioni critiche nel versante. I risultati dell'analisi suggeriscono che, nell'area di studio, e presumibilmente nelle aree a prevalenza argillosa in genere, per la determinazione della suscettività alle frane, il contributo di un modello fisicamente basato, completo di componente geo-meccanica e componente idrologica accoppiate, è assolutamente trascurabile rispetto ad un semplice modello geo-meccanico basato sulla sola pendenza come quello del Pendio Infinito. Le indicazioni provenienti da un modello completo possono essere ridondanti o addirittura fuorvianti se questo non è adatto alle caratteristiche dell'area in studio e ben calibrato.
Resumo:
L’obiettivo del lavoro svolto nell’ambito del ciclo di dottorato è stato quello dell’applicazione della metodologia di analisi degli scenari, nell’ottica dello studio e applicazione di un metodo di analisi integrato e multidisciplinare che consenta individuare strategie di sviluppo sostenibile in relazione alla questione indagata. Lo studio sviluppato nel corso del dottorato è stato impostato su presupposti forniti dalla Regione Toscana (in entrambi i casi di studio trattati), che ha finanziato, attraverso la sua Agenzia Regionale per lo Sviluppo e Innovazione in ambito Agricolo (ARSIA), due Progetti di ricerca volti all’individuazione di strategie di sviluppo sostenibile concernenti due tematiche di particolare interesse in ambito regionale: lo sviluppo di coltivazioni non-food (biocarburanti, biomasse da energia, biopolimeri, biolubrificanti, fibre vegetali, coloranti naturali, fitofarmaci di origine vegetale) e la valutazione della possibilità di coesistenza tra colture convenzionali (non Geneticamente Modificate) e colture GM, in relazione alla Raccomandazione della Commissione 2003/556/CE che afferma che deve essere garantita la coesistenza tra colture transgeniche, convenzionali e biologiche, ovvero che devono essere presenti le condizioni per cui ciascun metodo di coltivazione possa poter essere adottato e praticato in UE. La sostenibilità delle situazioni studiate è stata valutata fornendo informazioni non solo per la situazioni attuali, ma anche per possibili evoluzioni future, così come richiesto dai principi dello sviluppo sostenibile. A tal proposito, occorre applicare metodologie di analisi che consentano di poter identificare obiettivi strategici in funzione dei cambiamenti che potrebbero essere registrati, in corrispondenza dell’evolversi delle diverse situazioni nel tempo. La metodologia di analisi in grado di soddisfare questi requisiti può essere identificata nell’analisi di scenario (scenario analysis), che si configura come uno strumento di analisi strategica in grado di riassumere numerose informazioni e dati riferiti agli attori, agli obiettivi, agli strumenti, alle cause ed agli effetti indotti da un cambiamento che potrebbe essere provocato da uno o più fattori contemplati nel corso dell’analisi. Questo metodo di analisi rappresenta un’importante strumento di ausilio alla definizione di politiche e strategie, che si rende particolarmente utile nel campo della public choice, come dimostrato dalle applicazioni presentate nel corso del lavoro.
Resumo:
L'oggetto della seguente tesi riguarda la valutazione di impatto ambientale del ciclo di vita di un concentratore solare, mediante l'applicazione della metodologia LCA – Life Cycle Assessment. Il lavoro di tesi presenta una breve introduzione su tematiche ambientali e sociali, quali lo Sviluppo sostenibile e le energie rinnovabili, che conducono verso l'importanza della misurazione del così detto impatto ambientale, e soprattutto dell'aspetto fondamentale di una valutazione di questo tipo, vale a dire l'analisi dell'intero ciclo di vita legato ad un prodotto. Nella tesi viene presentata inizialmente la metodologia utilizzata per la valutazione, la Life Cycle Assessment, descrivendone le caratteristiche, le potenzialità, la normalizzazione in base a regolamenti internazionali ed analizzando una ad una le 4 fasi principali che la caratterizzano: Definizione dell'obiettivo e del campo di applicazione, Analisi di inventario, Valutazione degli impatti e Interpretazione dei risultati. Il secondo capitolo presenta una descrizione dettagliata dello strumento applicativo utilizzato per l'analisi, il SimaPro nella versione 7.1, descrivendone le caratteristiche principali, l'interfaccia utente, le modalità di inserimento dei dati, le varie rappresentazioni possibili dei risultati ottenuti. Sono descritti inoltre i principali database di cui è fornito il software, che contengono una moltitudine di dati necessari per l'analisi di inventario, ed i così detti metodi utilizzati per la valutazione, che vengono adoperati per “focalizzare” la valutazione su determinate categorie di impatto ambientale. Il terzo capitolo fornisce una descrizione dell'impianto oggetto della valutazione, il CHEAPSE, un concentratore solare ad inseguimento per la produzione di energia elettrica e termica. La descrizione viene focalizzata sui componenti valutati per questa analisi, che sono la Base e la struttura di sostegno, il Pannello parabolico in materiale plastico per convogliare i raggi solari ed il Fuoco composto da celle fotovoltaiche. Dopo aver analizzato i materiali ed i processi di lavorazione necessari, vengono descritte le caratteristiche tecniche, le possibili applicazioni ed i vantaggi del sistema. Il quarto ed ultimo capitolo riguarda la descrizione dell'analisi LCA applicata al concentratore solare. In base alle varie fasi dell'analisi, vengono descritti i vari passaggi effettuati, dalla valutazione e studio del progetto al reperimento ed inserimento dei dati, passando per la costruzione del modello rappresentativo all'interno del software. Vengono presentati i risultati ottenuti, sia quelli relativi alla valutazione di impatto ambientale dell'assemblaggio del concentratore e del suo intero ciclo di vita, considerando anche lo scenario di fine vita, sia i risultati relativi ad analisi comparative per valutare, dal punto di vista ambientale, modifiche progettuali e processuali. Per esempio, sono state comparate due modalità di assemblaggio, tramite saldatura e tramite bulloni, con una preferenza dal punto di vista ambientale per la seconda ipotesi, ed è stato confrontato l'impatto relativo all'utilizzo di celle in silicio policristallino e celle in silicio monocristallino, la cui conclusione è stata che l'impatto delle celle in silicio policristallino risulta essere minore. Queste analisi comparative sono state possibili grazie alle caratteristiche di adattabilità del modello realizzato in SimaPro, ottenute sfruttando le potenzialità del software, come l'utilizzo di dati “parametrizzati”, che ha permesso la creazione di un modello intuitivo e flessibile che può essere facilmente adoperato, per ottenere valutazioni su scenari differenti, anche da analisti “alle prime armi”.
Resumo:
Analisi in chiave economica e sociale dell'evoluzione di Internet, delle tecnologie legate al Web 2.0, dei fenomeni della pirateria, del software libero ed open source, del copyleft, dei contenuti aperti e della produzione tra pari. Introduzione dei concetti di economia del gratis ("freeconomics") e di coda lunga. Consigli manageriali pratici per i nuovi mercati digitali e per la competizione nella rete Internet.
Resumo:
Questa si ripropone in prima istanza di analizzare le origini e l’evoluzione del concetto di sostenibilità e successivamente di prendere in considerazione uno dei tanti mezzi che consentono di perseguirla: la gestione della sosta. Per molti anni infatti, a partire dal momento in cui sono iniziate ad emergere le esternalità negative legate al traffico, si è pensato che quello dei parcheggi fosse solo un ulteriore problema. Solo di recente, dalla fine degli anni ’90, fatta eccezione per il caso della Gran Bretagna che ha fatto da capofila già a partire dagli anni ’80, si è iniziato a considerare la sosta come parte della soluzione dei problemi di congestione, inquinamento e di vivibilità delle città. Verrà analizzata perciò nel secondo capitolo l’evoluzione delle politiche della sosta a livello europeo, con particolare attenzione all’operato svolto dall’EPA (European Parking Association) associazione leader nel settore riconosciuta dall’Unione Europea e sostenuta da 18 Paesi membri tra cui anche l’Italia. Il lavoro svolto da quest’associazione, nata nei primi anni ’80, è quello di decidere insieme agli associati delle linee comuni da seguire per migliorare le politiche a livello europeo riguardo la gestione della sosta. Si tratta nella pratica di studi, convegni e analisi degli effetti prodotti da provvedimenti intrapresi nelle varie città che hanno iniziato ad introdurre la regolamentazione della sosta. Sempre nel secondo capitolo saranno quindi presentate le linee guida europee nell’ambito dei parcheggi e si analizzeranno casi di “Best Practices” di alcuni Paesi che hanno introdotto provvedimenti per la gestione della sosta. Nel terzo capitolo invece viene considerata la situazione in Italia parlando in principio di Aipark, l’associazione italiana operatori nel settore dei parcheggi che partecipa alle attività dell’Epa e prendendo in esame in seguito le politiche adottate a livello nazionale e nello specifico in alcune tra le più importanti città italiane. Si vedrà come sia ancora troppo marcata la distanza del nostro Paese dai progressi registrati in altri Paesi dell’UE, con le dovute eccezioni. Per quel che riguarda l’aspetto normativo è significativo il fatto che, nonostante il riconoscimento della forte influenza che le politiche della sosta hanno sulla regolazione del traffico, ci siano ancora molte lacune legislative e che spesso la sosta non compaia tra i soggetti delle leggi in tale settore. La legislazione italiana nell’ambito dei parcheggi verrà analizzata nel quarto capitolo. Successivamente, nei capitoli 5 e 6 si parlerà delle fasi preliminari della redazione del Piano della Sosta di Casalecchio di Reno. Il Piano della Sosta è uno dei Piani Particolareggiati che costituiscono il 2° livello di progettazione del PUT (Piano Urbano del Traffico) e rappresenta uno strumento di pianificazione utile ad analizzare lo stato di fatto del sistema dei parcheggi di una città in modo da coglierne le criticità e fornire eventualmente le soluzioni per ovviare ad esse. Nel quinto capitolo viene effettuato un inquadramento territoriale di Casalecchio e si parlerà delle problematiche della sosta emerse nel PGTU (Piano Generale del Traffico Urbano) che costituisce il progetto preliminare o Piano Quadro del PUT. Le fasi attraverso le quali viene elaborato un Piano della sosta si possono sintetizzare nei seguenti punti: - Studio della normativa nazionale e locale e di esempi significativi di altre realtà nell’ambito della sosta. - Analisi dello stato di fatto in termini di domanda e offerta. - Indagini mediante incontri pubblici, distribuzione di questionari o interviste dirette, per cogliere le esigenze degli utenti che usufruiscono del servizio. - Analisi delle eventuali criticità emerse. - Progettazione del nuovo assetto della sosta. - Campagna di sensibilizzazione per fare “accettare” con più facilità i cambiamenti agli utenti. Nel sesto capitolo di questa tesi, e negli allegati si possono consultare i risultati delle indagini su domanda e offerta condotte da TPS (Transport Planning Service), azienda che svolge attività di pianificazione e progettazione, di fornitura software, oltre che indagini e rilievi nell’ambito dei trasporti. Verranno descritte le modalità di rilievo e verranno presentati i risultati ottenuti dall’elaborazione dei dati raccolti, con qualche accenno alle possibili soluzioni per risolvere le problematiche emerse. La fase di progettazione vera e propria degli interventi non verrà invece trattata in questa sede.
Resumo:
The thesis aims at inquiring into the issue of innovation and organizational and institutional change in the public administration with regard to the increasingly massive adoption of participatory devices and practices in various arenas of public policies. The field of reference regards transformations of the types of public actions and regulation systems, concerning governance. Together with the crisis of the public function and of the role played by the insitutions what is emerging are different levels of governement, both towards an over national and a local direction, and a plurality of social interlocutors, followed by a post-bureaucratic pattern of the public administration that is opening itself in the direction of environment and citizens. The public adminstration is no longer considered an inert object within the bureaucratic paradigm but as a series of communicative processes, choices, cultures and practices that actively builds itself and the environment it interacts with. Therefore, the output of the public administration isn’t the simple service being supplied but the relationship enacted with the citizen, relationship that becomes the constituent basis of adminstrative processes. The intention of thesis is to take into consideration the relation between innovation of the public administration and participatory experimentations and implementations regarded as exchanges in which citizens and the public administration hold talks and debates. The issue of the organizational change of the public administration as output and effect of inclusive deliberative practices has been analysed starting from an institutionalist approach, in other words examining the constituent features of institutions, “rediscovering” them with regard to their public nature, their ability to elaborate collective values and meanings, the social definition of problems and solutions. The participatory device employed by the Forlì city council that involved enterprises and cultural associations of the area in order to build a participatory Table, has been studied through a qualitative methodology (participant observation and semi-strutctured interviews). The analysis inquired into the public nature both of the participatory device and the administrative action itself as well as into elements pertaining the deliberative setting, the regulative reference framework and the actors which took part in the process.
Resumo:
Affrontare l’analisi critica delle traduzioni italiane di Un amour de Swann di Marcel Proust implica necessariamente un attento esame dello stile esemplare di un autore, che ha modificato, in larga misura, la concezione del romanzo e della scrittura stessa; in secondo luogo significa considerare l’altrettanto complesso lavorio intellettuale rappresentato dalla traduzione, in qualità di atto critico fondamentale. Prenderemo in esame nel capitolo primo la genesi del TP, le sue specificità narratologiche e la ricezione critica francese e italiana, per comprendere appieno l’originalità di Proust rispetto al panorama letterario dell’epoca. Nella seconda parte del primo capitolo delineeremo un excursus lungo la storia di tutte le traduzioni italiane del romanzo, accordando particolare attenzione alla figura di ogni traduttore: Natalia Ginzburg (1946), Bruno Schacherl (1946), Armando Landini (1946), Oreste Del Buono (1965), Giovanni Raboni (1978), Maria Teresa Nessi Somaini (1981), Gianna Tornabuoni (1988), Eurialo De Michelis (1990) e il traduttore, rimasto anonimo, della casa editrice La Spiga Languages (1995). Nel secondo capitolo analizzeremo la peculiarità stilistica più nota dell’autore, la sintassi. I lunghi periodi complicati da un intreccio di subordinate e sciolti solo con il ricorso a vari nessi sintattici contribuiscono a rendere la sintassi proustiana una delle sfide maggiori in sede traduttiva. Nel capitolo successivo accorderemo attenzione all’eteroglossia enunciativa, espressa nei diversi idioletti del romanzo. In sede contrastiva affronteremo la questione della trasposizione dei niveaux de langue, per poter valutare le scelte intraprese dai traduttori in un ambito altamente complesso, a causa della diversità diafasica intrinseca dei due codici. All’interno del medesimo capitolo apriremo una parentesi sulla specificità di una traduzione, quella di Giacomo Debenedetti, effettuata seguendo una personale esegesi dello stile musicale e armonico di Proust. Riserveremo al capitolo quarto lo studio del linguaggio figurato, soffermandoci sull’analisi delle espressioni idiomatiche, che vengono impiegate frequentemente da alcuni personaggi. Rivolgeremo uno sguardo d’insieme alle strategie messe in atto dai traduttori, per cercare un equivalente idiomatico o per ricreare il medesimo impatto nel lettore, qualora vi siano casi di anisomorfismo. Analizzeremo nel quinto capitolo la terminologia della moda, confrontando il lessico impiegato nel TP con le soluzioni adottate nei TA, e aprendo, inevitabilmente, una parentesi sulla terminologia storica del settore. A compimento del lavoro presenteremo la nostra proposta traduttiva di un capitolo tratto dal saggio Proust et le style di Jean Milly, per mettere in luce, tramite la sua parola autorevole, la genialità e la complessità della scrittura proustiana e, conseguentemente, il compito ardimentoso e ammirevole che è stato richiesto ai traduttori italiani.
Resumo:
Nel documento vengono principalmente trattati i principali meccanismi per il controllo di flusso per le NoC. Vengono trattati vari schemi di switching, gli stessi schemi associati all'introduzione dei Virtual Channel, alcuni low-level flow control, e due soluzioni per gli end-to-end flow control: Credit Based e CTC (STMicroelectronics). Nel corso della trattazione vengono presentate alcune possibili modifiche a CTC per incrementarne le prestazioni mantenendo la scalabilità che lo contraddistingue: queste sono le "back-to-back request" e "multiple incoming connections". Infine vengono introdotti alcune soluzioni per l'implementazione della qualità di servizio per le reti su chip. Proprio per il supporto al QoS viene introdotto CTTC: una versione di CTC con il supporto alla Time Division Multiplexing su rete Spidergon.
Resumo:
Questo lavoro ha come obiettivo l’utilizzo del Geographical Information System (GIS) per effettuare analisi di sicurezza, monitoraggio e valutazioni di impatto ambientale. Oggi, la totalità delle operazioni GIS possono essere svolte con software open source e in questa sedi si è scelto di utilizzare il GIS GRASS (Geographic Resources Analysis Support System) disponibile nei termini della GNU public license (GPL), mostrando l’usabilità e le notevoli potenzialità di tale software, nonché la qualità dei prodotti ottenibili, mai inferiori ai prodotti e agli strumenti messi a disposizione dai più radicati e diffusi programmi proprietari. Nel capitolo 4, vedremo l’applicazione all’analisi delle conseguenze di ipotetici incidenti, durante le operazioni di dismissione dell’impianto di processamento del combustibile nucleare, di Bosco Marengo (AL). Nel capitolo 5, vedremo applicazioni nel campo del monitoraggio della qualità dell’aria tramite analisi di immagini satellitari.
Resumo:
L'obiettivo di questa tesi è la discretizzazione di superfici a forma libera in gruppi di triangoli uguali tra loro. L'applicazione alle coperture in vetro e acciaio comporta un vantaggio a livello economico, nel rispetto dei vincoli architettonici e delle prestazioni strutturali. L'algoritmo utilizzato prevede una serie di iterazioni volte a trovare la forma ottimale dei triangoli approssimanti, che in seguito vengono ruotati e traslati in modo da riprodurre la forma globale iniziale nella maniera più precisa possibile. L'analisi multi-obiettivo riguarda il numero di triangoli unici usati, la spaziatura tra i triangoli, il distacco dalla superficie di riferimento e la dimensione degli elementi che deve essere compatibile con la struttura di sostegno. Vengono riportati i risultati dell'applicazione del presente metodo alla copertura "La Vela" del complesso Mixed Use Via Larga, sito in Bologna.
Resumo:
Increasingly stringent exhaust emission limits and higher fuel economy are the main drivers of the engine development process. As a consequence, the complexity of the propulsion units and its subsystems increase, due to the extensive use of sensors and actuators needed to obtain a precise control over the combustion phase. Since engine calibration process consumes most of the development time, new tools and methodologies are needed to shorten the development time and increase the performance attainable. Real time combustion analysis, based on the in-cylinder pressure signal, can significantly improve the calibration of the engine control strategies and the development of new algorithms, giving instantaneous feedback on the engine behavior. A complete combustion analysis and diagnosis system has been developed, capable of evaluating the most important indicators about the combustion process, such as indicated mean effective pressure, heat release, mass fraction burned and knock indexes. Such a tool is built on top of a flexible, modular and affordable hardware platform, capable of satisfying the requirements needed for accuracy and precision, but also enabling the use directly on-board the vehicle, due to its small form factor.
Resumo:
L’alta risoluzione nel telerilevamento termico (Thermal Remote Sensing) da aereo o satellitare si rivela molto importante nell’analisi del comportamento termico delle superfici, in particolare per lo studio dei fenomeni climatici locali dello spazio urbano. La stato termico dell'ambiente urbano è oggi motivo di grande interesse per ricercatori, organi istituzionali e cittadini. Uno dei maggiori campi di studio del comportamento termico urbano interessa il problema energetico: la riduzione dei consumi e delle emissioni di CO2 è un obiettivo primario da perseguire per uno sviluppo sostenibile, spesso supportato da criteri legislativi e progetti comunitari. Su scala differente e con caratteristiche differenti, un altro degli argomenti che scuote da anni e con notevole interesse la ricerca scientifica, è il fenomeno termico urbano che prende il nome di isola di calore; questa si sviluppa non solo in conseguenza al calore sensibile rilasciato da attività antropiche, ma anche a causa della sempre maggiore conversione del territorio rurale in urbanizzato (inurbamento), con conseguente riduzione del fenomeno dell’evapotraspirazione. Oggetto di questa dissertazione è lo studio del comportamento termico delle superfici in ambito urbano, sperimentato sulla città di Bologna. Il primo capitolo si interessa dei principi e delle leggi fisiche sui quali è basato il telerilevamento effettuato nelle bende spettrali dell’infrarosso termico. Viene data una definizione di temperatura radiometrica e cinematica, tra loro legate dall’emissività. Vengono esposti i concetti di risoluzione (geometrica, radiometrica, temporale e spettrale) dell’immagine termica e viene data descrizione dei principali sensori su piattaforma spaziale per l’alta risoluzione nel TIR (ASTER e Landsat). Il secondo capitolo si apre con la definizione di LST (Land Surface Temperature), parametro del terreno misurato col telerilevamento, e ne viene descritta la dipendenza dal flusso della radiazione in atmosfera e dalle condizioni di bilancio termico della superficie investigata. Per la sua determinazione vengono proposti metodi diversi in funzione del numero di osservazioni disponibili nelle diverse bande spettrali dell’IR termico. In chiusura sono discussi i parametri che ne caratterizzano la variabilità. Il capitolo terzo entra nel dettaglio del telerilevamento termico in ambito urbano, definendo il fenomeno dell’Urban Heat Island su tutti i livelli atmosferici interessati, fornendo un quadro di operabilità con gli strumenti moderni di rilievo alle differenti scale (analisi multiscala). Un esempio concreto di studio multiscala dei fenomeni termici urbani è il progetto europeo EnergyCity, volto a ridurre i consumi energetici e le emissioni di gas serra di alcune città del centro Europa. Il capitolo quarto riporta la sperimentazione condotta sull’isola di calore urbana della città di Bologna tramite immagini ASTER con risoluzione spaziale 90 m nel TIR e ricampionate a 15 m dal VIS. Lo studio dell’isola di calore si è effettuata a partire dal calcolo della Land Surface Temperature utilizzando valori di emissività derivati da classificazione delle superfici al suolo. Per la validazione dei dati, in alternativa alle stazioni di monitoraggio fisse dell’ARPA, presenti nell’area metropolitana della città, si è sperimentato l’utilizzo di data-loggers per il rilievo di temperatura con possibilità di campionamento a 2 sec. installati su veicoli mobili, strumentati con ricevitori GPS, per la misura dei profili di temperatura atmosferica near-ground lungo transetti di attraversamento della città in direzione est-ovest.
Resumo:
Per natura, i dispositivi di conversione di energia da onda (WECs) vengono collocati in aree caratterizzate da onde ad elevato potenziale e in queste condizioni i carichi che agiscono su tali dispositivi sono, sfortunatamente, molto alti e, allo stesso tempo, molto difficili da valutare a priori. Allo stato attuale, nessuna delle tecnologie proposte ha raggiunto uno stadio di sviluppo tale da consentire la produzione dei WECs a scala reale e, quindi, il lancio nel mercato principalmente perchè nessuna di esse può contare su un numero suciente di dati operativi da permettere un'analisi sistematica delle condizioni di lavoro. L'applicazione dei modelli disponibili sembra essere accurata per la maggior parte dei WECs in condizioni operative, ma non abbastanza per prevedere le forze agenti e il loro comportamento quando sono esposti all'azione di onde importanti. Sebbene vi è una generale necessità di indagine su diversi aspetti dei WECs, sembra che il punto critico sia lo sviluppo di un adeguato sistema di ormeggio il cui costo può incidere no al 200