192 resultados para Sistemi Multiagente [MAS], AUML, Reti di Petri, Jason, ReSpecT, TuCSoN

em AMS Tesi di Dottorato - Alm@DL - Università di Bologna


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Recent developments in piston engine technology have increased performance in a very significant way. Diesel turbocharged/turbo compound engines, fuelled by jet fuels, have great performances. The focal point of this thesis is the transformation of the FIAT 1900 jtd diesel common rail engine for the installation on general aviation aircrafts like the CESSNA 172. All considerations about the diesel engine are supported by the studies that have taken place in the laboratories of the II Faculty of Engineering in Forlì. This work, mostly experimental, concerns the transformation of the automotive FIAT 1900 jtd – 4 cylinders – turbocharged – diesel common rail into an aircraft engine. The design philosophy of the aluminium alloy basement of the spark ignition engine have been transferred to the diesel version while the pistons and the head of the FIAT 1900 jtd are kept in the aircraft engine. Different solutions have been examined in this work. A first V 90° cylinders version that can develop up to 300 CV and whose weight is 30 kg, without auxiliaries and turbocharging group. The second version is a development of e original version of the diesel 1900 cc engine with an optimized crankshaft, that employ a special steel, 300M, and that is verified for the aircraft requirements. Another version with an augmented stroke and with a total displacement of 2500 cc has been examined; the result is a 30% engine heavier. The last version proposed is a 1600 cc diesel engine that work at 5000 rpm, with a reduced stroke and capable of more than 200 CV; it was inspired to the Yamaha R1 motorcycle engine. The diesel aircraft engine design keeps the bore of 82 mm, while the stroke is reduced to 64.6 mm, so the engine size is reduced along with weight. The basement weight, in GD AlSi 9 MgMn alloy, is 8,5 kg. Crankshaft, rods and accessories have been redesigned to comply to aircraft standards. The result is that the overall size is increased of only the 8% when referred to the Yamaha engine spark ignition version, while the basement weight increases of 53 %, even if the bore of the diesel version is 11% lager. The original FIAT 1900 jtd piston has been slightly modified with the combustion chamber reworked to the compression ratio of 15:1. The material adopted for the piston is the aluminium alloy A390.0-T5 commonly used in the automotive field. The piston weight is 0,5 kg for the diesel engine. The crankshaft is verified to torsional vibrations according to the Lloyd register of shipping requirements. The 300M special steel crankshaft total weight is of 14,5 kg. The result reached is a very small and light engine that may be certified for general aviation: the engine weight, without the supercharger, air inlet assembly, auxiliary generators and high pressure body, is 44,7 kg and the total engine weight, with enlightened HP pump body and the titanium alloy turbocharger is less than 100 kg, the total displacement is 1365 cm3 and the estimated output power is 220 CV. The direct conversion of automotive piston engine to aircrafts pays too huge weight penalties. In fact the main aircraft requirement is to optimize the power to weight ratio in order to obtain compact and fast engines for aeronautical use: this 1600 common rail diesel engine version demonstrates that these results can be reached.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Water distribution networks optimization is a challenging problem due to the dimension and the complexity of these systems. Since the last half of the twentieth century this field has been investigated by many authors. Recently, to overcome discrete nature of variables and non linearity of equations, the research has been focused on the development of heuristic algorithms. This algorithms do not require continuity and linearity of the problem functions because they are linked to an external hydraulic simulator that solve equations of mass continuity and of energy conservation of the network. In this work, a NSGA-II (Non-dominating Sorting Genetic Algorithm) has been used. This is a heuristic multi-objective genetic algorithm based on the analogy of evolution in nature. Starting from an initial random set of solutions, called population, it evolves them towards a front of solutions that minimize, separately and contemporaneously, all the objectives. This can be very useful in practical problems where multiple and discordant goals are common. Usually, one of the main drawback of these algorithms is related to time consuming: being a stochastic research, a lot of solutions must be analized before good ones are found. Results of this thesis about the classical optimal design problem shows that is possible to improve results modifying the mathematical definition of objective functions and the survival criterion, inserting good solutions created by a Cellular Automata and using rules created by classifier algorithm (C4.5). This part has been tested using the version of NSGA-II supplied by Centre for Water Systems (University of Exeter, UK) in MATLAB® environment. Even if orientating the research can constrain the algorithm with the risk of not finding the optimal set of solutions, it can greatly improve the results. Subsequently, thanks to CINECA help, a version of NSGA-II has been implemented in C language and parallelized: results about the global parallelization show the speed up, while results about the island parallelization show that communication among islands can improve the optimization. Finally, some tests about the optimization of pump scheduling have been carried out. In this case, good results are found for a small network, while the solutions of a big problem are affected by the lack of constraints on the number of pump switches. Possible future research is about the insertion of further constraints and the evolution guide. In the end, the optimization of water distribution systems is still far from a definitive solution, but the improvement in this field can be very useful in reducing the solutions cost of practical problems, where the high number of variables makes their management very difficult from human point of view.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Con il trascorrere del tempo, le reti di stazioni permanenti GNSS (Global Navigation Satellite System) divengono sempre più un valido supporto alle tecniche di rilevamento satellitare. Esse sono al tempo stesso un’efficace materializzazione del sistema di riferimento e un utile ausilio ad applicazioni di rilevamento topografico e di monitoraggio per il controllo di deformazioni. Alle ormai classiche applicazioni statiche in post-processamento, si affiancano le misure in tempo reale sempre più utilizzate e richieste dall’utenza professionale. In tutti i casi risulta molto importante la determinazione di coordinate precise per le stazioni permanenti, al punto che si è deciso di effettuarla tramite differenti ambienti di calcolo. Sono stati confrontati il Bernese, il Gamit (che condividono l’approccio differenziato) e il Gipsy (che utilizza l’approccio indifferenziato). L’uso di tre software ha reso indispensabile l’individuazione di una strategia di calcolo comune in grado di garantire che, i dati ancillari e i parametri fisici adottati, non costituiscano fonte di diversificazione tra le soluzioni ottenute. L’analisi di reti di dimensioni nazionali oppure di reti locali per lunghi intervalli di tempo, comporta il processamento di migliaia se non decine di migliaia di file; a ciò si aggiunge che, talora a causa di banali errori, oppure al fine di elaborare test scientifici, spesso risulta necessario reiterare le elaborazioni. Molte risorse sono quindi state investite nella messa a punto di procedure automatiche finalizzate, da un lato alla preparazione degli archivi e dall’altro all’analisi dei risultati e al loro confronto qualora si sia in possesso di più soluzioni. Dette procedure sono state sviluppate elaborando i dataset più significativi messi a disposizione del DISTART (Dipartimento di Ingegneria delle Strutture, dei Trasporti, delle Acque, del Rilevamento del Territorio - Università di Bologna). E’ stato così possibile, al tempo stesso, calcolare la posizione delle stazioni permanenti di alcune importanti reti locali e nazionali e confrontare taluni fra i più importanti codici scientifici che assolvono a tale funzione. Per quanto attiene il confronto fra i diversi software si è verificato che: • le soluzioni ottenute dal Bernese e da Gamit (i due software differenziati) sono sempre in perfetto accordo; • le soluzioni Gipsy (che utilizza il metodo indifferenziato) risultano, quasi sempre, leggermente più disperse rispetto a quelle degli altri software e mostrano talvolta delle apprezzabili differenze numeriche rispetto alle altre soluzioni, soprattutto per quanto attiene la coordinata Est; le differenze sono però contenute in pochi millimetri e le rette che descrivono i trend sono comunque praticamente parallele a quelle degli altri due codici; • il citato bias in Est tra Gipsy e le soluzioni differenziate, è più evidente in presenza di determinate combinazioni Antenna/Radome e sembra essere legato all’uso delle calibrazioni assolute da parte dei diversi software. E’ necessario altresì considerare che Gipsy è sensibilmente più veloce dei codici differenziati e soprattutto che, con la procedura indifferenziata, il file di ciascuna stazione di ciascun giorno, viene elaborato indipendentemente dagli altri, con evidente maggior elasticità di gestione: se si individua un errore strumentale su di una singola stazione o se si decide di aggiungere o togliere una stazione dalla rete, non risulta necessario il ricalcolo dell’intera rete. Insieme alle altre reti è stato possibile analizzare la Rete Dinamica Nazionale (RDN), non solo i 28 giorni che hanno dato luogo alla sua prima definizione, bensì anche ulteriori quattro intervalli temporali di 28 giorni, intercalati di sei mesi e che coprono quindi un intervallo temporale complessivo pari a due anni. Si è così potuto verificare che la RDN può essere utilizzata per l’inserimento in ITRF05 (International Terrestrial Reference Frame) di una qualsiasi rete regionale italiana nonostante l’intervallo temporale ancora limitato. Da un lato sono state stimate le velocità ITRF (puramente indicative e non ufficiali) delle stazioni RDN e, dall’altro, è stata effettuata una prova di inquadramento di una rete regionale in ITRF, tramite RDN, e si è verificato che non si hanno differenze apprezzabili rispetto all’inquadramento in ITRF, tramite un congruo numero di stazioni IGS/EUREF (International GNSS Service / European REference Frame, SubCommission for Europe dello International Association of Geodesy).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In ambito oncologico il dolore affligge la maggior parte dei pazienti (incidenza riportata dal 53 al 90%), in tutte le fasi della malattia: nonostante l’esistenza di Linee Guida (OMS), l’attuale “undertreatment” del sintomo dolore oncologico, legato a un inappropriato uso degli oppioidi, in Italia raggiunge stime fino al 40% dei casi. Segnalazioni recenti sul consumo degli oppioidi in Italia riportano un aumento imputabile a un solo farmaco (fentanil TTS), il che suggerisce un comportamento prescrittivo inappropriato. Letteratura in merito alle valutazioni di efficacia delle terapie di controllo del dolore sia in fase iniziale – quando la terapia medica oncologica è attiva- sia in fase avanzata di malattia – quando il controllo del dolore si configura come una delle principali terapie di supporto- è ormai disponibile , con un buon livello di affidabilità. Quello che è necessario è aumentare la capacità del Servizio Sanitario di trasferire nella pratica clinica e assistenziale i risultati della ricerca sulla efficacia delle cure. Questi i quesiti ai quali la ricerca ha inteso rispondere: a. Le competenze globalmente espresse dal servizio sanitario dell’Emilia Romagna sono adeguate per consentire un tempestivo, globale, appropriato ed efficace controllo del dolore oncologico, in tutte le fasi della malattia e lungo tutto il percorso di assistenza si a domiciliare che ospedaliero, per tutti i malati che ne hanno bisogno? b. Quali raccomandazioni possiamo fornire, basate sulle evidenze di efficacia, a clinici e gestori per migliorare l’identificazione del bisogno, la scelta del trattamento, il suo monitoraggio, la possibilità di garantirne l’accesso e la disponibilità non solo in ospedale ma anche a domicilio? c. Quale efficacia hanno dimostrato i percorsi di formazione relativi al riconoscimento e al controllo del dolore messi in atto finora? d. Quali percorsi possono essere raccomandati per mettere a disposizione dei cittadini le conoscenze scientifiche sul controllo del dolore oncologico?

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il lavoro di ricerca prende le mosse da una premessa di ordine economico. Il fenomeno delle reti di impresa, infatti, nasce dalla realtà economica dei mercati. In tale contesto non può prescindere dal delineare un quadro della situazione- anche di crisi- congiunturale che ha visto coinvolte specialmente le imprese italiane. In tale prospettiva, si è reso necessario indagare il fenomeno della globalizzazione, con riferimento alle sue origini,caratteristiche e conseguenze. Ci si sofferma poi sulla ricostruzione dogmatica del fenomeno. Si parte dalla ricostruzione dello stesso in termini di contratto plurilaterale- sia esso con comunione di scopo oppure plurilaterale di scambio- per criticare tale impostazione, non del tutto soddisfacente, in quanto ritenuto remissiva di fronte alla attuale vis espansiva del contratto plurilaterale. Più convincente appare lo schema del collegamento contrattuale, che ha il pregio di preservare l’autonomia e l’indipendenza degli imprenditori aderenti, pur inseriti nel contesto di un’operazione economica unitaria, volta a perseguire uno scopo comune, l’“interesse di rete”, considerato meritevole di tutela secondo l’ordinamento giuridico ex art. 1322 2.co. c.c. In effetti il contratto ben si presta a disegnare modelli di rete sia con distribuzione simmetrica del potere decisionale, sia con distribuzione asimmetrica, vale a dire con un elevato livello di gerarchia interna. Non può d’altra parte non ravvisarsi un’affinità con le ipotesi di collegamento contrattuale in fase di produzione, consistente nel delegare ad un terzo parte della produzione, e nella fase distributiva, per cui la distribuzione avviene attraverso reti di contratti. Si affronta la materia della responsabilità della rete, impostando il problema sotto due profili: la responsabilità interna ed esterna. La prima viene risolta sulla base dell’affidamento reciproco maturato da ogni imprenditore. La seconda viene distinta in responsabilità extracontrattuale, ricondotta nella fattispecie all’art. 2050 c.c., e contrattuale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi analizza il dialogo tra due prospettive disciplinari: pedagogia e scienze mediche aprendo ad una serie di riflessioni operative e metodologiche per lo sviluppo della competenza educativa in sanità. Si tratta di un lavoro di ricerca pedagogica articolata in due parti:una teoretica e una empirica. La prima parte pone l’attenzione in modo particolare all’epistemologia della cura sanitaria nella prospettiva della complessità e agli elementi che definiscono la competenza educativa degli operatori. La seconda parte presenta i dati di una indagine esplorativa realizzata tramite focus group che ha coinvolto medici, infermieri, ostetriche e fisioterapisti della provincia di Bologna e medici, infermieri e fisioterapisti del Canton Ticino, Svizzera per far emergere le esperienze, i vissuti e le opinioni legate alle azioni educative sanitarie

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’obiettivo del lavoro consiste nell’implementare una metodologia operativa volta alla progettazione di reti di monitoraggio e di campagne di misura della qualità dell’aria con l’utilizzo del laboratorio mobile, ottimizzando le posizioni dei dispositivi di campionamento rispetto a differenti obiettivi e criteri di scelta. La revisione e l’analisi degli approcci e delle indicazioni fornite dalla normativa di riferimento e dai diversi autori di lavori scientifici ha permesso di proporre un approccio metodologico costituito da due fasi operative principali, che è stato applicato ad un caso studio rappresentato dal territorio della provincia di Ravenna. La metodologia implementata prevede l’integrazione di numerosi strumenti di supporto alla valutazione dello stato di qualità dell’aria e degli effetti che gli inquinanti atmosferici possono generare su specifici recettori sensibili (popolazione residente, vegetazione, beni materiali). In particolare, la metodologia integra approcci di disaggregazione degli inventari delle emissioni attraverso l’utilizzo di variabili proxy, strumenti modellistici per la simulazione della dispersione degli inquinanti in atmosfera ed algoritmi di allocazione degli strumenti di monitoraggio attraverso la massimizzazione (o minimizzazione) di specifiche funzioni obiettivo. La procedura di allocazione sviluppata è stata automatizzata attraverso lo sviluppo di un software che, mediante un’interfaccia grafica di interrogazione, consente di identificare delle aree ottimali per realizzare le diverse campagne di monitoraggio

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo di questa tesi è quello di analizzare dapprima l’impatto ambientale di tali impianti e poi analizzare il contributo effettivo che oggi la tecnologia innovativa dei cicli Rankine organici può dare nella valorizzazione elettrica del calore di scarto di processi industriali, focalizzando l’obiettivo principalmente sulle turbine a gas ed eseguendo un caso di studio in un settore ancora poco esplorato da questa tecnologia, quello Oil&Gas. Dopo aver effettuato il censimento degli impianti a fonti fossili e rinnovabili, cogenerativi e non, presenti in Emilia-Romagna, è stato sviluppato un software chiamato MiniBref che permette di simulare il funzionamento di una qualsiasi centrale termoelettrica grazie alla possibilità di combinare la tecnologia dell’impianto con il tipo di combustibile consentendo la valutazione delle emissioni inquinanti ed i potenziali di inquinamento. Successivamente verranno illustrati gli ORC, partendo dalle caratteristiche impiantistiche e termodinamiche fino ad arrivare alla scelta del fluido organico, fondamentale per le performance del ciclo. Dopo aver effettuato una ricognizione dello stato dell’arte delle applicazioni industriali degli ORC nel recupero termico, verranno eseguite simulazioni numeriche per ricostruire gli ORC ed avere una panoramica il più completa ed attendibile delle prestazioni effettive di questi sistemi. In ultimo verranno illustrati i risultati di un caso di studio che vede l’adozione di recupero mediante ciclo organico in un’installazione esistente del settore Oil&Gas. Si effettuerà uno studio delle prestazione dell’impianto al variare delle pressioni massime e minime del ciclo ed al variare del fluido impiegato al fine di mostrare come questi parametri influenzino non solo le performance ma anche le caratteristiche impiantistiche da adottare. A conclusione del lavoro si riporteranno i risultati relativi all’analisi condotte considerando l’impianto ai carichi parziali ed in assetto cogenerativo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La ricerca si colloca all’interno di un complesso intervento di cooperazione internazionale realizzato in El Salvador tra il 2009 e il 2014. Il Progetto di cooperazione è stato promosso dal Dipartimento di Scienze dell’Educazione dell’Università di Bologna e finanziato dalla Cooperazione Italiana. L’esperienza studiata rappresenta un esempio di promozione dell’inclusione nei sistemi scolastici di Paesi del Sud del mondo e si propone due obiettivi: 1) analizzare il processo di cambiamento della prospettiva di intervento promossa dalla cooperazione internazionale, evidenziando la dimensione educativa che sostiene processi di empowerment e ownership delle istituzioni locali; 2) contribuire al dibattito sull’ “inclusive education”, sostenendo processi di inclusione scolastica e sociale rivolti a tutti coloro che si trovano in situazione di svantaggio psico-fisico e/o socio-culturale. Le politiche locali del Ministero dell’Educazione dal 2009 hanno promosso un modello educativo con l’obiettivo di garantire il diritto all’educazione per tutti nella scuola pubblica. Lo studio costituisce un'indagine di tipo valutativo sul processo di sviluppo della scuola inclusiva in El Salvador, supportato dall’intervento di cooperazione internazionale. La ricerca utilizza in modo integrato strumenti di natura quantitativa (questionari) e qualitativa (interviste). Dai dati raccolti emerge come il processo di cooperazione sia stato caratterizzato dal principio della pari dignità tra esperti internazionali e autorità politiche e tecniche locali. Inoltre, la ricerca ha consentito di verificare come la cultura dell'inclusione si sia radicata in modo diffuso nella percezione della missione della scuola e il suo ruolo tra i protagonisti del sistema scolastico. Alla luce dei risultati, appare fondamentale continuare a investire sulla formazione tecnica delle figure chiave del sistema educativo; facilitare il processo di inclusione dei disabili nelle scuole regolari con una parallela trasformazione delle scuole speciali in centri di supporto all’integrazione; promuovere una sinergia di azione formativa tra il ministero, mondo accademico e della formazione professionale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La ricerca svolta ha individuato fra i suoi elementi promotori l’orientamento determinato da parte della comunità europea di dare vita e sostegno ad ambiti territoriali intermedi sub nazionali di tipo regionale all’interno dei quali i sistemi di città potessero raggiungere le massime prestazioni tecnologiche per cogliere gli effetti positivi delle innovazioni. L’orientamento europeo si è confrontato con una realtà storica e geografica molto variata in quanto accanto a stati membri, nei quali le gerarchie fra città sono storicamente radicate e funzionalmente differenziate secondo un ordine che vede la città capitale dominante su città subalterne nelle quali la cultura di dominio del territorio non è né continua né gerarchizzata sussistono invece territori nazionali compositi con una città capitale di riconosciuto potere ma con città di minor dimensione che da secoli esprimono una radicata incisività nella organizzazione del territorio di appartenenza. Alla prima tipologia di stati appartengono ad esempio i Paesi del Nord Europa e l’Inghilterra, esprimendo nella Francia una situazione emblematica, alla seconda tipologia appartengono invece i Paesi dell’aera mediterranea, Italia in primis, con la grande eccezione della Germania. Applicando gli intendimenti comunitari alla realtà locale nazionale, questa tesi ha avviato un approfondimento di tipo metodologico e procedurale sulla possibile organizzazione a sistema di una regione fortemente policentrica nel suo sviluppo e “artificiosamente” rinata ad unità, dopo le vicende del XIX secolo: l’Emilia-Romagna. Anche nelle regioni che si presentano come storicamente organizzate sulla pluralità di centri emergenti, il rapporto col territorio è mediato da centri urbani minori che governano il tessuto cellulare delle aggregazioni di servizi di chiara origine agraria. Questo stato di cose comporta a livello politico -istituzionale una dialettica vivace fra territori voluti dalle istituzioni e territori legittimati dal consolidamento delle tradizioni confermato dall’uso attuale. La crescente domanda di capacità di governo dello sviluppo formulata dagli operatori economici locali e sostenuta dalle istituzioni europee si confronta con la scarsa capacità degli enti territoriali attuali: Regioni, Comuni e Province di raggiungere un livello di efficienza sufficiente ad organizzare sistemi di servizi adeguati a sostegno della crescita economica. Nel primo capitolo, dopo un breve approfondimento sulle “figure retoriche comunitarie”, quali il policentrismo, la governance, la coesione territoriale, utilizzate per descrivere questi fenomeni in atto, si analizzano gli strumenti programmatici europei e lo S.S.S.E,. in primis, che recita “Per garantire uno sviluppo regionale equilibrato nella piena integrazione anche nell’economia mondiale, va perseguito un modello di sviluppo policentrico, al fine di impedire un’ulteriore eccessiva concentrazione della forza economica e della popolazione nei territori centrali dell’UE. Solo sviluppando ulteriormente la struttura, relativamente decentrata, degli insediamenti è possibile sfruttare il potenziale economico di tutte le regioni europee.” La tesi si inserisce nella fase storica in cui si tenta di definire quali siano i nuovi territori funzionali e su quali criteri si basa la loro riconoscibilità; nel tentativo di adeguare ad essi, riformandoli, i territori istituzionali. Ai territori funzionali occorre riportare la futura fiscalità, ed è la scala adeguata per l'impostazione della maggior parte delle politiche, tutti aspetti che richiederanno anche la necessità di avere una traduzione in termini di rappresentanza/sanzionabilità politica da parte dei cittadini. Il nuovo governo auspicato dalla Comunità Europea prevede una gestione attraverso Sistemi Locali Territoriali (S.Lo.t.) definiti dalla combinazione di milieu locale e reti di attori che si comportano come un attore collettivo. Infatti il secondo capitolo parte con l’indagare il concetto di “regione funzionale”, definito sulla base della presenza di un nucleo e di una corrispondente area di influenza; che interagisce con altre realtà territoriali in base a relazioni di tipo funzionale, per poi arrivare alla definizione di un Sistema Locale territoriale, modello evoluto di regione funzionale che può essere pensato come una rete locale di soggetti i quali, in funzione degli specifici rapporti che intrattengono fra loro e con le specificità territoriali del milieu locale in cui operano e agiscono, si comportano come un soggetto collettivo. Identificare un sistema territoriale, è una condizione necessaria, ma non sufficiente, per definire qualsiasi forma di pianificazione o governance territoriale, perchè si deve soprattutto tener conto dei processi di integrazione funzionale e di networking che si vengono a generare tra i diversi sistemi urbani e che sono specchio di come il territorio viene realmente fruito., perciò solo un approccio metodologico capace di sfumare e di sovrapporre le diverse perimetrazioni territoriali riesce a definire delle aree sulle quali definire un’azione di governo del territorio. Sin dall’inizio del 2000 il Servizio Sviluppo Territoriale dell’OCSE ha condotto un’indagine per capire come i diversi paesi identificavano empiricamente le regioni funzionali. La stragrande maggioranza dei paesi adotta una definizione di regione funzionale basata sul pendolarismo. I confini delle regioni funzionali sono stati definiti infatti sulla base di “contorni” determinati dai mercati locali del lavoro, a loro volta identificati sulla base di indicatori relativi alla mobilità del lavoro. In Italia, la definizione di area urbana funzionale viene a coincidere di fatto con quella di Sistema Locale del Lavoro (SLL). Il fatto di scegliere dati statistici legati a caratteristiche demografiche è un elemento fondamentale che determina l’ubicazione di alcuni servizi ed attrezzature e una mappa per gli investimenti nel settore sia pubblico che privato. Nell’ambito dei programmi europei aventi come obiettivo lo sviluppo sostenibile ed equilibrato del territorio fatto di aree funzionali in relazione fra loro, uno degli studi di maggior rilievo è stato condotto da ESPON (European Spatial Planning Observation Network) e riguarda l’adeguamento delle politiche alle caratteristiche dei territori d’Europa, creando un sistema permanente di monitoraggio del territorio europeo. Sulla base di tali indicatori vengono costruiti i ranking dei diversi FUA e quelli che presentano punteggi (medi) elevati vengono classificati come MEGA. In questo senso, i MEGA sono FUA/SLL particolarmente performanti. In Italia ve ne sono complessivamente sei, di cui uno nella regione Emilia-Romagna (Bologna). Le FUA sono spazialmente interconnesse ed è possibile sovrapporre le loro aree di influenza. Tuttavia, occorre considerare il fatto che la prossimità spaziale è solo uno degli aspetti di interazione tra le città, l’altro aspetto importante è quello delle reti. Per capire quanto siano policentrici o monocentrici i paesi europei, il Progetto Espon ha esaminato per ogni FUA tre differenti parametri: la grandezza, la posizione ed i collegamenti fra i centri. La fase di analisi della tesi ricostruisce l’evoluzione storica degli strumenti della pianificazione regionale analizzandone gli aspetti organizzativi del livello intermedio, evidenziando motivazioni e criteri adottati nella suddivisione del territorio emilianoromagnolo (i comprensori, i distretti industriali, i sistemi locali del lavoro…). La fase comprensoriale e quella dei distretti, anche se per certi versi effimere, hanno avuto comunque il merito di confermare l’esigenza di avere un forte organismo intermedio di programmazione e pianificazione. Nel 2007 la Regione Emilia Romagna, nell’interpretare le proprie articolazioni territoriali interne, ha adeguato le proprie tecniche analitiche interpretative alle direttive contenute nel Progetto E.S.P.O.N. del 2001, ciò ha permesso di individuare sei S.Lo.T ( Sistemi Territoriali ad alta polarizzazione urbana; Sistemi Urbani Metropolitani; Sistemi Città – Territorio; Sistemi a media polarizzazione urbana; Sistemi a bassa polarizzazione urbana; Reti di centri urbani di piccole dimensioni). Altra linea di lavoro della tesi di dottorato ha riguardato la controriprova empirica degli effettivi confini degli S.Lo.T del PTR 2007 . Dal punto di vista metodologico si è utilizzato lo strumento delle Cluster Analisys per impiegare il singolo comune come polo di partenza dei movimenti per la mia analisi, eliminare inevitabili approssimazioni introdotte dalle perimetrazioni legate agli SLL e soprattutto cogliere al meglio le sfumature dei confini amministrativi dei diversi comuni e province spesso sovrapposti fra loro. La novità è costituita dal fatto che fino al 2001 la regione aveva definito sullo stesso territorio una pluralità di ambiti intermedi non univocamente circoscritti per tutte le funzioni ma definiti secondo un criterio analitico matematico dipendente dall’attività settoriale dominante. In contemporanea col processo di rinnovamento della politica locale in atto nei principali Paesi dell’Europa Comunitaria si va delineando una significativa evoluzione per adeguare le istituzioni pubbliche che in Italia comporta l’attuazione del Titolo V della Costituzione. In tale titolo si disegna un nuovo assetto dei vari livelli Istituzionali, assumendo come criteri di riferimento la semplificazione dell’assetto amministrativo e la razionalizzazione della spesa pubblica complessiva. In questa prospettiva la dimensione provinciale parrebbe essere quella tecnicamente più idonea per il minimo livello di pianificazione territoriale decentrata ma nel contempo la provincia come ente amministrativo intermedio palesa forti carenze motivazionali in quanto l’ente storico di riferimento della pianificazione è il comune e l’ente di gestione delegato dallo stato è la regione: in generale troppo piccolo il comune per fare una programmazione di sviluppo, troppo grande la regione per cogliere gli impulsi alla crescita dei territori e delle realtà locali. Questa considerazione poi deve trovare elementi di compatibilità con la piccola dimensione territoriale delle regioni italiane se confrontate con le regioni europee ed i Laender tedeschi. L'individuazione di criteri oggettivi (funzionali e non formali) per l'individuazione/delimitazione di territori funzionali e lo scambio di prestazioni tra di essi sono la condizione necessaria per superare l'attuale natura opzionale dei processi di cooperazione interistituzionale (tra comuni, ad esempio appartenenti allo stesso territorio funzionale). A questo riguardo molto utile è l'esperienza delle associazioni, ma anche delle unioni di comuni. Le esigenze della pianificazione nel riordino delle istituzioni politico territoriali decentrate, costituiscono il punto finale della ricerca svolta, che vede confermato il livello intermedio come ottimale per la pianificazione. Tale livello è da intendere come dimensione geografica di riferimento e non come ambito di decisioni amministrative, di governance e potrebbe essere validamente gestito attraverso un’agenzia privato-pubblica dello sviluppo, alla quale affidare la formulazione del piano e la sua gestione. E perché ciò avvenga è necessario che il piano regionale formulato da organi politici autonomi, coordinati dall’attività dello stato abbia caratteri definiti e fattibilità economico concreta.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I moderni sistemi embedded sono equipaggiati con risorse hardware che consentono l’esecuzione di applicazioni molto complesse come il decoding audio e video. La progettazione di simili sistemi deve soddisfare due esigenze opposte. Da un lato è necessario fornire un elevato potenziale computazionale, dall’altro bisogna rispettare dei vincoli stringenti riguardo il consumo di energia. Uno dei trend più diffusi per rispondere a queste esigenze opposte è quello di integrare su uno stesso chip un numero elevato di processori caratterizzati da un design semplificato e da bassi consumi. Tuttavia, per sfruttare effettivamente il potenziale computazionale offerto da una batteria di processoriè necessario rivisitare pesantemente le metodologie di sviluppo delle applicazioni. Con l’avvento dei sistemi multi-processore su singolo chip (MPSoC) il parallel programming si è diffuso largamente anche in ambito embedded. Tuttavia, i progressi nel campo della programmazione parallela non hanno mantenuto il passo con la capacità di integrare hardware parallelo su un singolo chip. Oltre all’introduzione di multipli processori, la necessità di ridurre i consumi degli MPSoC comporta altre soluzioni architetturali che hanno l’effetto diretto di complicare lo sviluppo delle applicazioni. Il design del sottosistema di memoria, in particolare, è un problema critico. Integrare sul chip dei banchi di memoria consente dei tempi d’accesso molto brevi e dei consumi molto contenuti. Sfortunatamente, la quantità di memoria on-chip che può essere integrata in un MPSoC è molto limitata. Per questo motivo è necessario aggiungere dei banchi di memoria off-chip, che hanno una capacità molto maggiore, come maggiori sono i consumi e i tempi d’accesso. La maggior parte degli MPSoC attualmente in commercio destina una parte del budget di area all’implementazione di memorie cache e/o scratchpad. Le scratchpad (SPM) sono spesso preferite alle cache nei sistemi MPSoC embedded, per motivi di maggiore predicibilità, minore occupazione d’area e – soprattutto – minori consumi. Per contro, mentre l’uso delle cache è completamente trasparente al programmatore, le SPM devono essere esplicitamente gestite dall’applicazione. Esporre l’organizzazione della gerarchia di memoria ll’applicazione consente di sfruttarne in maniera efficiente i vantaggi (ridotti tempi d’accesso e consumi). Per contro, per ottenere questi benefici è necessario scrivere le applicazioni in maniera tale che i dati vengano partizionati e allocati sulle varie memorie in maniera opportuna. L’onere di questo compito complesso ricade ovviamente sul programmatore. Questo scenario descrive bene l’esigenza di modelli di programmazione e strumenti di supporto che semplifichino lo sviluppo di applicazioni parallele. In questa tesi viene presentato un framework per lo sviluppo di software per MPSoC embedded basato su OpenMP. OpenMP è uno standard di fatto per la programmazione di multiprocessori con memoria shared, caratterizzato da un semplice approccio alla parallelizzazione tramite annotazioni (direttive per il compilatore). La sua interfaccia di programmazione consente di esprimere in maniera naturale e molto efficiente il parallelismo a livello di loop, molto diffuso tra le applicazioni embedded di tipo signal processing e multimedia. OpenMP costituisce un ottimo punto di partenza per la definizione di un modello di programmazione per MPSoC, soprattutto per la sua semplicità d’uso. D’altra parte, per sfruttare in maniera efficiente il potenziale computazionale di un MPSoC è necessario rivisitare profondamente l’implementazione del supporto OpenMP sia nel compilatore che nell’ambiente di supporto a runtime. Tutti i costrutti per gestire il parallelismo, la suddivisione del lavoro e la sincronizzazione inter-processore comportano un costo in termini di overhead che deve essere minimizzato per non comprometterre i vantaggi della parallelizzazione. Questo può essere ottenuto soltanto tramite una accurata analisi delle caratteristiche hardware e l’individuazione dei potenziali colli di bottiglia nell’architettura. Una implementazione del task management, della sincronizzazione a barriera e della condivisione dei dati che sfrutti efficientemente le risorse hardware consente di ottenere elevate performance e scalabilità. La condivisione dei dati, nel modello OpenMP, merita particolare attenzione. In un modello a memoria condivisa le strutture dati (array, matrici) accedute dal programma sono fisicamente allocate su una unica risorsa di memoria raggiungibile da tutti i processori. Al crescere del numero di processori in un sistema, l’accesso concorrente ad una singola risorsa di memoria costituisce un evidente collo di bottiglia. Per alleviare la pressione sulle memorie e sul sistema di connessione vengono da noi studiate e proposte delle tecniche di partizionamento delle strutture dati. Queste tecniche richiedono che una singola entità di tipo array venga trattata nel programma come l’insieme di tanti sotto-array, ciascuno dei quali può essere fisicamente allocato su una risorsa di memoria differente. Dal punto di vista del programma, indirizzare un array partizionato richiede che ad ogni accesso vengano eseguite delle istruzioni per ri-calcolare l’indirizzo fisico di destinazione. Questo è chiaramente un compito lungo, complesso e soggetto ad errori. Per questo motivo, le nostre tecniche di partizionamento sono state integrate nella l’interfaccia di programmazione di OpenMP, che è stata significativamente estesa. Specificamente, delle nuove direttive e clausole consentono al programmatore di annotare i dati di tipo array che si vuole partizionare e allocare in maniera distribuita sulla gerarchia di memoria. Sono stati inoltre sviluppati degli strumenti di supporto che consentono di raccogliere informazioni di profiling sul pattern di accesso agli array. Queste informazioni vengono sfruttate dal nostro compilatore per allocare le partizioni sulle varie risorse di memoria rispettando una relazione di affinità tra il task e i dati. Più precisamente, i passi di allocazione nel nostro compilatore assegnano una determinata partizione alla memoria scratchpad locale al processore che ospita il task che effettua il numero maggiore di accessi alla stessa.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I continui sviluppi nel campo della fabbricazione dei circuiti integrati hanno comportato frequenti travolgimenti nel design, nell’implementazione e nella scalabilità dei device elettronici, così come nel modo di utilizzarli. Anche se la legge di Moore ha anticipato e caratterizzato questo trend nelle ultime decadi, essa stessa si trova a fronteggiare attualmente enormi limitazioni, superabili solo attraverso un diverso approccio nella produzione di chip, consistente in pratica nella sovrapposizione verticale di diversi strati collegati elettricamente attraverso speciali vias. Sul singolo strato, le network on chip sono state suggerite per ovviare le profonde limitazioni dovute allo scaling di strutture di comunicazione condivise. Questa tesi si colloca principalmente nel contesto delle nascenti piattaforme multicore ad alte prestazioni basate sulle 3D NoC, in cui la network on chip viene estesa nelle 3 direzioni. L’obiettivo di questo lavoro è quello di fornire una serie di strumenti e tecniche per poter costruire e aratterizzare una piattaforma tridimensionale, cosi come dimostrato nella realizzazione del testchip 3D NOC fabbricato presso la fonderia IMEC. Il primo contributo è costituito sia una accurata caratterizzazione delle interconnessioni verticali (TSVs) (ovvero delle speciali vias che attraversano l’intero substrato del die), sia dalla caratterizzazione dei router 3D (in cui una o più porte sono estese nella direzione verticale) ed infine dal setup di un design flow 3D utilizzando interamente CAD 2D. Questo primo step ci ha permesso di effettuare delle analisi dettagliate sia sul costo sia sulle varie implicazioni. Il secondo contributo è costituito dallo sviluppo di alcuni blocchi funzionali necessari per garantire il corretto funziomento della 3D NoC, in presenza sia di guasti nelle TSVs (fault tolerant links) che di deriva termica nei vari clock tree dei vari die (alberi di clock indipendenti). Questo secondo contributo è costituito dallo sviluppo delle seguenti soluzioni circuitali: 3D fault tolerant link, Look Up Table riconfigurabili e un sicnronizzatore mesocrono. Il primo è costituito fondamentalmente un bus verticale equipaggiato con delle TSV di riserva da utilizzare per rimpiazzare le vias guaste, più la logica di controllo per effettuare il test e la riconfigurazione. Il secondo è rappresentato da una Look Up Table riconfigurabile, ad alte prestazioni e dal costo contenuto, necesaria per bilanciare sia il traffico nella NoC che per bypassare link non riparabili. Infine la terza soluzione circuitale è rappresentata da un sincronizzatore mesocrono necessario per garantire la sincronizzazione nel trasferimento dati da un layer and un altro nelle 3D Noc. Il terzo contributo di questa tesi è dato dalla realizzazione di un interfaccia multicore per memorie 3D (stacked 3D DRAM) ad alte prestazioni, e dall’esplorazione architetturale dei benefici e del costo di questo nuovo sistema in cui il la memoria principale non è piu il collo di bottiglia dell’intero sistema. Il quarto ed ultimo contributo è rappresentato dalla realizzazione di un 3D NoC test chip presso la fonderia IMEC, e di un circuito full custom per la caratterizzazione della variability dei parametri RC delle interconnessioni verticali.