902 resultados para Linee Guida per la progettazione delle opere di sostegno rinforzate con geosintetici
Resumo:
Anche se la politica editoriale comunista rappresenta un campo di indagine fondamentale nella ricerca sul Pci, la sua attività editoriale è caduta in un oblio storico. Assumendo il libro come supporto materiale e veicolo della cultura politica comunista, e la casa editrice come canale di socializzazione, questa ricerca s’interroga sui suoi processi di costruzione e di diffusione. La ricerca si muove in due direzioni. Nel primo capitolo si è tentato di dare conto delle ragioni metodologiche dell’indagine e della messa a punto delle ipotesi di ricerca sul “partito editore”, raccogliendo alcune sfide poste alla storia politica da altri ambiti disciplinari, come la sociologia e la scienza politica, che rappresentano una vena feconda per la nostra indagine. La seconda direzione, empirica, ha riguardato la ricognizione delle fonti e degli strumenti di analisi per ricostruire le vicende del “partito editore” dal 1944 al 1956. La suddivisione della ricerca in due parti – 1944-1947 e 1947-1956 – segue a grandi linee la periodizzazione classica individuata dalla storiografia sulla politica culturale del Pci, ed è costruita su quattro fratture storiche – il 1944, con la “svolta di Salerno”; il 1947, con la “svolta cominformista”; il 1953, con la morte di Stalin e il disgelo; il 1956, con il XX Congresso e i fatti d’Ungheria – che sono risultate significative anche per la nostra ricerca sull’editoria comunista. Infine, il presente lavoro si basa su tre livelli di analisi: l’individuazione dei meccanismi di decisione politica e dell’organizzazione assunta dall’editoria comunista, esaminando gli scopi e i mutamenti organizzativi interni al partito per capire come i mutamenti strategici e tattici si sono riflessi sull’attività editoriale; la ricostruzione della produzione editoriale comunista; infine, l’identificazione dei processi di distribuzione e delle politiche per la lettura promosse dal Pci.
Resumo:
Ogni anno in Europa milioni di tonnellate di cibo vengono gettate via. Una stima pubblicata dalla Commissione europea afferma che, nei 27 Stati membri, 89 milioni di tonnellate di cibo, o di 179 kg pro capite, vengono scartati. Lo spreco si verifica lungo tutta la catena di agro alimentare; la riduzione dei rifiuti alimentari è diventata una delle priorità dell'agenda europea. La ricerca si concentra su un caso studio, Last Minute Market, un progetto di recupero di sprechi alimentari. L'impatto di questo progetto dal punto di vista economico e ambientale è già stato calcolato. Quello che verrà analizzato è l'impatto di questa iniziativa sulla comunità e in particolare sul capitale sociale, definito come "l'insieme di norme e reti che consentono l'azione collettiva". Obiettivo del presente lavoro è, quindi, quello di eseguire, attraverso la somministrazione di un questionario a diversi stakeholder del progetto, un’analisi confrontabile con quella del 2009 e di verificare a distanza di cinque anni, se l'iniziativa Last Minute Market abbia prodotto una crescita di capitale sociale nella comunità interessata da questa iniziativa. Per riassumere l’influenza del progetto sul capitale sociale in un indice sintetico, viene calcolato quello che verrà chiamato indice di "affidabilità del progetto" (definito in statistica, la "capacità di un prodotto, un sistema o un servizio di fornire le prestazioni richieste, per un certo periodo di tempo in condizioni predeterminate").
Resumo:
L'obiettivo di questo elaborato è quindi quello di progettare e realizzare un editor grafico per la modellazione di oggetti tridimensionali, di consentire ad un utente di costruire scene complesse curandone il rendering. Il progetto è stato realizzato facendo uso del linguaggio C++ e degli strumenti messi a disposizione dalle librerie OpenGL
Resumo:
I sistemi di navigazione inerziale, denominati INS, e quelli di navigazione inerziale assistita, ovvero che sfruttano anche sensori di tipo non inerziale come ad esempio il GPS, denominati in questo caso INS/GPS, hanno visto un forte incremento del loro utilizzo soprattutto negli ultimi anni. I filtri complementari sfruttano segnali in ingresso che presentano caratteristiche complementari in termine di banda. Con questo lavoro di tesi mi sono inserito nel contesto del progetto SHERPA (Smart collaboration between Humans and ground-aErial Robots for imProving rescuing activities in Alpine environments), un progetto europeo, coordinato dall'Università di Bologna, che prevede di mettere a punto una piattaforma robotica in grado di aiutare i soccorritori che operano in ambienti ostili, come quelli del soccorso alpino, le guardie forestali, la protezione civile. In particolare è prevista la possibilità di lanciare i droni direttamente da un elicottero di supporto, per cui potrebbe essere necessario effettuare l'avvio del sistema in volo. Ciò comporta che il sistema di navigazione dovrà essere in grado di convergere allo stato reale del sistema partendo da un grande errore iniziale, dal momento che la fase di inizializzazione funziona bene solo in condizioni di velivolo fermo. Si sono quindi ricercati, in special modo, schemi che garantissero la convergenza globale. Gli algoritmi implementati sono alla base della navigazione inerziale, assistita da GPS ed Optical Flow, della prima piattaforma aerea sviluppata per il progetto SHERPA, soprannominata DreamDroneOne, che include una grande varietà di hardware appositamente studiati per il progetto, come il laser scanner, la camera termica, ecc. Dopo una panoramica dell'architettura del sistema di Guida, Navigazione e Controllo (GNC) in cui mi sono inserito, si danno alcuni cenni sulle diverse terne di riferimento e trasformazioni, si descrivono i diversi sensori utilizzati per la navigazione, si introducono gli AHRS (Attitude Heading Rference System), per la determinazione del solo assetto sfruttando la IMU ed i magnetometri, si analizza l'AHRS basato su Extended Kalman Filter. Si analizzano, di seguito, un algoritmo non lineare per la stima dell'assetto molto recente, e il sistema INS/GPS basato su EKF, si presenta un filtro complementare molto recente per la stima di posizione ed assetto, si presenta un filtro complementare per la stima di posizione e velocità, si analizza inoltre l'uso di un predittore GPS. Infine viene presentata la piattaforma hardware utilizzata per l'implementazione e la validazione, si descrive il processo di prototipazione software nelle sue fasi e si mostrano i risultati sperimentali.
Resumo:
Caratteristica comune ai regimi di consolidamento previsti dai diversi ordinamenti, è quella di consentire la compensazione tra utili e perdite di società residenti, e, di negare, o rendere particolarmente difficoltosa, la stessa compensazione, quando le perdite sono maturate da società non residenti. La non considerazione delle perdite comporta una tassazione al lordo del gruppo multinazionale, per mezzo della quale, non si colpisce il reddito effettivo dei soggetti che vi appartengono. L’effetto immediato è quello di disincentivare i gruppi a travalicare i confini nazionali. Ciò impedisce il funzionamento del Mercato unico, a scapito della libertà di stabilimento prevista dagli artt. 49-54 del TFUE. Le previsioni ivi contenute sono infatti dirette, oltre ad assicurare a società straniere il beneficio della disciplina dello Stato membro ospitante, a proibire altresì allo Stato di origine di ostacolare lo stabilimento in un altro Stato membro dei propri cittadini o delle società costituite conformemente alla propria legislazione. Gli Stati membri giustificano la discriminazione tra società residenti e non residenti alla luce della riserva di competenza tributaria ad essi riconosciuta dall’ordinamento europeo in materia delle imposte dirette, dunque, in base all’equilibrata ripartizione del potere impositivo. In assenza di qualsiasi riferimento normativo, va ascritto alla Corte di Giustizia il ruolo di interprete del diritto europeo. La Suprema Corte, con una serie di importanti pronunce, ha infatti sindacato la compatibilità con il diritto comunitario dei vari regimi interni che negano la compensazione transfrontaliera delle perdite. Nel verificare la compatibilità con il diritto comunitario di tali discipline, la Corte ha tentato di raggiungere un (difficile) equilibrio tra due interessi completamenti contrapposti: quello comunitario, riconducibile al rispetto della libertà di stabilimento, quello degli Stati membri, che rivendicano il diritto di esercitare il proprio potere impositivo.
Resumo:
La tesi rappresenta un intervento architettonico e urbano sull’area destinata al “Central Park”, che si inserisce nel contesto del Masterplan di Jesolo di Kenzo Tange del 1997. Un’analisi delle dinamiche storiche, dello sviluppo della città balneare, dei punti di forza e delle criticità territoriali, ha portato alla definizione dell’area di progetto e delle intenzioni progettuali, sia a scala urbana, sia a scala architettonica. Il progetto si basa sulla creazione di un grande parco centrale che funga da luogo di svago e relax, ma anche da sito privilegiato per lo studio della natura del territorio. All’interno di un sistema di fasce, che scandisce l’intero intervento, è stato progettato un giardino botanico che lega tra loro i quattro edifici destinati allo studio e alla cultura: il museo di storia naturale, la biblioteca, la sala conferenze e i laboratori didattici per bambini. Le architetture sono disposte secondo un sistema lineare che crea una sequenza di spazi chiusi e aperti. La progettazione degli edifici si articola su uno punto di partenza comune, identificato nell’isolato quadrato e nel tipo a corte. Seguendo un principio di trasformazione sperimentato da Oswald Mathias Ungers, ogni architettura ha successivamente raggiunto il proprio sviluppo e le proprie caratteristiche spaziali e volumetriche.
Resumo:
Il riscaldamento globale e i cambiamenti climatici ci portano ad adottare atteggiamenti molto più rispettosi nei confronti dell'ambiente facendo un punto fermo della salvaguardia delle risorse naturali. In ambito di dialisi, tuttavia, il consumo idrico sembra ampiamente ignorato dalle questioni relative ai rifiuti medici creati da un'unica apparecchiatura. Se stimiamo una popolazione che riceve cure dialitiche di circa 2 milioni di pazienti in tutto il mondo, allora un "servizio di dialisi mondiale" avrebbe utilizzato circa 156 miliardi di litri di acqua. L’obiettivo di questo elaborato è fornire informazioni riguardo alle ultime tecniche in ambito di emodialisi per la progettazione di un sistema di eco-dialisi finalizzato alla riduzione del consumo idrico associato alla terapia.
Resumo:
Le patologie croniche quali nefropatie, obesità, cardiopatie e diabete, nelle prime fasi del loro sviluppo sono asintomatiche. È stato realizzato un'applicativo web, denominato Viewpoint, in grado di prevedere l'insorgenza dell'insufficienza renale cronica, a partire dai risultati delle analisi di laboratorio, per poter applicare un'azione di prevenzione sui pazienti. Il sistema si avvale di risorse REST e utilizza l'architettura EJB. In particolare, è stata curata la sezione analitica, in grado di visualizzare dati aggregati ed effettuare analisi what-if sul numero dei pazienti e sulle risorse dispensate dal SSN.
Resumo:
I prodotti fitosanitari sono sostanze attive e preparati, contenenti una o più sostanze attive, destinati a proteggere i vegetali, a favorire e regolare i loro processi vitali, a conservarli, a eliminare le parti non necessarie, a frenare o evitare un loro indesiderato accrescimento, ad eliminare le piante indesiderate. Il prodotto fitosanitario è composto normalmente da tre tipologie di sostanze: sostanza attiva, coadiuvante e coformulante. Le sostanze attive rappresentano la parte del prodotto fitosanitario che serve a combattere l’avversità che si vuole controllare, cioè la sostanza tossica che, a seconda della pericolosità e della concentrazione presente nella formulazione, concorre a determinare la classe di tossicità e quindi di pericolosità del prodotto. Gli stabilimenti che detengono fitosanitari sono suddivisi in depositi e siti produttivi. Secondo la classificazione dell’ISPRA, i depositi di fitosanitari costituiscono una delle 15 categorie di attività a rischio di incidente rilevante, mentre, i siti produttivi rientrano nella categoria degli stabilimenti chimici e/o petrolchimici. Il presente lavoro di tesi ha riguardato la valutazione del rischio di incidente rilevante per i depositi di fitosanitari, con particolare attenzione al rischio associato alla produzione di composti tossici a seguito di scenari incidentali di incendio. È stata in primo luogo effettuata una ricerca approfondita finalizzata a comprendere che cosa sono i prodotti fitosanitari, a quale scopo servono e quali sono i rischi ad essi associati. Successivamente, è stato effettuato un approfondimento delle norme a cui i siti che producono e detengono fitosanitari sono soggetti. È stato quindi effettuato un censimento per individuare quali e quanti sono i depositi e i siti di produzione di prodotti fitosanitari suscettibili di causare incidenti rilevanti in Italia. Si è poi proceduto all’analisi storica sulle banche dati MHIDAS, E-MARS ed ARIA, al fine di individuare gli eventi incidentali che hanno interessato depositi e siti produttivi di fitosanitari. Successivamente, si è analizzato il Regolamento CPR-15, quale metodo raccomandato dal ministero olandese VROM (Ministerie van Volkshuisvesting, Ruimtelijke Ordening en Milieu) per la valutazione del rischio associato a depositi di fitosanitari. Come applicazione della metodologia per la valutazione del rischio descritta dal Regolamento CPR 15, è stata effettuata la modellazione di uno scenario di incendio in un deposito reale di fitosanitari attraverso il Warehouse Model, implementato nel software PHAST 6.54. La simulazione ha portato a definire l’estensione delle aree di danno associate alla dispersione dei fumi tossici prodotti dall’incendio.
Resumo:
Lo studio della memoria semantica attraverso modelli teorici (qualitativi o matematici) gioca un ruolo importante nelle neuroscienze cognitive. In questa tesi viene presentato un modello della memoria semantica e lessicale. Il principio alla base del modello è che la semantica di un oggetto è descritta attraverso una collezione di proprietà, che sintetizzano la percezione dell’oggetto nelle diverse regioni corticali. Gli aspetti semantici e lessicali sono memorizzati in regioni separate del cervello, ma reciprocamente connesse sulla base dell’esperienza passata, secondo un meccanismo di apprendimento Hebbiano. L’obiettivo del lavoro è indagare i meccanismi che portano alla formazione di categorie, analizzare il ruolo delle diverse proprietà nella costruzione di un concetto e le connessioni tra queste proprietà e la parola corrispondente al nome dell’oggetto. Durante l’addestramento per ogni oggetto sono presentate alcune proprietà in input, con una data frequenza: alcune sono condivise, cioè appartengono a più di un concetto e permettono la formazione di categorie, altre sono distintive, cioè sono tipiche di un concetto e consentono la rappresentazione dei membri di una categoria. Un ulteriore aspetto riguardante le proprietà è la distinzione fra proprietà salienti, che sono spontaneamente evocate, e proprietà marginali. E’ stata utilizzata una tassonomia composta da 11 parole che identificano 11 animali. La salienza è stabilita dalla frequenza con cui si verifica ciascuna proprietà. La distinzione tra proprietà condivise e distintive, e tra proprietà salienti e non salienti, è stata ottenuta mediante l’uso della regola di Hebb con una diversa soglia presinaptica e postsinaptica, producendo patterns di sinapsi asimmetriche all’interno della rete semantica (auto-associazione) e tra la rete semantica e lessicale (etero-associazione). La rete addestrata è in grado di risolvere compiti di riconoscimento e denominazione di oggetti, mantenendo una distinzione tra le categorie e i suoi membri, e fornendo un diverso ruolo per le proprietà salienti rispetto alle proprietà marginali.
Resumo:
La necessità di indagine sul fronte dell’insufficienza cardiaca deriva dall’elevato impatto sociale della patologia, non soltanto per l’effetto invalidante sulla condizione del paziente che ne è affetto, bensì anche per la notevole incidenza sui servizi sanitari nazionali, per l’importante valore di mortalità e morbilità che ne è associato. Il numero di ospedalizzazioni per scompenso cardiaco è consistente; ciò rende ragione dell’elevato assorbimento di risorse dovuto a questa patologia. Il razionale dell’impiego della Terapia di Resincronizzazione Cardiaca (CRT) consiste nella correzione della dissincronia cardiaca come causa di disfunzione meccanica atriale e ventricolare. Il metodo analitico sviluppato origina dalle indagini sugli spostamenti dell’elettrocatetere posizionato in Seno Coronarico, sulla base del fatto che il sito di stimolazione risulta un fattore determinante per la buona risposta alla terapia. Dovendo studiare le posizioni nel tempo del catetere, si è pensato di valutarne le variazioni nel periodo pre e post attivazione della CRT ricostruendone la traiettoria in 3D. Lo studio parametrico di quest’ultima ha permesso di individuare un indice predittore della risposta alla CRT al follow-up a sei mesi. La prosecuzione della ricerca presentata ha l’intento di migliorare gli algoritmi di elaborazione dei dati per rendere più robuste le misure, sfruttando tecniche che possano aumentare riproducibilità, ripetibilità, e ininfluenza rispetto alla variabilità delle condizioni analitiche. Sviluppando nuovi modelli si è eliminata l'interazione dell'operatore nelle fasi d'indagine, rendendo le analisi completamente automatiche. I metodi sono stati testati e applicati.
Resumo:
In questo lavoro di tesi si affronta una delle problematiche che si presentano oggi nell'impiego degli APR (Aeromobili a Pilotaggio Remoto): la gestione della safety. Non si può più, in altri termini, negare che tali oggetti siano parte integrante dello spazio aereo civile. Proprio su questo tema recentemente gli enti regolatori dello spazio aereo stanno proiettando i loro sforzi al fine di stabilire una serie di regolamenti che disciplinino da una parte le modalità con cui questi oggetti si interfacciano con le altre categorie di velivoli e dall'altra i criteri di idoneità perché anche essi possano operare nello spazio aereo in maniera sicura. Si rende quindi necessario, in tal senso, dotare essi stessi di un sufficiente grado di sicurezza che permetta di evitare eventi disastrosi nel momento in cui si presenta un guasto nel sistema; è questa la definizione di un sistema fail-safe. Lo studio e lo sviluppo di questa tipologia di sistemi può aiutare il costruttore a superare la barriera oggi rappresentata dal regolamento che spesso e volentieri rappresenta l'unico ostacolo non fisico per la categoria dei velivoli unmanned tra la terra e il cielo. D'altro canto, al fine di garantire a chi opera a distanza su questi oggetti di avere, per tutta la durata della missione, la chiara percezione dello stato di funzionamento attuale del sistema e di come esso può (o potrebbe) interagire con l'ambiente che lo circonda (situational awarness), è necessario dotare il velivolo di apparecchiature che permettano di poter rilevare, all'occorrenza, il malfunzionamento: è questo il caso dei sistemi di fault detection. Questi due fondamentali aspetti sono la base fondante del presente lavoro che verte sul design di un ridotto ma preponderante sottosistema dell'UAV: il sistema di attuazione delle superfici di controllo. Esse sono, infatti, l'unico mezzo disponibile all'operatore per governare il mezzo nelle normali condizioni di funzionamento ma anche l'ultima possibilità per tentare di evitare l'evento disastroso nel caso altri sottosistemi siano chiaramente fuori dalle condizioni di normale funzionamento dell'oggetto.
Resumo:
Questa tesi riguarda la progettazione di un motore di ricerca semantico a partire dalla costruzione di un'ontologia pesata di token, possibile grazie ad un'elaborazione del linguaggio naturale dei testi ed all'utilizzo di altri strumenti per la descrizione dell'intorno semantico dei termini.
Resumo:
La dinamica dell'assetto di un satellite artificiale rappresenta uno degli aspetti più delicati della missione che esso stesso andrà a svolgere in orbita attorno ad un qualche corpo celeste, quale appunto il pianeta Terra. Il seguente lavoro di tesi si propone di analizzare la causa di una delle principali componenti di disturbo dell'assetto appena menzionato, preponderante per satelliti dalle piccole dimensioni, fornendo la spiegazione, validata attraverso una simulazione, della messa a punto di un metodo sperimentale per la valutazione della stessa. La componente in questione è la coppia di disturbo magnetica, ed è generata dall'interazione tra il campo magnetico terrestre ed il cosiddetto 'dipolo magnetico residuo' del satellite stesso, ossia quel campo magnetico che esso, in modalità operativa e non, risulta generare a causa del materiale ferromagnetico presente al suo interno, e delle correnti elettriche circolanti nei vari cavi conduttori. Ci si è dunque occupati dell'analisi e messa a punto di un metodo che possa consentire sperimentalmente di rilevare l'entità del dipolo residuo. Il lavoro di simulazione è stato svolto prendendo in considerazione le dimensioni e le possibili caratteristiche del dipolo residuo del micro-satellite ESEO (European Student Earth Orbiter), sviluppato da studenti di diverse università europee ed ora in fase di progetto dettagliato (fase C) presso i laboratori dell'azienda ALMASpace S.r.l. di Forlì. Il metodo in esame consiste nel rilevare il campo magnetico generato dal satellite, posto all'interno di un sistema tridimensionale di bobine di Helmholtz per avere una zona libera da campi magnetici esterni. Il rilevamento del dipolo avviene per mezzo di un magnetometro a tre assi, e dalla suddetta misura si può pervenire alla conoscenza delle componenti del dipolo stesso, quali posizione, orientamento ed intensità; siccome però la misura del magnetometro non è ideale, ma risulta affetta da errori, per una più corretta caratterizzazione del dipolo è necessario utilizzare un numero maggiore di magnetometri (oppure, il che è lo stesso, un unico magnetometro spostato mano a mano) in punti diversi attorno al satellite in modo da avere più misure di campo magnetico e poter così sfruttare una procedura numerica di ottimizzazione per risalire alle componenti del dipolo. Questa intera parte di calcolo è stata realizzata in MatLab®, simulando quindi le misure ottenute dai magnetometri, 'sporcandole' con i predetti errori, ed utilizzando le funzioni di minimizzazione lsqnonlin ed fmincon per verificare la funzionalità del sistema; si sono infatti analizzati i grafici rappresentanti i livelli di errore commessi dall'algoritmo di stima sulle varie componenti del dipolo, per le tipologie di errore dei magnetometri menzionate in precedenza. Si è così cercato di suggerire una configurazione ottimale di magnetometri in grado di fornire una stima caratterizzata da un buon compromesso tra numero di magnetometri da utilizzare non troppo elevato ed errore derivante accettabile.
Resumo:
Megalopoli Bogotà si è svelata una realtà articolata e complessa, ricca di contraddizioni che convivono in un'apparente armonia. Le difformità di situazioni legate alla città sono causa ed effetto di una sorta di dualismo urbano in cui ogni aspetto sembra trovare la sua ragione nella propria antitesi. La stessa contraddizione è stata letta nel tessuto urbano in cui il rigido schema a griglia, proprio delle fondazioni coloniali, si è mostrato irregolare a fronte di limiti topografici del territorio, di espansioni urbane incontrollate, e di realtà intrinseche proprie di isole urbane. Questo è stato il punto di partenza per la comprensione della realtà urbana, ed attraverso una ricerca che è, mano a mano, scesa di scala, si è tentato di interpretare e risolvere le criticità emerse. A partire da queste considerazioni si è configurato un metaprogetto con la volontà di ricucire la struttura urbana interrotta, attraverso un sistema di segni urbani, in cui l'identità della griglia è stata adottata come principio per la ricomposizione delle parti. Grazie al conoscimento della città è stato possibile identificare un'area di studio, nel punto di convergenza dei vari tessuti è emerso un settore che non ha saputo, o potuto, rispondere all'esigenza di riconnettere le diverse parti, sfuggendo così alla struttura urbana e presentandosi come elemento di negazione della griglia. Grazie allo svoglimento della tesi all'estero è stato possibile comprendere, tramite una ricerca svolta in archivio, come l'area si fosse configurata nel tempo, e tramite ripetuti sopraluoghi percepire peculiarità e criticità del luogo; infine, la presenza della Piazza di Mercato Paloquemao, elemento emblematico a livello sia urbano sia sociale, ha condotto la ricerca sino allo studio dello spazio pubblico nella città. Si è giunti, in questo percorso, alla progettazione di una nuova centralità per l'area, in supporto all'esistente Piazza di Mercato, con l'ambizione di poter risolvere le problematiche di un luogo costituito da convergenze urbane.