889 resultados para Composizione percezione progetto analisi torre studentato cesena vista


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il monitoraggio ravvicinato di scenari protagonisti di fenomeni ambientali catastrofici, come improvvisi terremoti o violente eruzioni vulcaniche, è reso complicato dalla pericolosità intrinseca di tali ambienti per l'incolumità di operatori e attrezzature. L'obiettivo di questa tesi è di capire se è possibile realizzare un'alternativa alle attuali stazioni monitoranti, caratterizzata da una facile installazione e da un costo contenuto. Sarà fondamentale che la stazione possa trasmettere a distanza tutto ciò che i suoi sensori registrano, finché non sarà resa non operativa da un guasto meccanico causato dall'ambiente circostante.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’elaborato si prefigge di indagare il rapporto tra Italia e Unione Sovietica, analizzandolo da un punto di vista artistico. In particolare, verranno esaminati il lavoro e la filosofia dei gruppi italiani CCCP – Fedeli alla linea e Offlaga Disco Pax e due opere del fumettista Igort, precisamente Quaderni ucraini e Quaderni russi. Partendo da un esame del storico-sociale degli anni ’80 prima e degli Anni Zero del nuovo millennio poi, si indagherà sul legame che i due gruppi e l’autore hanno con l’URSS (o meglio, con il suo mito) e come e perché ne abbiano subito l’influenza. Ripercorrendo i momenti chiave della storia dei CCCP, analizzando i testi degli Offlaga Disco Pax e esaminando due fumetti di Igort verrà messo in luce un immaginario che mescola Italia e soviet, con l'obiettivo di trovare un punto d'incontro tra due realtà le cui divergenze sono più evidenti delle affinità.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nell’ambito del tirocinio svolto è stato affrontato lo studio del Progetto di messa in sicurezza e bonifica della Raffineria ISAB IMP. SUD, attiva nel SIN di Priolo Gargallo. In particolare lo studio ha visto il Monitoraggio Annuale delle acquee sotterranee. Il lavoro è stato articolato nelle seguenti fasi: Lo studio del Progetto di messa in sicurezza e bonifica dell’area Il campionamento delle acque attraverso sopralluoghi in campo Le analisi in laboratorio La validazione dei dati ottenuti La stesura della relazione tecnica relativamente ai dati validati, trasmessa all’azienda e agli enti competenti Il campionamento, che avviene attraverso un piezometro, prevede: Inizialmente la misura del livello statico della falda tramite freatimetro Segue la fase di spurgo, fin quando non si ha la stabilizzazione dei parametri quali pE, pH, temperatura, conducibilità elettrica, ecc… misurati in continuo tramite una sonda multiparametrica accoppiata alla cella di flusso Infine si campiona. In laboratorio sono state applicate le seguenti tecniche per l’analisi degli inquinanti definiti dal D.L.152/06: VOC e IPA; Analisi svolte secondo le metodiche ufficiali EPA 8260B e EPA 8272 Metalli; EPA 6020 a Idrocarburi; UNI EN ISO 9377-2/2002 (fraz. C10-C40). La validazione dei dati ha visto in particolare l’elaborazione dei risultati attraverso il confronto, per ogni parametro, tra i dati forniti dall’Azienda e i risultati delle analisi compiute dall’ARPA. Inerentemente al seguente studio è stata condotta, sulla base dei risultati delle diverse fasi di indagine ambientale svolte dall’azienda, l’analisi di rischio sito-specifica utilizzando il software RiskNet.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’attività di ricerca è focalizzata sull’analisi delle normative in materia di contratto di lavoro a termine in Italia, Francia e Spagna. Si tratta di Stati che, al pari del nostro, fanno un grandissimo uso di tale fattispecie, divenuta nei fatti il principale canale di ingresso nel mondo del lavoro, con percentuali complessive di rapporti a tempo determinato anche superiori a quelle italiane. Il confronto con due Paesi a noi vicini da un punto di vista giuridico, culturale e sociale è servito allo scopo di valutare la razionalità e l’opportunità delle profonde modifiche apportate alla disciplina generale da parte del decreto-legge n. 34/2014 (c.d. Decreto Poletti) ed ancora prima dalla riforma del sistema risarcitorio ad opera della legge n. 183/2010. Per ciascun ordinamento sono prese in considerazione le regole finalizzate alla tutela dei diritti dei lavoratori a termine, nonché gli orientamenti giurisprudenziali che hanno contribuito, specie in materia di non discriminazione, ad implementare il livello di protezione della posizione dei lavoratori stessi. Specifica attenzione viene dedicata, inoltre, alla disciplina del pubblico impiego, settore in cui si riscontra spesso un uso distorto delle assunzioni a tempo determinato, come testimoniano le vicende degli agents contractuels francesi e dei lavoratori c.d. indefinidos no fijos de plantilla. La conclusione della tesi è affidata allo studio del contenzioso originato dai tre Stati avanti alla Corte di Giustizia dell’Unione Europea, al fine di isolare eventuali momenti di sintesi delle differenze delle rispettive regolamentazioni. L’elemento aggregante che affiora dai dicta del supremo organo di giustizia comunitario è il principio di stabilità dell’impiego, la cui portata generale e trasversale può essere utile al fine di orientare l’attività produttiva e interpretativa delle norme nazionali nella direzione di un’implementazione delle tutele spettanti ai prestatori di lavoro a termine.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il capitale sociale e la qualità istituzionale sono due fenomeni che, da circa venti anni, hanno assunto il ruolo di protagonisti all’interno delle scienze sociali. Anche se per molto tempo sono stati analizzati separatamente, già dalla loro definizione è possibile intuire come essi rappresentino due facce della stessa medaglia. Questo lavoro ha l’obiettivo di comprendere quale è le relazione che lega il capitale sociale e la qualità istituzionale all’interno delle regioni dell’Unione Europea. Nonostante buona parte della letteratura si sia maggiormente dedicata all’analisi dei due fenomeni a livello nazionale, in questo elaborato si ritiene che la dimensione territoriale regionale sia l’unità di misura più idonea per analizzarli entrambi. La prima parte del lavoro analizza il capitale sociale sia da un punto di vista definitorio che da un punto di vista più prettamente empirico, suddividendolo in diversi elementi. Il capitale sociale è un fenomeno estremamente multidimensionale, analizzarne solo una parte condurrebbe ad un’analisi parziale ed approssimativa. All’interno del testo vengono individuate cinque dimensioni, utilizzate successivamente per la creazione di un nuovo indice di capitale sociale regionale. Nella seconda parte si affronta il tema delle istituzioni e della qualità istituzionale. Dopo aver definito le istituzioni, si provvede ad effettuare una rassegna degli indici più comunemente utilizzati per misurarne la qualità, selezionando l’European Quality of Government Index del Quality of Government Institute di Göteborg come il più appropriato, sia per la sua definizione di governance che per l’unità di analisi prescelta. Nella terza parte, infine, in seguito ad un’analisi di quella parte di letteratura che ritiene i due fenomeni indissolubilmente legati ed utilizzando l’indice di capitale sociale regionale sviluppato nel primo capitolo, si propone una risposta, sicuramente parziale e non definitiva, alla domanda che da vent’anni anima questo interessante filone di ricerca: che relazione sussiste tra qualità istituzionale e capitale sociale?

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L'imposta sul valore aggiunto è caratterizzata da un meccanismo applicativo complesso preordinato al raggiungimento della neutralità in cui rivestono fondamentale rilevanza particolari obblighi strumentali richiesti al contribuente (fatturazione, registrazioni contabili, dichiarazioni). Il presente progetto di ricerca è finalizzato a valutare la propensione e funzionalità del meccanismo applicativo rispetto al generale principio di neutralità dell’imposta e la valenza svolta dagli obblighi strumentali rispetto alla qualificazione della fattispecie impositiva.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L'argomento discusso in questa tesi riguarda la tecnica detta "stimolazione magnetica transcranica" (TMS) e le sue applicazioni sia in campo sperimentale sia in ambito medico e terapeutico. A tale scopo la trattazione analizzerà in primo luogo gli aspetti biologici del campo d'applicazione di tale tecnica, per poi focalizzarsi sui principi fisici e strumentali alla base della TMS, per concludere infine con alcuni esempi applicativi.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Analisi degli aspetti tecnici relativi alla progettazione aeroportuale

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La presente tesi ha come obiettivo quello di illustrare il flusso informativo che gestisce lo scambio dei dati relativi a cure radioterapiche nell’ambiente di medicina nucleare. La radioterapia comprende tutte quelle cure a base di sostanze radioattive o radiazioni che vengono somministrate a scopo diagnostico o terapeutico. Le due tecniche più utilizzate sono la brachiradioterapia e la radioterapia a fasci esterni. La prima è utilizza solo in casi selezionati di tumori direttamente accessibili e la sua caratteristica principale è la rapida diminuzione della dose con l'allontanarsi dalla sorgente, la seconda tecnica invece consiste nell’irradiare la zona interessata dall’esterno, utilizzando come sorgente di radiazioni una macchina chiamata acceleratore lineare, posta all’esterno del corpo del paziente. Questa terapia ha come obiettivo primario quello di ottenere la migliore distribuzione di dose nel volume bersaglio, risparmiando quanto più possibile i tessuti sani. Già dalla nascita della radioterapia, questa tecnica era caratterizzata dalla presenza di immagini digitali, cioè al contrario di altri reparti radiologici dove le immagini diagnostiche venivano impresse su pellicole, qui le informazioni circolavano già in formato elettronico. Per questo motivo già da subito si è avvertita l’esigenza di trovare una modalità per lo scambio, in maniera efficiente e sicura, di dati clinici per organizzare al meglio la cura del paziente e la pianificazione, anche con macchinari di diversi produttori, del trattamento radioterapico. In tutto questo ha svolto un ruolo fondamentale la proposta di IHE del framework di medicina nucleare, dove si dettavano linee guida per coordinare in maniera semplice e vantaggiosa l’integrazione informativa dei vari attori del processo di cura radioterapico.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La tesi si pone l’obiettivo di approfondire i restauri operati nel corso del tempo sulla fortezza di San Leo a seguito del sisma del 1786 ed affronta il delicato e complesso tema delle finiture delle superfici architettoniche esterne. La ricerca si è sviluppata a partire dall’analisi storico-critica delle vicende relative alla fortezza e alla città di San Leo, approfondendo le caratteristiche dell’architettura militare di transizione di Francesco di Giorgio Martini dal momento della sua fondazione nel Montefeltro, al fine di ricostruire la possibile sequenza delle fasi costruttive, anche attraverso la comparazione con altri esempi di fortificazioni sul territorio. L’analisi comparata delle fonti dirette e indirette, delle tracce murarie attraverso un accurato rilievo geometrico del complesso monumentale ottenuto con l’ausilio di molteplici tecniche di misura (topografiche, dirette, fotogrammetriche) opportunamente integrate in un unico sistema di riferimento, e il rilievo critico con tavole tematiche sulle superfici architettoniche, ha permesso di osservare sotto una nuova luce il singolare progetto di restauro elaborato da Giuseppe Valadier per la fortezza di San Leo. Esso rappresenta un’anticipazione della disciplina, maturata nell’ambiente colto romano dell’epoca, e fondata sulla presa di coscienza dei valori del manufatto architettonico. Si è provveduto a catalogare e descrivere più di 150 fonti documentarie, in gran parte inedite, collocate in un arco temporale che va dal Cinquecento, al periodo Moderno e Contemporaneo con le perizie del Genio Civile e della Soprintendenza. Sono state inoltre ordinate cronologicamente e descritte almeno 50 rappresentazioni iconografiche e cartografiche storiche. L’approccio analitico multidisciplinare, e la raccolta di informazioni storico-documentali, è stato completato da un’ultima fase di analisi, utile a determinare la stratificazione e la cronologia degli interventi. Sono state condotte indagini fisiche e chimiche su campioni, prelevati in loco durante il mese di novembre del 2008 sotto l’egida della Soprintendenza, al fine di determinare la formulazione e la microstuttura dei materiali, con particolare attenzione ai materiali lapidei, agli intonaci e alle coloriture, limitando le indagini a quelle strettamente necessarie. Le indagini strumentali sono state effettuate presso il Laboratorio di Scienza e Tecnologia dei Materiali (LASTM) del Dipartimento di Ingegneria Civile, Chimica, Ambientale e dei Materiali (DICAM) dell’Alma Mater Studiorum Università di Bologna, Scuola di Ingegneria e Architettura, seguendo procedure sviluppate dai gruppi di lavoro presso la struttura. Al fine di determinare la composizione chimica dei materiali sono state eseguite calcimetrie e diffrattometrie a raggi x, mentre per quanto riguarda la struttura e la microstruttura sono state eseguite delle analisi granulometriche. L’interpretazione dei dati, ottenuti dalla lettura organica delle fonti, ha permesso di inquadrare i differenti trattamenti superficiali esterni in relazione all’epoca di realizzazione.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nel presente lavoro di tesi, in seguito ad acquisizioni di dati effettuate nella sala prove del "Laboratorio di Macchine e Propulsione" della Scuola di Ingegneria e Architettura di Forlì sul turboshaft Allison 250 C18, in una prima fase sono state ricavate le mappe prestazionali dei singoli componenti del motore, elaborando i dati sperimentali in ambiente MatLab. Le acquisizioni sono state effettuate mediante l'utilizzo di sensori di pressione, temperatura e velocità installati in precedenza sul motore e opportunamente calibrati. In seguito alla realizzazione delle mappe prestazionali, si è passati all'allestimento completo di un modello dinamico in ambiente Simulink, del motore Allison 250 C18. Tale modello riproduce, in opportuni blocchi, ciascun componente facente parte della motorizzazione. Ogni blocco riceve in ingresso le caratteristiche fisiche di interesse del flusso (temperatura, pressione, calore specifico a pressione costante e gamma) provenienti dal blocco precedente tramite un "filo", le rielabora al suo interno risolvendo le equazioni tipiche di ciascun componente e interpolando le mappe di prestazione ricavate precedentemente in MatLab, e le invia come input al blocco successivo o in retroazione ai blocchi precedenti. In ogni blocco è stato realizzato un sistema di dinamica di pressione che, ad ogni istante, risolve un'equazione differenziale dipendente dalla differenza di portata a monte e a valle di un componente e dal volume di controllo, che restituisce il valore di pressione in uscita proporzionale alla variazione di portata stessa. Nel presente lavoro di tesi si è cercato di stabilizzare questo complesso sistema in una condizione di progetto, fissata a 30000 rpm del gruppo gas generator. Un sistema di controllo del numero di giri tramite variazione di portata di combustibile è stato realizzato al fine di poter, in futuro, far funzionare il modello anche fuori dalla condizione di progetto e riuscire a simulare l'andamento delle prove sperimentali reali.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le lingue sono veri organismi vitali che creano meccanismi propri al fine di esprimere concetti capaci di descrivere la realtà, fisica e interiore. Un meccanismo linguistico tipico delle lingue (ed anche una risorsa) per esprimere le diverse sfaccettature di una realtà multiforme e diversamente percettibile, è il ricorso a strutture perifrastiche, di utilizzo piuttosto comune in molte lingue. In quest’analisi, nello specifico, viene preso in esame e studiato il sistema perifrastico di tre lingue romanze, quali lo spagnolo, il francese e l’italiano; in particolare, l’attenzione è diretta alle perifrasi costruite con un verbo di movimento in funzione di ausiliare, per analizzare e dimostrare l’eventuale slittamento di tale concetto di movimento dal piano spaziale a quello temporale, o semplicemente metaforico. I sistemi linguistici sono stati scelti tutti appartenenti alla famiglia romanza, al fine di metterli a confronto e trovare convergenze e divergenze fra la gamma di perifrasi costruite con verbi di movimento che le lingue in questione, di ceppo comune, presentano. Per svolgere questo tipo di lavoro sono state utilizzate Grammatiche istituzionali, saggi, articoli e manuali che inquadrano il panorama linguistico di ogni lingua a partire da punti di vista differenti. Inoltre, al fine di dimostrare la tesi principale, ogni concetto teorico è accompagnato da dimostrazioni e da esempi, entrambi tratti da "corpora" linguistici già esistenti in rete.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L'Open Data, letteralmente “dati aperti”, è la corrente di pensiero (e il relativo “movimento”) che cerca di rispondere all'esigenza di poter disporre di dati legalmente “aperti”, ovvero liberamente re-usabili da parte del fruitore, per qualsiasi scopo. L’obiettivo dell’Open Data può essere raggiunto per legge, come negli USA dove l’informazione generata dal settore pubblico federale è in pubblico dominio, oppure per scelta dei detentori dei diritti, tramite opportune licenze. Per motivare la necessità di avere dei dati in formato aperto, possiamo usare una comparazione del tipo: l'Open Data sta al Linked Data, come la rete Internet sta al Web. L'Open Data, quindi, è l’infrastruttura (o la “piattaforma”) di cui il Linked Data ha bisogno per poter creare la rete di inferenze tra i vari dati sparsi nel Web. Il Linked Data, in altre parole, è una tecnologia ormai abbastanza matura e con grandi potenzialità, ma ha bisogno di grandi masse di dati tra loro collegati, ossia “linkati”, per diventare concretamente utile. Questo, in parte, è già stato ottenuto ed è in corso di miglioramento, grazie a progetti come DBpedia o FreeBase. In parallelo ai contributi delle community online, un altro tassello importante – una sorta di “bulk upload” molto prezioso – potrebbe essere dato dalla disponibilità di grosse masse di dati pubblici, idealmente anche già linkati dalle istituzioni stesse o comunque messi a disposizione in modo strutturato – che aiutino a raggiungere una “massa” di Linked Data. A partire dal substrato, rappresentato dalla disponibilità di fatto dei dati e dalla loro piena riutilizzabilità (in modo legale), il Linked Data può offrire una potente rappresentazione degli stessi, in termini di relazioni (collegamenti): in questo senso, Linked Data ed Open Data convergono e raggiungono la loro piena realizzazione nell’approccio Linked Open Data. L’obiettivo di questa tesi è quello di approfondire ed esporre le basi sul funzionamento dei Linked Open Data e gli ambiti in cui vengono utilizzati.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L'assistenza sanitaria in Italia e nel mondo è caratterizzata da bisogni elevati in continua crescita, ad essi si contrappone l'attuale crisi delle risorse economiche determinando per il Sistema una valutazione di scelte quali la riduzione o la rimodulazione dell'offerta sanitaria pubblica. L'idea di questo lavoro, nata all'interno dell'Istituto Scientifico Romagnolo per lo Studio e la Cura dei Tumori (IRST) IRCCS, è di approcciare questo problema in ottica di miglioramento delle performance anziché riduzione dei servizi, nella convinzione che vi siano importanti margini di perfezionamento. Per questi motivi si è valutata la necessità di sviluppare un metodo e un'applicazione software per l'identificazione dei percorsi diagnostici terapeutici assistenziali (PDTA), per la raccolta di dati dalle strutture coinvolte, per l'analisi dei costi e dei risultati, mirando ad una analisi di tipo costi - efficacia e di benchmarking in ottica di presa in carico dei bisogni di salute. La tesi descrive la fase di raccolta e analisi dei requisiti comprensiva della profilazione utenti e descrizione di alcuni aspetti dinamici salienti, la fase di progettazione concettuale (schema Entity/Relationship, glossario e volumi dei dati), la fase di progettazione logica e la prototipazione dell'interfaccia utente. Riporta inoltre una valutazione dei tempi di sviluppo realizzata tramite metodologia di calcolo dei punti per caso d'uso. L'applicazione progettata è oggetto di valutazione di fattibilità presso l'IRST, che ha utilizzato alcune delle metodologie descritte nella tesi per descrivere il percorso di patologia mammaria e presentarne i primi risultati all'interno di un progetto di ricerca in collaborazione con l'Agenzia Nazionale per i Servizi Sanitari Regionali (Agenas).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il Data Distribution Management (DDM) è un componente dello standard High Level Architecture. Il suo compito è quello di rilevare le sovrapposizioni tra update e subscription extent in modo efficiente. All'interno di questa tesi si discute la necessità di avere un framework e per quali motivi è stato implementato. Il testing di algoritmi per un confronto equo, librerie per facilitare la realizzazione di algoritmi, automatizzazione della fase di compilazione, sono motivi che sono stati fondamentali per iniziare la realizzazione framework. Il motivo portante è stato che esplorando articoli scientifici sul DDM e sui vari algoritmi si è notato che in ogni articolo si creavano dei dati appositi per fare dei test. L'obiettivo di questo framework è anche quello di riuscire a confrontare gli algoritmi con un insieme di dati coerente. Si è deciso di testare il framework sul Cloud per avere un confronto più affidabile tra esecuzioni di utenti diversi. Si sono presi in considerazione due dei servizi più utilizzati: Amazon AWS EC2 e Google App Engine. Sono stati mostrati i vantaggi e gli svantaggi dell'uno e dell'altro e il motivo per cui si è scelto di utilizzare Google App Engine. Si sono sviluppati quattro algoritmi: Brute Force, Binary Partition, Improved Sort, Interval Tree Matching. Sono stati svolti dei test sul tempo di esecuzione e sulla memoria di picco utilizzata. Dai risultati si evince che l'Interval Tree Matching e l'Improved Sort sono i più efficienti. Tutti i test sono stati svolti sulle versioni sequenziali degli algoritmi e che quindi ci può essere un riduzione nel tempo di esecuzione per l'algoritmo Interval Tree Matching.