983 resultados para Traffic jam, transizioni di fase, optimal velocity
Resumo:
Intelligent Transport Systems (ITS) consists in the application of ICT to transport to offer new and improved services to the mobility of people and freights. While using ITS, travellers produce large quantities of data that can be collected and analysed to study their behaviour and to provide information to decision makers and planners. The thesis proposes innovative deployments of classification algorithms for Intelligent Transport System with the aim to support the decisions on traffic rerouting, bus transport demand and behaviour of two wheelers vehicles. The first part of this work provides an overview and a classification of a selection of clustering algorithms that can be implemented for the analysis of ITS data. The first contribution of this thesis is an innovative use of the agglomerative hierarchical clustering algorithm to classify similar travels in terms of their origin and destination, together with the proposal for a methodology to analyse drivers’ route choice behaviour using GPS coordinates and optimal alternatives. The clusters of repetitive travels made by a sample of drivers are then analysed to compare observed route choices to the modelled alternatives. The results of the analysis show that drivers select routes that are more reliable but that are more expensive in terms of travel time. Successively, different types of users of a service that provides information on the real time arrivals of bus at stop are classified using Support Vector Machines. The results shows that the results of the classification of different types of bus transport users can be used to update or complement the census on bus transport flows. Finally, the problem of the classification of accidents made by two wheelers vehicles is presented together with possible future application of clustering methodologies aimed at identifying and classifying the different types of accidents.
Resumo:
Nel presente studio ci si è proposti di valutare la presenza e diffusione della leishmaniosi in una provincia dell’Italia centrale (Rieti) che, per caratteristiche ambientali (prevalentemente montuosa, clima freddo-secco) poco sembra prestarsi al ciclo della malattia. A questo scopo sono stati calcolati: i) sieroprevalenza grezza nella popolazione canina (2006-2013) e prevalenza media annuale ii) casi di leishmaniosi viscerale (LV) e cutanea (LC) (2000-2013). Catture di flebotomi sono state effettuate per due stagioni consecutive (2011-2012) per ogni sito sono stati registrati i dati climatici (temperatura, umidità etc.) ed altitudine. I flebotomi sono stati sottoposti a ricerca di Leishmania mediante PCR. La sieroprevalenza grezza per leishmania varia da 0 a 76,9% e la prevalenza media annuale non presenta un trend lineare. Sono stati registrati 6 casi di LV tutti in pazienti italiani tutti residenti in provincia di Rieti. I flebotomi sono stati rilevati in 5 dei 6 siti monitorati fino agli 800 m s.l.m., seppur con basse densità. Sono state identificate le seguenti specie: P. perniciosus (6,4 %), P. perfiliewi (1,8%), P. mascittii (0,1%) e S. minuta (91,7 %). E’ stata rilevata una correlazione statisticamente significativa (r=0,69, p<0,001) tra numero di flebotomi e temperatura giornaliera (Tmed°C) ed una correlazione negativa significativa (r= -0,51, p<0,05) con l’umidità relativa (Umed%). La ricerca di leishmania ha dato esito negativo in tutti i flebotomi analizzati. Questi rilievi suggeriscono l’endemia della leishmaniosi nella provincia di Rieti.
Resumo:
Nell’ambito del tirocinio svolto è stato affrontato lo studio del Progetto di messa in sicurezza e bonifica della Raffineria ISAB IMP. SUD, attiva nel SIN di Priolo Gargallo. In particolare lo studio ha visto il Monitoraggio Annuale delle acquee sotterranee. Il lavoro è stato articolato nelle seguenti fasi: Lo studio del Progetto di messa in sicurezza e bonifica dell’area Il campionamento delle acque attraverso sopralluoghi in campo Le analisi in laboratorio La validazione dei dati ottenuti La stesura della relazione tecnica relativamente ai dati validati, trasmessa all’azienda e agli enti competenti Il campionamento, che avviene attraverso un piezometro, prevede: Inizialmente la misura del livello statico della falda tramite freatimetro Segue la fase di spurgo, fin quando non si ha la stabilizzazione dei parametri quali pE, pH, temperatura, conducibilità elettrica, ecc… misurati in continuo tramite una sonda multiparametrica accoppiata alla cella di flusso Infine si campiona. In laboratorio sono state applicate le seguenti tecniche per l’analisi degli inquinanti definiti dal D.L.152/06: VOC e IPA; Analisi svolte secondo le metodiche ufficiali EPA 8260B e EPA 8272 Metalli; EPA 6020 a Idrocarburi; UNI EN ISO 9377-2/2002 (fraz. C10-C40). La validazione dei dati ha visto in particolare l’elaborazione dei risultati attraverso il confronto, per ogni parametro, tra i dati forniti dall’Azienda e i risultati delle analisi compiute dall’ARPA. Inerentemente al seguente studio è stata condotta, sulla base dei risultati delle diverse fasi di indagine ambientale svolte dall’azienda, l’analisi di rischio sito-specifica utilizzando il software RiskNet.
Resumo:
I sistemi di navigazione inerziale, denominati INS, e quelli di navigazione inerziale assistita, ovvero che sfruttano anche sensori di tipo non inerziale come ad esempio il GPS, denominati in questo caso INS/GPS, hanno visto un forte incremento del loro utilizzo soprattutto negli ultimi anni. I filtri complementari sfruttano segnali in ingresso che presentano caratteristiche complementari in termine di banda. Con questo lavoro di tesi mi sono inserito nel contesto del progetto SHERPA (Smart collaboration between Humans and ground-aErial Robots for imProving rescuing activities in Alpine environments), un progetto europeo, coordinato dall'Università di Bologna, che prevede di mettere a punto una piattaforma robotica in grado di aiutare i soccorritori che operano in ambienti ostili, come quelli del soccorso alpino, le guardie forestali, la protezione civile. In particolare è prevista la possibilità di lanciare i droni direttamente da un elicottero di supporto, per cui potrebbe essere necessario effettuare l'avvio del sistema in volo. Ciò comporta che il sistema di navigazione dovrà essere in grado di convergere allo stato reale del sistema partendo da un grande errore iniziale, dal momento che la fase di inizializzazione funziona bene solo in condizioni di velivolo fermo. Si sono quindi ricercati, in special modo, schemi che garantissero la convergenza globale. Gli algoritmi implementati sono alla base della navigazione inerziale, assistita da GPS ed Optical Flow, della prima piattaforma aerea sviluppata per il progetto SHERPA, soprannominata DreamDroneOne, che include una grande varietà di hardware appositamente studiati per il progetto, come il laser scanner, la camera termica, ecc. Dopo una panoramica dell'architettura del sistema di Guida, Navigazione e Controllo (GNC) in cui mi sono inserito, si danno alcuni cenni sulle diverse terne di riferimento e trasformazioni, si descrivono i diversi sensori utilizzati per la navigazione, si introducono gli AHRS (Attitude Heading Rference System), per la determinazione del solo assetto sfruttando la IMU ed i magnetometri, si analizza l'AHRS basato su Extended Kalman Filter. Si analizzano, di seguito, un algoritmo non lineare per la stima dell'assetto molto recente, e il sistema INS/GPS basato su EKF, si presenta un filtro complementare molto recente per la stima di posizione ed assetto, si presenta un filtro complementare per la stima di posizione e velocità, si analizza inoltre l'uso di un predittore GPS. Infine viene presentata la piattaforma hardware utilizzata per l'implementazione e la validazione, si descrive il processo di prototipazione software nelle sue fasi e si mostrano i risultati sperimentali.
Resumo:
Le biomasse sono attualmente la più promettente alternativa ai combustibili fossili per la produzione di sostanze chimiche e fuels. A causa di problematiche di natura etica la ricerca oggi si sta muovendo verso l'uso delle biomasse che sfruttano terreni non coltivabili e materie prime non commestibili, quali la lignocellulosa. Attualmente sono state identificate diverse molecole piattaforma derivanti da biomasse lignocellulosiche. Tra queste ha suscitato grande interesse la 2-furaldeide o furfurale (FU). Tale molecola può essere ottenuta mediante disidratazione di monosaccaridi pentosi e possiede elevate potenzialità; è infatti considerata un intermedio chiave per la sintesi di un’ampia varietà di combustibili alternativi come il metilfurano (MFU) e prodotti ad elevato valore aggiunto per l’industria polimerica e la chimica fine come l’alcol furfurilico (FAL). In letteratura tali prodotti vengono principalmente ottenuti in processi condotti in fase liquida mediante l’utilizzo di catalizzatori eterogenei a base di metalli nobili come: Ni-Co-Ru-Pd, Pt/C o Pt/Al2O3, NiMoB/γ-Al2O3, in presenza di idrogeno molecolare come agente riducente. La riduzione del gruppo carbonilico mediante l’utilizzo di alcoli come fonti di idrogeno e catalizzatori a base di metalli non nobili tramite la reazione di Meerwein–Ponndorf–Verley (MPV), rappresenta un approccio alternativo che limita il consumo di H2 e permette di utilizzare bio-alcoli come donatori di idrogeno. Lo scopo di questo lavoro di tesi è stato quello di mettere a punto un processo continuo, in fase gas, di riduzione della FU a FAL e MFU, utilizzando metanolo come fonte di idrogeno tramite un meccanismo di H-transfer. In dettaglio il lavoro svolto può essere così riassunto: Sintesi dei sistemi catalitici MgO e Mg/Fe/O e loro caratterizzazione mediante analisi XRD, BET, TGA/DTA, spettroscopia RAMAN. Studio dell’attività catalitica dei catalizzatori preparati nella reazione di riduzione in fase gas di FU a FAL e MFU utilizzando metanolo come fonte di idrogeno.
Resumo:
La ricerca sulla comunicazione e gestione multilingue della conoscenza in azienda si è sinora concentrata sulle multinazionali o PMI in fase di globalizzazione. La presente ricerca riguarda invece le PMI in zone storicamente multilingui al fine di studiare se l’abitudine all’uso di lingue diverse sul mercato locale possa rappresentare un vantaggio competitivo. La tesi illustra una ricerca multimetodo condotta nel 2012-2013 in Alto Adige/Südtirol. Il dataset consiste in 443 risposte valide a un questionario online e 23 interviste con manager e imprenditori locali. Le domande miravano a capire come le aziende altoatesine affrontino la sfida del multilinguismo, con particolare attenzione ai seguenti ambiti: comunicazione multilingue, documentazione, traduzione e terminologia. I risultati delineano un quadro generale delle strategie di multilinguismo applicate in Alto Adige, sottolineandone punti di forza e punti deboli. Nonostante la presenza di personale multilingue infatti il potenziale vantaggio competitivo che ne deriva non è sfruttato appieno: le aziende si rivolgono ai mercati in cui si parla la loro stessa lingua (le imprese a conduzione italiana al mercato nazionale, quelle di lingua tedesca ad Austria e Germania). La comunicazione interna è multilingue solo nei casi in sia imprescindibile. Le “traduzioni fai-da-te” offrono l’illusione di gestire lingue diverse, ma il livello qualitativo rimane limitato. I testi sono sovente tradotti da personale interno privo di competenze specifiche. Anche nella cooperazione con i traduttori esterni si evidenza la mancata capacità di ottenere il massimo profitto dagli investimenti. La tesi propone delle raccomandazioni pratiche volte a ottimizzare i processi attuali e massimizzare la resa delle risorse disponibili per superare la sfida della gestione e comunicazione multilingue. Le raccomandazioni non richiedono investimenti economici di rilievo e sono facilmente trasferibili anche ad altre regioni multilingui/di confine, come ad altre PMI che impiegano personale plurilingue. Possono dunque risultare utili per un elevato numero di imprese.
Resumo:
L’obiettivo del lavoro di ricerca consiste nell’analisi dei dati archeologici della sinagoga di Bova marina (RC). Dopo una veloce descrizione della presenza ebraica in Italia, attraverso i reperti archeologici, si è passati ad analizzare i dati degli scavi degli anni ’80 del Novecento e successivamente si è proceduto a delle nuove analisi stratigrafiche per definire la cronologia della sinagoga e dell’intero sito di S. Pasquale. Nella tesi sono riportati i nuovi dati inerenti il rilievo della sinagoga, le nuove ipotesi interpretative delle due aree sepolcrali e la lettura di un nuovo edificio collegabile alla stessa fase di vita della sinagoga.
Resumo:
Lo scritto ha l’obiettivo di definire dinamiche e cronologie di quel complesso processo espansionistico che portò Roma alla conquista dei territori dell’Ager Gallicus, partendo dall’analisi dettagliata della cultura materiale e dei rispettivi contesti di provenienza emersi dalle recenti indagini archeologiche realizzate dal Dipartimento di Storia Culture Civiltà dell’Università degli Studi di Bologna nella città di Senigallia. In armonia con quanto testimoniato dalle sequenze stratigrafiche documentate, si delineano quattro principali fasi di vita dell’abitato: la prima preromana, la seconda riferibile alla prima fase di romanizzazione del sito, la terza inerente allo sviluppo dell’insediamento con la fondazione della colonia romana e l’ultima riferibile all’età repubblicana. Emerge con chiarezza la presenza già dalla fine del IV-inizio III a.C., di un insediamento romano nel territorio della città, sviluppatosi con la fondazione di un’area sacra e la predisposizione di un’area produttiva. La scelta del sito di Sena Gallica fu strategica: un territorio idoneo allo sfruttamento agricolo e utile come testa di ponte per la conquista dei territori del Nord Italia. Inoltre, questo centro aveva già intrecciato rapporti commerciali con gli insediamenti costieri adriatici e mediterranei. La presenza di ceramica di produzione locale, il rinvenimento di elementi distanziatori e le caratteristiche geomorfologiche del sito, fanno ipotizzare la presenza in loco di un’officina ceramica. Ciò risulta di grande importanza dato che tutte le attestazioni ceramiche prodotte localmente e rinvenute nel territorio, fino ad oggi sono attribuite alle officine di Aesis e Ariminum. Dunque Sena Gallica sarebbe stata un centro commerciale e produttivo. La precoce presenza di ceramica a Vernice Nera di tipo romano-laziale prodotte localmente prima dell’istituzione ufficiale della colonia, che permette di ipotizzare uno stanziamento di piccoli gruppi di Romani in territori appena conquistati ma non ancora colonizzati, attestata a Sena Gallica, trova riscontro anche in altri centri adriatici come Ariminum, Aesis, Pisaurum, Suasa e Cattolica.
Resumo:
La suddivisione in aree assistenziali per intensità di cura e non in reparti e unità operative, consente al personale medico e sanitario una migliore gestione del paziente, ponendolo al centro del suo percorso di cura, evitando dispersioni, sprechi di tempo, di spazio, di risorse e consentendo una ottimizzazione del proprio lavoro. I settori su cui questo elaborato tende a focalizzarsi maggiormente, sono le aree a media e bassa intensità. Tali aree ospitano pazienti i quali necessitano di monitoraggio dei propri parametri fisiologici vitali, ma non in modo invasivo e costante come al contrario avviene in aree assistenziali ad intensità più alta. Si tratterà in particolare di quali dispositivi sono i più adatti per essere impiegati all’interno di tali aree. Si vuole sottolineare l’importanza della “modularità” di questi dispositivi, ovvero la possibilità di rilevare solo ed esclusivamente i parametri che realmente servono al medico per comprendere il quadro clinico del paziente in fase di stabilizzazione. I dati rilevati vengono poi generalmente trasmessi a un accentratore attraverso Bluetooth o altri standard a corto raggio. La cartella clinica del paziente viene aggiornata automaticamente e il personale sanitario può accedere in qualsiasi momento allo storico dei dati, ottimizzando il proprio lavoro. Per descrivere lo stato dell’arte dei dispositivi ne vengono riportati due esempi: Win@Hospital dell’azienda pisana Winmedical e EverOn dell’azienda israeliana EarlySense. L’integrazione dei dati medicali di questi dispositivi, così come per tutte le apparecchiature biomedicali presenti all’interno degli ospedali, avviene per mezzo di standard quali HL7 e sulla base di profili di integrazione definiti da IHE.
Resumo:
Il continuo sviluppo negli ultimi anni di diverse declinazioni della spettroscopia d'assorbimento a raggi X (XAS) con radiazione di sincrotrone ha permesso la determinazione della struttura locale di campioni di ogni tipo, dagli elementi puri, ai più moderni materiali, indagando e approfondendo la conoscenza di quei meccanismi che conferiscono a questi ultimi delle proprietà innovative e, a volte, rivoluzionarie. Il vantaggio di questa tecnica è quello di poter ottenere informazioni sulla struttura del campione soprattutto a livello locale, rendendo relativamente agevole l'analisi di sistemi senza ordine a lungo raggio, quali per esempio i film molecolari. Nell'elaborato verrà preliminarmente illustrata la fenomenologia della XAS e l’interpretazione teorica dell'origine della struttura fine. Saranno successivamente descritte le innovative tecniche di misura che permettono di studiare i cambiamenti della struttura locale indotti dall'illuminazione con luce visibile, inclusi gli esperimenti di tipo pump probe. Un capitolo della tesi è interamente dedicato alla descrizione dei campioni studiati, di cui sono stati analizzati alcuni dati acquisiti in condizioni statiche. Quest'analisi è stata compiuta sfruttando anche dei cammini di multiplo scattering dedicando particolare attenzione alla trattazione del fattore di Debye Waller. Nella parte principale della tesi verranno descritti la progettazione ed il test di un apparato sperimentale per l'acquisizione di spettri differenziali da utilizzare alla beamline BM08 dell'European Synchrotron Radiation Facility di Grenoble. Saranno presentate principalmente le modifiche apportate al software d'acquisizione della linea e la progettazione di un sistema ottico d'eccitazione da montare nella camera sperimentale. Nella fase di studio dell'ottica è stato creato in LabView un simulatore basato sul metodo Monte Carlo, capace di prevedere il comportamento del sistema di lenti.
Resumo:
La tesi si pone l’obiettivo di approfondire i restauri operati nel corso del tempo sulla fortezza di San Leo a seguito del sisma del 1786 ed affronta il delicato e complesso tema delle finiture delle superfici architettoniche esterne. La ricerca si è sviluppata a partire dall’analisi storico-critica delle vicende relative alla fortezza e alla città di San Leo, approfondendo le caratteristiche dell’architettura militare di transizione di Francesco di Giorgio Martini dal momento della sua fondazione nel Montefeltro, al fine di ricostruire la possibile sequenza delle fasi costruttive, anche attraverso la comparazione con altri esempi di fortificazioni sul territorio. L’analisi comparata delle fonti dirette e indirette, delle tracce murarie attraverso un accurato rilievo geometrico del complesso monumentale ottenuto con l’ausilio di molteplici tecniche di misura (topografiche, dirette, fotogrammetriche) opportunamente integrate in un unico sistema di riferimento, e il rilievo critico con tavole tematiche sulle superfici architettoniche, ha permesso di osservare sotto una nuova luce il singolare progetto di restauro elaborato da Giuseppe Valadier per la fortezza di San Leo. Esso rappresenta un’anticipazione della disciplina, maturata nell’ambiente colto romano dell’epoca, e fondata sulla presa di coscienza dei valori del manufatto architettonico. Si è provveduto a catalogare e descrivere più di 150 fonti documentarie, in gran parte inedite, collocate in un arco temporale che va dal Cinquecento, al periodo Moderno e Contemporaneo con le perizie del Genio Civile e della Soprintendenza. Sono state inoltre ordinate cronologicamente e descritte almeno 50 rappresentazioni iconografiche e cartografiche storiche. L’approccio analitico multidisciplinare, e la raccolta di informazioni storico-documentali, è stato completato da un’ultima fase di analisi, utile a determinare la stratificazione e la cronologia degli interventi. Sono state condotte indagini fisiche e chimiche su campioni, prelevati in loco durante il mese di novembre del 2008 sotto l’egida della Soprintendenza, al fine di determinare la formulazione e la microstuttura dei materiali, con particolare attenzione ai materiali lapidei, agli intonaci e alle coloriture, limitando le indagini a quelle strettamente necessarie. Le indagini strumentali sono state effettuate presso il Laboratorio di Scienza e Tecnologia dei Materiali (LASTM) del Dipartimento di Ingegneria Civile, Chimica, Ambientale e dei Materiali (DICAM) dell’Alma Mater Studiorum Università di Bologna, Scuola di Ingegneria e Architettura, seguendo procedure sviluppate dai gruppi di lavoro presso la struttura. Al fine di determinare la composizione chimica dei materiali sono state eseguite calcimetrie e diffrattometrie a raggi x, mentre per quanto riguarda la struttura e la microstruttura sono state eseguite delle analisi granulometriche. L’interpretazione dei dati, ottenuti dalla lettura organica delle fonti, ha permesso di inquadrare i differenti trattamenti superficiali esterni in relazione all’epoca di realizzazione.
Resumo:
Il presente lavoro di tesi si inserisce nell’ambito della classificazione di dati ad alta dimensionalità, sviluppando un algoritmo basato sul metodo della Discriminant Analysis. Esso classifica i campioni attraverso le variabili prese a coppie formando un network a partire da quelle che hanno una performance sufficientemente elevata. Successivamente, l’algoritmo si avvale di proprietà topologiche dei network (in particolare la ricerca di subnetwork e misure di centralità di singoli nodi) per ottenere varie signature (sottoinsiemi delle variabili iniziali) con performance ottimali di classificazione e caratterizzate da una bassa dimensionalità (dell’ordine di 101, inferiore di almeno un fattore 103 rispetto alle variabili di partenza nei problemi trattati). Per fare ciò, l’algoritmo comprende una parte di definizione del network e un’altra di selezione e riduzione della signature, calcolando ad ogni passaggio la nuova capacità di classificazione operando test di cross-validazione (k-fold o leave- one-out). Considerato l’alto numero di variabili coinvolte nei problemi trattati – dell’ordine di 104 – l’algoritmo è stato necessariamente implementato su High-Performance Computer, con lo sviluppo in parallelo delle parti più onerose del codice C++, nella fattispecie il calcolo vero e proprio del di- scriminante e il sorting finale dei risultati. L’applicazione qui studiata è a dati high-throughput in ambito genetico, riguardanti l’espressione genica a livello cellulare, settore in cui i database frequentemente sono costituiti da un numero elevato di variabili (104 −105) a fronte di un basso numero di campioni (101 −102). In campo medico-clinico, la determinazione di signature a bassa dimensionalità per la discriminazione e classificazione di campioni (e.g. sano/malato, responder/not-responder, ecc.) è un problema di fondamentale importanza, ad esempio per la messa a punto di strategie terapeutiche personalizzate per specifici sottogruppi di pazienti attraverso la realizzazione di kit diagnostici per l’analisi di profili di espressione applicabili su larga scala. L’analisi effettuata in questa tesi su vari tipi di dati reali mostra che il metodo proposto, anche in confronto ad altri metodi esistenti basati o me- no sull’approccio a network, fornisce performance ottime, tenendo conto del fatto che il metodo produce signature con elevate performance di classifica- zione e contemporaneamente mantenendo molto ridotto il numero di variabili utilizzate per questo scopo.
Resumo:
OPERA è un esperimento installato ai Laboratori del Gran Sasso, lungo la linea del fascio di neutrini CNGS prodotto al CERN. Il suo scopo principale è osservare - per la prima volta in modo diretto - il fenomeno dell'oscillazione di neutrini muonici del CNGS, in neutrini-tau. L'esperimento è attualmente in fase di analisi dati. Accanto al canale di oscillazione dominante nu_mu--> nu_tau OPERA può studiare anche il canale nu_mu--> nu_e grazie all'ottima capacità di identificazione degli elettroni. OPERA utilizza un bersaglio attivo, finemente segmentato in moduli ("brick") costituiti da pile di fogli di emulsioni nucleare e lastre di piombo. Ogni "brick", il cui spessore è equivalente a 10 lunghezze di radiazione, è un rivelatore "stand-alone" attraverso il quale è possibile identificare e ricostruire gli sciami elettromagnetici e quindi le interazioni a corrente carica di neutrini elettronici. Il progetto di tesi si inquadra in questo contesto. Gli obiettivi specifici sono: - implementazione di una nuova procedura di trigger applicata per l'identificazione degli sciami elettromagnetici; - validazione della suddetta procedura sui dati simulati.
Resumo:
The development of next generation microwave technology for backhauling systems is driven by an increasing capacity demand. In order to provide higher data rates and throughputs over a point-to-point link, a cost-effective performance improvement is enabled by an enhanced energy-efficiency of the transmit power amplification stage, whereas a combination of spectrally efficient modulation formats and wider bandwidths is supported by amplifiers that fulfil strict constraints in terms of linearity. An optimal trade-off between these conflicting requirements can be achieved by resorting to flexible digital signal processing techniques at baseband. In such a scenario, the adaptive digital pre-distortion is a well-known linearization method, that comes up to be a potentially widely-used solution since it can be easily integrated into base stations. Its operation can effectively compensate for the inter-modulation distortion introduced by the power amplifier, keeping up with the frequency-dependent time-varying behaviour of the relative nonlinear characteristic. In particular, the impact of the memory effects become more relevant and their equalisation become more challenging as the input discrete signal feature a wider bandwidth and a faster envelope to pre-distort. This thesis project involves the research, design and simulation a pre-distorter implementation at RTL based on a novel polyphase architecture, which makes it capable of operating over very wideband signals at a sampling rate that complies with the actual available clock speed of current digital devices. The motivation behind this structure is to carry out a feasible pre-distortion for the multi-band spectrally efficient complex signals carrying multiple channels that are going to be transmitted in near future high capacity and reliability microwave backhaul links.
Resumo:
Lo scopo principale di questa tesi di laurea è la valutazione della vulnerabilità sismica di un edificio esistente in muratura portante. In particolare si è esaminato il corpo Est del padiglione 19 del complesso ospedaliero San’Orsola-Malpighi di Bologna. Dopo una prima fase di conoscenza dell’edificio, attraverso sopralluoghi e tramite gli elaborati forniti dall’ufficio tecnico dell’ospedale, si è passati alla modellazione ad elementi finiti mediante il programma di calcolo Sap2000. Mediante modellazione manuale e modellazione FEM sono state eseguite prima le analisi lineari (statiche e dinamiche) e successivamente l’analisi statica non lineare. L’analisi lineare è stata condotta attraverso i tre livelli di analisi sismiche (LV1, LV2, LV3). Nel caso dell’analisi non lineare, si sono studiati prima i singoli maschi murari con modello a mensola e alla Grinter, poi pareti monopiano senza e con fasce di piano. L’analisi della struttura, infine, è stata svolta analizzando pareti multipiano soggette a due differenti distribuzioni di forze orizzontali, confrontando la domanda di spostamento, indotta dall’azione sismica, con la capacità di spostamento della struttura stessa. La tesi si conclude con considerazioni finali in merito ad analogie e differenze riscontrate nei due metodi di analisi utilizzati.