988 resultados para domicilio digitale, posta elettronica certificata, posta elettronica, pubblica amministrazione
Resumo:
The idea of balancing the resources spent in the acquisition and encoding of natural signals strictly to their intrinsic information content has interested nearly a decade of research under the name of compressed sensing. In this doctoral dissertation we develop some extensions and improvements upon this technique's foundations, by modifying the random sensing matrices on which the signals of interest are projected to achieve different objectives. Firstly, we propose two methods for the adaptation of sensing matrix ensembles to the second-order moments of natural signals. These techniques leverage the maximisation of different proxies for the quantity of information acquired by compressed sensing, and are efficiently applied in the encoding of electrocardiographic tracks with minimum-complexity digital hardware. Secondly, we focus on the possibility of using compressed sensing as a method to provide a partial, yet cryptanalysis-resistant form of encryption; in this context, we show how a random matrix generation strategy with a controlled amount of perturbations can be used to distinguish between multiple user classes with different quality of access to the encrypted information content. Finally, we explore the application of compressed sensing in the design of a multispectral imager, by implementing an optical scheme that entails a coded aperture array and Fabry-Pérot spectral filters. The signal recoveries obtained by processing real-world measurements show promising results, that leave room for an improvement of the sensing matrix calibration problem in the devised imager.
Resumo:
Self-organising pervasive ecosystems of devices are set to become a major vehicle for delivering infrastructure and end-user services. The inherent complexity of such systems poses new challenges to those who want to dominate it by applying the principles of engineering. The recent growth in number and distribution of devices with decent computational and communicational abilities, that suddenly accelerated with the massive diffusion of smartphones and tablets, is delivering a world with a much higher density of devices in space. Also, communication technologies seem to be focussing on short-range device-to-device (P2P) interactions, with technologies such as Bluetooth and Near-Field Communication gaining greater adoption. Locality and situatedness become key to providing the best possible experience to users, and the classic model of a centralised, enormously powerful server gathering and processing data becomes less and less efficient with device density. Accomplishing complex global tasks without a centralised controller responsible of aggregating data, however, is a challenging task. In particular, there is a local-to-global issue that makes the application of engineering principles challenging at least: designing device-local programs that, through interaction, guarantee a certain global service level. In this thesis, we first analyse the state of the art in coordination systems, then motivate the work by describing the main issues of pre-existing tools and practices and identifying the improvements that would benefit the design of such complex software ecosystems. The contribution can be divided in three main branches. First, we introduce a novel simulation toolchain for pervasive ecosystems, designed for allowing good expressiveness still retaining high performance. Second, we leverage existing coordination models and patterns in order to create new spatial structures. Third, we introduce a novel language, based on the existing ``Field Calculus'' and integrated with the aforementioned toolchain, designed to be usable for practical aggregate programming.
Resumo:
Nowadays the rise of non-recurring engineering (NRE) costs associated with complexity is becoming a major factor in SoC design, limiting both scaling opportunities and the flexibility advantages offered by the integration of complex computational units. The introduction of embedded programmable elements can represent an appealing solution, able both to guarantee the desired flexibility and upgradabilty and to widen the SoC market. In particular embedded FPGA (eFPGA) cores can provide bit-level optimization for those applications which benefits from synthesis, paying on the other side in terms of performance penalties and area overhead with respect to standard cell ASIC implementations. In this scenario this thesis proposes a design methodology for a synthesizable programmable device designed to be embedded in a SoC. A soft-core embedded FPGA (eFPGA) is hence presented and analyzed in terms of the opportunities given by a fully synthesizable approach, following an implementation flow based on Standard-Cell methodology. A key point of the proposed eFPGA template is that it adopts a Multi-Stage Switching Network (MSSN) as the foundation of the programmable interconnects, since it can be efficiently synthesized and optimized through a standard cell based implementation flow, ensuring at the same time an intrinsic congestion-free network topology. The evaluation of the flexibility potentialities of the eFPGA has been performed using different technology libraries (STMicroelectronics CMOS 65nm and BCD9s 0.11μm) through a design space exploration in terms of area-speed-leakage tradeoffs, enabled by the full synthesizability of the template. Since the most relevant disadvantage of the adopted soft approach, compared to a hardcore, is represented by a performance overhead increase, the eFPGA analysis has been made targeting small area budgets. The generation of the configuration bitstream has been obtained thanks to the implementation of a custom CAD flow environment, and has allowed functional verification and performance evaluation through an application-aware analysis.
Resumo:
This thesis focuses on the energy efficiency in wireless networks under the transmission and information diffusion points of view. In particular, on one hand, the communication efficiency is investigated, attempting to reduce the consumption during transmissions, while on the other hand the energy efficiency of the procedures required to distribute the information among wireless nodes in complex networks is taken into account. For what concerns energy efficient communications, an innovative transmission scheme reusing source of opportunity signals is introduced. This kind of signals has never been previously studied in literature for communication purposes. The scope is to provide a way for transmitting information with energy consumption close to zero. On the theoretical side, starting from a general communication channel model subject to a limited input amplitude, the theme of low power transmission signals is tackled under the perspective of stating sufficient conditions for the capacity achieving input distribution to be discrete. Finally, the focus is shifted towards the design of energy efficient algorithms for the diffusion of information. In particular, the endeavours are aimed at solving an estimation problem distributed over a wireless sensor network. The proposed solutions are deeply analyzed both to ensure their energy efficiency and to guarantee their robustness against losses during the diffusion of information (against information diffusion truncation more in general).
Resumo:
This thesis collects the outcomes of a Ph.D. course in Telecommunications Engineering and it is focused on the study and design of possible techniques able to counteract interference signal in Global Navigation Satellite System (GNSS) systems. The subject is the jamming threat in navigation systems, that has become a very increasingly important topic in recent years, due to the wide diffusion of GNSS-based civil applications. Detection and mitigation techniques are developed in order to fight out jamming signals, tested in different scenarios and including sophisticated signals. The thesis is organized in two main parts, which deal with management of GNSS intentional counterfeit signals. The first part deals with the interference management, focusing on the intentional interfering signal. In particular, a technique for the detection and localization of the interfering signal level in the GNSS bands in frequency domain has been proposed. In addition, an effective mitigation technique which exploits the periodic characteristics of the common jamming signals reducing interfering effects at the receiver side has been introduced. Moreover, this technique has been also tested in a different and more complicated scenario resulting still effective in mitigation and cancellation of the interfering signal, without high complexity. The second part still deals with the problem of interference management, but regarding with more sophisticated signal. The attention is focused on the detection of spoofing signal, which is the most complex among the jamming signal types. Due to this highly difficulty in detect and mitigate this kind of signal, spoofing threat is considered the most dangerous. In this work, a possible techniques able to detect this sophisticated signal has been proposed, observing and exploiting jointly the outputs of several operational block measurements of the GNSS receiver operating chain.
Resumo:
Information is nowadays a key resource: machine learning and data mining techniques have been developed to extract high-level information from great amounts of data. As most data comes in form of unstructured text in natural languages, research on text mining is currently very active and dealing with practical problems. Among these, text categorization deals with the automatic organization of large quantities of documents in priorly defined taxonomies of topic categories, possibly arranged in large hierarchies. In commonly proposed machine learning approaches, classifiers are automatically trained from pre-labeled documents: they can perform very accurate classification, but often require a consistent training set and notable computational effort. Methods for cross-domain text categorization have been proposed, allowing to leverage a set of labeled documents of one domain to classify those of another one. Most methods use advanced statistical techniques, usually involving tuning of parameters. A first contribution presented here is a method based on nearest centroid classification, where profiles of categories are generated from the known domain and then iteratively adapted to the unknown one. Despite being conceptually simple and having easily tuned parameters, this method achieves state-of-the-art accuracy in most benchmark datasets with fast running times. A second, deeper contribution involves the design of a domain-independent model to distinguish the degree and type of relatedness between arbitrary documents and topics, inferred from the different types of semantic relationships between respective representative words, identified by specific search algorithms. The application of this model is tested on both flat and hierarchical text categorization, where it potentially allows the efficient addition of new categories during classification. Results show that classification accuracy still requires improvements, but models generated from one domain are shown to be effectively able to be reused in a different one.
Resumo:
This thesis regards the study and the development of new cognitive assessment and rehabilitation techniques of subjects with traumatic brain injury (TBI). In particular, this thesis i) provides an overview about the state of art of this new assessment and rehabilitation technologies, ii) suggests new methods for the assessment and rehabilitation and iii) contributes to the explanation of the neurophysiological mechanism that is involved in a rehabilitation treatment. Some chapters provide useful information to contextualize TBI and its outcome; they describe the methods used for its assessment/rehabilitation. The other chapters illustrate a series of experimental studies conducted in healthy subjects and TBI patients that suggest new approaches to assessment and rehabilitation. The new proposed approaches have in common the use of electroencefalografy (EEG). EEG was used in all the experimental studies with a different purpose, such as diagnostic tool, signal to command a BCI-system, outcome measure to evaluate the effects of a treatment, etc. The main achieved results are about: i) the study and the development of a system for the communication with patients with disorders of consciousness. It was possible to identify a paradigm of reliable activation during two imagery task using EEG signal or EEG and NIRS signal; ii) the study of the effects of a neuromodulation technique (tDCS) on EEG pattern. This topic is of great importance and interest. The emerged founding showed that the tDCS can manipulate the cortical network activity and through the research of optimal stimulation parameters, it is possible move the working point of a neural network and bring it in a condition of maximum learning. In this way could be possible improved the performance of a BCI system or to improve the efficacy of a rehabilitation treatment, like neurofeedback.
Resumo:
Oggetto del presente studio è il progetto di ricostruzione del centro urbano di Le Havre ad opera di Auguste Perret. Suo obiettivo è il riconoscimento di quell’idea di città posta a fondamento del progetto, per il quale ci si propone di indagare il senso e le grammatiche costitutive della sua forma. Quella di Le Havre costituisce una dimostrazione di come una forma urbana ancora compatta ed evocativa della città storica possa definirsi a partire dalle relazioni stabilite con gli elementi della geografia fisica. Nei suoi luoghi collettivi e monumentali, che rimandano chiaramente a una cultura dell’abitare che affonda le proprie radici nella più generale esperienza della costruzione della città francese, la città riconosce un valore formale e sceglie di rappresentare il proprio mondo civico dinanzi a quei grandi elementi della geografia fisica che costituiscono l’identità del luogo nel quale questa si colloca. Sembra infatti possibile affermare che gli spazi pubblici della città atlantica riconoscano e traducano nella forma della Place de l’Hôtel de Ville le ripide pendici della falesia del Bec-de-Caux, in quella della Porte Océane l’orizzonte lontano dell’Oceano, e nel Front-de-mer Sud l’altra riva dell’estuario della Senna. Questa relazione fondativa sembra essere conseguita anche attraverso la definizione di un’appropriata grammatica dello spazio urbano, la cui significatività è nel fondarsi sull’assunzione, allo stesso tempo, del valore dello spazio circoscritto e del valore dello spazio aperto. La riflessione sullo spazio urbano investe anche la costruzione dell’isolato, sottoposto a una necessaria rifondazione di forma e significato, allo scopo di rendere intellegibile le relazioni tra gli spazi finiti della città e quelli infiniti della natura. La definizione dell’identità dello spazio urbano, sembra fondarsi, in ultima analisi, sulle possibilità espressive delle forme della costruzione che, connotate come forme dell’architettura, definiscono il carattere dei tipi edilizi e dello spazio da questi costruito.
Resumo:
La semplicità, affidabilità, robustezza ed economicità del motore asincrono trifase ne fanno un motore largamente utilizzato sia in ambiente industriale che civile (pompe, ascensori, montacarichi, nastri trasportatori, ventilatori, locomotive ferroviarie, …). È ipotizzabile che in futuro vi sarà sempre più largo impiego di motori elettrici e i recenti sviluppi nella tecnologia dei convertitori elettronici per il controllo dei motori asincroni ne consentiranno l’uso in sempre più estesi ambiti applicativi. La messa sotto tensione di motori a media/alta potenza presenta però, in fase di avviamento, correnti di spunto e coppie elevate che devono essere controllate. In questa tesi saranno pertanto studiate le tecniche di protezione, avviamento e controllo dei motori asincroni trifase Nel primo capitolo esamineremo le funzioni di sezionamento, comando e protezione da cortocircuiti e sovraccarichi e i dispositivi adatti a svolgere tale compito in modo coordinato. Nel secondo capitolo esamineremo le principali tecnologie usate per l’avviamento dei motori, da quelle più semplici a quelle che impiegano dispositivi elettronici allo stato solido: Soft-Starters a tiristori (solo regolazione AC), Inverters a transistori (controllo sia in frequenza che ampiezza della forma d’onda AC generata). Fra tutti i possibili convertitori DC/AC analizzeremo dettagliatamente esclusivamente quelli a controllo PWM analogico che costituiranno l’oggetto della trattazione dei capitoli seguenti.
Resumo:
Il seguente lavoro di tesi è finalizzato alla realizzazione dell’elettronica di controllo per una vettura prototipo, Nel Capitolo 1 della tesi viene descritto più nel dettaglio il progetto Formula SAE, introducendo gli aspetti peculiari della competizione; successivamente segue una breve descrizione del team UniBo Motorsport. Il Capitolo 2 descrive l’elettronica implementata nella stagione 2013 evidenziandone i punti di forza e le debolezze al fine di poter trarre delle conclusioni per comprendere la direzione intrapresa con questo lavoro di tesi. Nel Capitolo 3 viene presentata la soluzione proposta,motivandone le scelte e la necessità di suddividere il lavoro in più unità distinte, mantenendo le peculiarità tecniche del già eccellente lavoro effettuato nel corso degli anni da chi mi ha preceduto ed aggiungendo quelle funzionalità che permettono di mantenere la soluzione in una posizione dominante nel panorama della Formula Student. La progettazione dell’hardware che compone la soluzione proposta è descritta nel Capitolo 4, introducendo dapprima la metodologia adottata per la progettazione partendo dalle specifiche fino ad arrivare al prodotto finito ed in seguito ne viene descritta l’applicazione ad ogni unità oggetto del lavoro. Sono state progettate da zero tre unità: una centralina di controllo motore (ECU), una di controllo veicolo (VCU) ed un controller lambda per la gestione di sonde UEGO. Un aiuto fondamentale nella progettazione di queste tre unità è stato dato da Alma Automotive, azienda che fin dal principio ha supportato, anche economicamente, le varie evoluzioni dell’hardware e del software della vettura. Infine viene descritto nel capitolo 5 il software che verrà eseguito sulle unità di controllo, ponendo particolare risalto al lavoro di adattamento che si è reso necessario per riutilizzare il software in uso negli anni precedenti.
Resumo:
L’obiettivo di questa tesi è rilevare se e quanto i medical dramas abbiano contribuito a ridefinire conoscenze, aspettative e pratiche dei telespettatori/pazienti rispetto a questioni concernenti la salute e il loro ruolo all’interno della relazione medico-paziente. Grazie ad un lavoro di campo, fatto di questionari e interviste con utenti, operatori della sanità di Centro e Nord Italia e studenti di Medicina, sono state poi registrate le modalità di interazione che i protagonisti della scena della cura dichiarano di sperimentare quotidianamente. Ciò ha permesso di rendere conto delle trasformazioni più recenti della professione medica e di come viene elaborato oggi il sapere sulla malattia da parte dei soggetti implicati, fra tecnicismi, atteggiamenti difensivi, sfiducia e affidamento. La tesi restituisce anche alcune modalità sperimentali di interazione fra pazienti e medici, messe in atto in contesti locali, che testimoniano l’esigenza di approdare a un sapere partecipato delle relazioni di cura. Infine, raccogliendo la sfida posta dalle medical humanities, immagina un utilizzo del medical drama nella formazione degli studenti di medicina per l’apprendimento di competenze narrative necessarie ad una pratica medica più umana e efficace.
Resumo:
La radiazione elettromagnetica è una singola entità, come si deduce dall’universalità delle leggi di Maxwell, nonostante lo spettro elettromagnetico sia caratterizzato da regioni a cui si associano nomi differenti. Questo implica l’esistenza di un meccanismo fondamentale comune alla base di tutti i processi di radiazione, che si identifica in una carica in moto non uniforme. Infatti una carica stazionaria ha un campo elettrico costante e un campo magnetico nullo, quindi non irradia; lo stesso vale per una carica in moto uniforme. La radiazione di Bremsstrahlung, che avviene nel continuo, spaziando dal radio ai raggi gamma, fu scoperta negli anni ’30 del secolo scorso, in seguito all’osservazione che la perdita di energia che subisce un elettrone attraversando la materia non è data unicamente dalla ionizzazione: l’elettrone, accelerato dal nucleo ionizzato, irradia e, di conseguenza, viene frenato. Letteralmente “Bremsstrahlung“ significa “radiazione di frenamento” e in astrofisica rappresenta il principale meccanismo di raffreddamento di un plasma a temperature molto elevate; nel seguente elaborato tale plasma sarà considerato monoatomico e completamente ionizzato. Dall’analisi dello spettro di Bremsstrahlung si possono rilevare la temperatura e la misura di emissione della nube di gas osservato, che consentono di ricavare la densità, la massa e la luminosità della nube stessa. Nel capitolo 1 vengono riportate la descrizione di questo processo di radiazione e le principali formule che lo caratterizzano, illustrate in ambiente semiclassico (Bremsstrahlung termica) e in ambiente relativistico (Bremsstrahlung relativistica). Nel capitolo 2 segue la trattazione di alcuni esempi astrofisici: le regioni HII; il gas intergalattico degli ammassi di galassie ed emettono principalmente nella banda X; le galassie Starburst; le binarie X; la componente elettronica dei raggi cosmici e i brillamenti solari; infine un accenno agli oggetti di Herbig-Haro.
Resumo:
L’Arco d’Augusto di Rimini rappresenta da sempre il monumento simbolo della città; ha visto ogni periodo storico, dei quali riporta tuttora i segni in modo visibile. L’alto valore storico, culturale ed artistico che l’Arco porta con se merita di essere valorizzato, conservato e studiato. E’ stato realizzato un rilievo fotogrammetrico del monumento romano e una successiva analisi strutturale mediante la tecnica F.E.M. Il rilievo è stato eseguito con la moderna tecnica digitale non convenzionale, la quale ha permesso di comprendere quanto essa sia in grado di soddisfare le varie esigenze di rilievo nell’ambito dei Beni Culturali. Nel primo capitolo si affrontano le tematiche relative al rilievo dei Beni Culturali, si concentra poi l’attenzione sul settore della fotogrammetria digitale. Il secondo capitolo è dedicato interamente alla storia dell’Arco d’Augusto, riportando tutti i rilievi dell’Arco realizzati dal Medioevo ad oggi. Il terzo capitolo riporta la serie di restauri che l’Arco riminese ha subito nel corso dei secoli, fra cui i due grandi interventi di restauro: il primo eseguito nel 1947 dall’Ing. Rinaldi G., il secondo nel 1996-98 per opera dell’Arch. Foschi P.L. Nel quarto capitolo si parla di come la tecnica fotogrammetrica si presti molto bene all’analisi e al controllo delle deformazioni strutturali. Il capitolo cinque è dedicato al rilievo topo-fotogrammetrico dell’oggetto, affrontato in tutte le sue fasi: ricognizione preliminare,progettazione ed esecuzione delle prese. Il sesto capitolo affronta l’elaborazione dei dati mediante il software PhotoModeler Pro 5. Nel settimo capitolo si confronta il presente rilievo con l’ortofoto realizzata nel 1982 dall’Arch. Angelini R. Il capitolo otto riporta alcune informazioni al riguardo della geomorfologia della zona limitrofa all’Arco. Nell’ultimo capitolo si descrive l’impiego del software agli elementi finiti Straus7 per creare ed elaborare il modello numerico dell’Arco.
Resumo:
Uno dei settori che più si stanno sviluppando nell'ambito della ricerca applicata è senza dubbio quello dell'elettronica organica. Nello specifico lo studio è sospinto dagli indubbi vantaggi che questi dispositivi porterebbero se venissero prodotti su larga scala: basso costo, semplicità realizzativa, leggerezza, flessibilità ed estensione. È da sottolineare che dispositivi basati su materiali organici sono già stati realizzati: si parla di OLED (Organic Light Emitting Diode) LED realizzati sfruttando le proprietà di elettroluminescenza di alcuni materiali organici, OFET (Organig Field Effect Transistor) transistor costruiti con semiconduttori organici, financo celle solari che sfruttano le buone proprietà ottiche di questi composti. Oggetto di analisi di questa tesi è lo studio delle proprietà di trasporto di alcuni cristalli organici, al fine di estrapolarne la mobilità intrinseca e verificare come essa cambi se sottoposti a radiazione x. I due cristalli su cui si è focalizzata questa trattazione sono il 1,5-Dinitronaphtalene e il 2,4-Dinitronaphtol; su di essi è stata eseguita una caratterizzazione ottica e una elettrica, in seguito interpretate con il modello SCLC (Space Charge Limited Current). I risultati ottenuti mostrano che c'è una differenza apprezzabile nella mobilità nei due casi con e senza irraggiamento con raggi x.
Resumo:
In questa tesi, utilizzando le particolari proprietà del polimero conduttivo poli(3,4-etilenediossitiofene) drogato con polistirene sulfonato , o PEDOT:PSS, sono stati realizzati dei transistor elettrochimici organici (OECTs), in cui il gate e canale source-drain sono stati realizzati depositando su substrato di vetro film sottili di questo polimero. I dispositivi realizzati sono stati caratterizzati, per comprenderne meglio le funzionalità e le proprietà per possibili applicazioni future, in particolare come sensori di glucosio. Il PEDOT:PSS è uno dei materiali più studiati per applicazioni della bioelettronica in virtù della sua grande stabilità chimica e termica, della reversibilità del suo processo di drogaggio, della grande conducibilità e delle sue proprietà elettrochimiche, nonché della sua attività in un vasto range di pH. Vengono trattate nell’elaborato anche le tecniche di deposizione di questo polimero per la creazione di film sottili, necessari per le varie applicazioni nell’ambito della bioelettronica organica, la quale si propone di unire la biologia e l’elettronica in un mutuale scambio di informazioni e segnali. Questa interazione si sta verificando soprattutto nel campo sanitario, come si può evincere dagli esempi riportati nella trattazione. Si conclude la parte teorica con una descrizione degli OECTs: viene spiegata la loro struttura, la capacità di connettere conducibilità ionica ed elettronica e il loro funzionamento, inserendo anche un confronto con i FET (“Field Effect Transistor”), per agevolare la comprensione dei meccanismi presenti in questi strumenti. Per la parte sperimentale si presenta invece una descrizione dettagliata dei procedimenti, degli strumenti e degli accorgimenti usati nel fabbricare i transistor sui quali si è lavorato in laboratorio, riportando anche una piccola esposizione sulle principali misure effettuate: curve caratterische I–V, transcaratteristiche e misure di corrente nel tempo sono le principali acquisizioni fatte per studiare i dispositivi. E’ stata studiata la diversa risposta degli OECTs al variare della concentrazione di PBS in soluzione, mostrando un generale rallentamento dei processi e una diminuzione della capacità di modificare la corrente source-drain al calare della concentrazione. In seguito, è stato effettuato un confronto tra transistor appena fatti e gli stessi analizzati dopo un mese, osservando una riduzione della corrente e quindi della conducibilità, seppur senza una modifica qualitativa delle curve caratteristiche (che mantengono il loro andamento). Per quanto riguarda la possibilità di usare questi dispositivi come sensori di glucosio, si introduce uno studio preliminare sulla risposta di un transistor, il cui gate è stato funzionalizzato con ferrocene, alla presenza di glucosio e glucosio ossidasi, un enzima necessario al trasferimento di elettroni, nella soluzione elettrolitica, seppur con qualche difficoltà, per via della mancanza di informazioni sui parametri da utilizzare e il range in cui compiere le misure (tuttora oggetto di ricerca).