985 resultados para acquisizione automatica,Vector Network Analyzer,Raspberry
Resumo:
In questo studio ci siamo proposti di investigare i sistemi di modulazione automatica della dose sui sistemi TC Multislice (Automatic Exposure Control – AEC) da tre diversi produttori, aventi differenti indicatori di qualità delle immagini. Il presente lavoro è stato svolto presso il Servizio di Fisica Sanitaria dell’Azienda Ospedaliera Universitaria - Policlinico Sant’Orsola-Malpighi di Bologna e consiste in un’analisi quantitativa della dose impiegata durante esami di Tomografia Computerizzata Multi-Slice (TCMS) e delle rispettive immagini radiologiche. Le immagini sono state acquisite con : GE LightSpeed VCT 64 e GE LightSpeed 16 (AEC AutomA 3D longitudinale e angolare), Siemens Sensation 16 (AEC CARE Dose 4D combinato), Philips Brilliance 16 e iCT 64 (separati in AEC ZDOM longitudinale e AEC DDOM angolare). Le acquisizioni TCMS sono state effettuate a differenti kV e mA di riferimento, al fine di investigarne gli effetti sulla modulazione, impiegando algoritmi di ricostruzione standard presenti su ogni macchina. Due fantocci antropomorfi simulanti la zona del torace e dell’addome sono stati utilizzati per simulare un paziente standard posizionato come in un esame clinico di routine ; a questo proposito, sono stati impiegati protocolli elicoidali standard con e senza modulazione. Sono inoltre stati testati differenti valori di indice di qualità delle immagini. Il profilo dei mA lungo la lunghezza è stato ottenuto utilizzando ImageJ, un programma open source comunemente utilizzato per l’elaborazione di immagini; i mAs sono stati normalizzati ad un fattore che tiene conto delle differenti geometrie e delle filtrazioni dei diversi scanner tomografici analizzati nell’esperienza. Il rumore è stato valutato tramite la scelta di determinate ROI (Region Of Interest) localizzate in aree il più possibili uniformi disponibili lungo i fantocci. Abbiamo registrato che una variazione del Noise Index o dei mAs di riferimento a seconda della tipologia di macchina analizzata risulta in uno shift dei profili di dose; lo stesso si è verificato quando sono stati cambiato kV o mA nella scout di acquisizione. Sistemi AEC longitudinali e combinati hanno mostrato profili di mAs normalizzati simili tra loro, con valori elevati evidenziati nella zona delle spalle e zona pelvi; sono state osservate differenze del 30-40% tra i differenti scanner tomografici. Solo in un caso di macchina analizzata si è verificato un comportamento opposto rispetto alle altre due tipologie di macchina in esame. A dispetto della differente natura dei sistemi AEC, i risultati ottenuti dai protocolli combinati e longitudinali sono simili tra loro. Il rumore presente nelle immagini è aumentato ad un livello accettabile e la sua uniformità lungo la direzione di scan è migliorata.
Resumo:
Decomposition based approaches are recalled from primal and dual point of view. The possibility of building partially disaggregated reduced master problems is investigated. This extends the idea of aggregated-versus-disaggregated formulation to a gradual choice of alternative level of aggregation. Partial aggregation is applied to the linear multicommodity minimum cost flow problem. The possibility of having only partially aggregated bundles opens a wide range of alternatives with different trade-offs between the number of iterations and the required computation for solving it. This trade-off is explored for several sets of instances and the results are compared with the ones obtained by directly solving the natural node-arc formulation. An iterative solution process to the route assignment problem is proposed, based on the well-known Frank Wolfe algorithm. In order to provide a first feasible solution to the Frank Wolfe algorithm, a linear multicommodity min-cost flow problem is solved to optimality by using the decomposition techniques mentioned above. Solutions of this problem are useful for network orientation and design, especially in relation with public transportation systems as the Personal Rapid Transit. A single-commodity robust network design problem is addressed. In this, an undirected graph with edge costs is given together with a discrete set of balance matrices, representing different supply/demand scenarios. The goal is to determine the minimum cost installation of capacities on the edges such that the flow exchange is feasible for every scenario. A set of new instances that are computationally hard for the natural flow formulation are solved by means of a new heuristic algorithm. Finally, an efficient decomposition-based heuristic approach for a large scale stochastic unit commitment problem is presented. The addressed real-world stochastic problem employs at its core a deterministic unit commitment planning model developed by the California Independent System Operator (ISO).
Proposta metodologica per acquisizione e verificabilita di dati in rete trasmessi in maniera cifrata
Resumo:
Lo sviluppo di tecnologie informatiche e telematiche comporta di pari passo l’aumento di dispositivi informatici e di conseguenza la commissione di illeciti che richiedono l’uso di tecniche dell’informatica forense. Infatti, l'evoluzione della tecnologia ha permesso la diffusione di sistemi informatici connessi alla rete Internet sia negli uffici che nelle case di molte famiglie: il miglioramento notevole della velocità di connessione e della potenza dei dispositivi comporta l’uso di un numero sempre maggiore di applicazioni basate sul web 2.0, modificando lo schema classico d’uso del mezzo e passando da utente “lettore” a utente “produttore”: si potrebbe quasi porre la domanda “Chi non ha mai scritto un commento su un social network? Chi non ha mai caricato un video su una piattaforma di video sharing? Chi non ha mai condiviso un file su un sito?”. Il presente lavoro si propone di illustrare le problematiche dell’acquisizione del traffico di rete con particolare focus sui dati che transitano attraverso protocolli cifrati: infatti, l’acquisizione di traffico di rete si rende necessaria al fine di verificare il contenuto della comunicazione, con la conseguenza che diventa impossibile leggere il contenuto transitato in rete in caso di traffico cifrato e in assenza della chiave di decifratura. Per cui, operazioni banali nei casi di traffico in chiaro (come la ricostruzione di pagine html o fotografie) possono diventare estremamente impegnative, se non addirittura impossibile, quando non si sono previsti appositi accorgimenti e in assenza di idonei strumenti. Alla luce di tali osservazioni, il presente lavoro intende proporre una metodologia completa di acquisizione e uno strumento software che agevoli il lavoro di ricostruzione, e quindi verifica, dei dati contenuti nel traffico catturato, anche cifrato. Infine, verranno mostrati dei casi esemplificativi nei quali tale metodologia si rende opportuna (o meglio, necessaria) con test di ricostruzione dei dati eseguiti con il tool SSLTrafficReader.
Resumo:
Tesi mirata allo studio dei protocolli di routing IP utilizzati per l'inoltro dei pacchetti in una topologia non banale. Sono state utilizzate macchine Linux Raspberry Pi per il loro costo e ingombro per costruire la rete. In particolare, è stata implementata una rete caratterizzata da sette router divisi in tre aree distinte, ai quali sono state connesse sette LAN. Si è installato e utilizzato il software quagga per attivare il protocollo OSPF (Open Shortest Path First). Per limitare i dispositivi fisici si è utilizzato il software Mininet per virtualizzare switch e LAN. Infine, sono stati trattati elementi teorici del routing su Internet, applicati alla rete creata per verificarne il funzionamento.
Resumo:
L’elaborato approfondisce il tema della traduzione in simboli. Questo particolare tipo di traduzione è pensato per chi è affetto da disabilità comunicative e presenta difficoltà nella comprensione e nell’espressione, sia a livello orale che scritto. Ad oggi, i libri tradotti in simboli sono per lo più rivolti a bambini e fanno parte degli strumenti della Comunicazione Aumentativa Alternativa, o CAA, un ambito di ricerca che ha lo scopo di individuare metodi di comunicazione “aumentativi”, ossia che accrescono le capacità comunicative di persone con disabilità. Questa comunicazione è definita, altresì, “alternativa” poiché individua modalità diverse dalla parola come, appunto, simboli, immagini e tecnologie dedicate. La CAA nasce per garantire uno dei diritti umani fondamentali, sanciti anche dall’ONU, cioè il diritto alla comunicazione. L’elaborato fornisce, innanzitutto, una panoramica generale sulla disabilità comunicativa, sulla Comunicazione Aumentativa Alternativa, e sugli strumenti utilizzati in questo contesto, soffermandosi in particolare sui sistemi simbolici. In seguito, descrive dettagliatamente i libri in simboli, spiegandone obiettivi e caratteristiche, e facendo riferimento ai concetti di linguaggio, lingua, oralità e scrittura e acquisizione del linguaggio. Infine, vengono analizzati i metodi attualmente esistenti per la traduzione in simboli di libri per bambini, e viene illustrato un esempio concreto. L’ultima parte dell’elaborato si sofferma sugli aspetti in comune tra la traduzione in simboli e la traduzione tra lingue naturali, e sui metodi di quest’ultima che possono essere utili per migliorare la qualità del testo in simboli. In particolare, si farà riferimento agli strumenti di traduzione assistita e di traduzione automatica attualmente esistenti per la traduzione in simboli e verranno dati suggerimenti pratici per renderli più efficaci, rifacendosi anche alla traduzione automatica e assistita tra lingue naturali, con particolare riferimento alle tecniche di pre-editing, post-editing e scrittura controllata.
Resumo:
Application of the spectrum analyzer for illustrating several concepts associated with mobile communications is discussed. Specifically, two groups of observable features are described. First, time variation and frequency selectivity of multipath propagation can be revealed by carrying out simple measurements on commercial-network GSM and UMTS signals. Second, the main time-domain and frequency-domain features of GSM and UMTS radio signals can be observed. This constitutes a valuable tool for teaching mobile communication courses.
Implementation of the disruption predictor APODIS in JET Real Time Network using the MARTe framework
Resumo:
Disruptions in tokamaks devices are unavoidable, and they can have a significant impact on machine integrity. So it is very important have mechanisms to predict this phenomenon. Disruption prediction is a very complex task, not only because it is a multi-dimensional problem, but also because in order to be effective, it has to detect well in advance the actual disruptive event, in order to be able to use successful mitigation strategies. With these constraints in mind a real-time disruption predictor has been developed to be used in JET tokamak. The predictor has been designed to run in the Multithreaded Application Real-Time executor (MARTe) framework. The predictor ?Advanced Predictor Of DISruptions? (APODIS) is based on Support Vector Machine (SVM).
Resumo:
In this paper, a simulation tool for assisting the deployment of wireless sensor network is introduced and simulation results are verified under a specific indoor environment. The simulation tool supports two modes: deterministic mode and stochastic mode. The deterministic mode is environment dependent in which the information of environment should be provided beforehand. Ray tracing method and deterministic propagation model are employed in order to increase the accuracy of the estimated coverage, connectivity and routing; the stochastic mode is useful for large scale random deployment without previous knowledge on geographic information. Dynamic Source Routing protocol (DSR) and Ad hoc On-Demand Distance Vector Routing protocol (AODV) are implemented in order to calculate the topology of WSN. Hence this tool gives direct view on the performance of WSN and assists users in finding the potential problems of wireless sensor network before real deployment. At the end, a case study is realized in Centro de Electronica Industrial (CEI), the simulation results on coverage, connectivity and routing are verified by the measurement.
Resumo:
Several polycations possessing substantial buffering capacity below physiological pH, such as lipopolyamines and polyamidoamine polymers, are efficient transfection agents per se--i.e., without the addition of cell targeting or membrane-disruption agents. This observation led us to test the cationic polymer polyethylenimine (PEI) for its gene-delivery potential. Indeed, every third atom of PEI is a protonable amino nitrogen atom, which makes the polymeric network an effective "proton sponge" at virtually any pH. Luciferase reporter gene transfer with this polycation into a variety of cell lines and primary cells gave results comparable to, or even better than, lipopolyamines. Cytotoxicity was low and seen only at concentrations well above those required for optimal transfection. Delivery of oligonucleotides into embryonic neurons was followed by using a fluorescent probe. Virtually all neurons showed nuclear labeling, with no toxic effects. The optimal PEI cation/anion balance for in vitro transfection is only slightly on the cationic side, which is advantageous for in vivo delivery. Indeed, intracerebral luciferase gene transfer into newborn mice gave results comparable (for a given amount of DNA) to the in vitro transfection of primary rat brain endothelial cells or chicken embryonic neurons. Together, these properties make PEI a promising vector for gene therapy and an outstanding core for the design of more sophisticated devices. Our hypothesis is that its efficiency relies on extensive lysosome buffering that protects DNA from nuclease degradation, and consequent lysosomal swelling and rupture that provide an escape mechanism for the PEI/DNA particles.
Resumo:
Urban researchers and planners are often interested in understanding how economic activities are distributed in urban regions, what forces influence their special pattern and how urban structure and functions are mutually dependent. In this paper, we want to show how an algorithm for ranking the nodes in a network can be used to understand and visualize certain commercial activities of a city. The first part of the method consists of collecting real information about different types of commercial activities at each location in the urban network of the city of Murcia, Spain. Four clearly differentiated commercial activities are studied, such as restaurants and bars, shops, banks and supermarkets or department stores, but obviously we can study other. The information collected is then quantified by means of a data matrix, which is used as the basis for the implementation of a PageRank algorithm which produces a ranking of all the nodes in the network, according to their significance within it. Finally, we visualize the resulting classification using a colour scale that helps us to represent the business network.
Resumo:
Grazie all'enorme sviluppo dei LED, le comunicazioni tramite luce visibile stanno acquisendo sempre maggiore importanza. Obiettivo di questa tesi è implementare su schede a basso costo (come Rasperry Pi) un sistema di trasmissione e ricezione basato appunto sulla visible light communication. Dopo un primo tentativo di trasferire il codice OpenVLC, sviluppato dal centro di ricerca spagnolo IMDEA Network, su Rasperry Pi, si è deciso di intraprendere una nuova strada e si è implementato un trasmettitore VLC in Simulink di Matlab e una prima bozza di ricevitore che sfrutta la SPI (serial-parallel interface). I primi risultati mostrano il corretto funzionamento del sistema anche se con data rate molto basse. Sviluppi futuri prevederanno l'ottimizzazione del sistema.
Resumo:
Thesis (Ph.D.)--University of Washington, 2016-06
Resumo:
This paper presents a composite multi-layer classifier system for predicting the subcellular localization of proteins based on their amino acid sequence. The work is an extension of our previous predictor PProwler v1.1 which is itself built upon the series of predictors SignalP and TargetP. In this study we outline experiments conducted to improve the classifier design. The major improvement came from using Support Vector machines as a "smart gate" sorting the outputs of several different targeting peptide detection networks. Our final model (PProwler v1.2) gives MCC values of 0.873 for non-plant and 0.849 for plant proteins. The model improves upon the accuracy of our previous subcellular localization predictor (PProwler v1.1) by 2% for plant data (which represents 7.5% improvement upon TargetP).
Resumo:
A conventional neural network approach to regression problems approximates the conditional mean of the output vector. For mappings which are multi-valued this approach breaks down, since the average of two solutions is not necessarily a valid solution. In this article mixture density networks, a principled method to model conditional probability density functions, are applied to retrieving Cartesian wind vector components from satellite scatterometer data. A hybrid mixture density network is implemented to incorporate prior knowledge of the predominantly bimodal function branches. An advantage of a fully probabilistic model is that more sophisticated and principled methods can be used to resolve ambiguities.
Resumo:
Current methods for retrieving near surface winds from scatterometer observations over the ocean surface require a foward sensor model which maps the wind vector to the measured backscatter. This paper develops a hybrid neural network forward model, which retains the physical understanding embodied in ¸mod, but incorporates greater flexibility, allowing a better fit to the observations. By introducing a separate model for the mid-beam and using a common model for the fore- and aft-beams, we show a significant improvement in local wind vector retrieval. The hybrid model also fits the scatterometer observations more closely. The model is trained in a Bayesian framework, accounting for the noise on the wind vector inputs. We show that adding more high wind speed observations in the training set improves wind vector retrieval at high wind speeds without compromising performance at medium or low wind speeds.