995 resultados para per-survivor processing
Resumo:
Lo scopo di questa attività di tesi è quello di rilevare dinamicamente la posizione di ostacoli mediante radar FMCW. I radar a onda continua modulati in frequenza sono alla base dei moderni sensori in ambito automotive, in quanto consentono allo stesso tempo di rilevare la distanza, l’angolazione e la velocità di un corpo detto target analizzando gli scostamenti temporali e in frequenza tra i segnali (detti chirp) trasmessi e quelli riflessi dai corpi. Nel lavoro di tesi si analizza sperimentalmente come il radar a onda continua MIMO (multiple input multiple output) RBK2, presente presso il laboratorio TLC del Campus di Cesena, può essere utilizzato per ricavare la velocità relativa di un target, che si avvicina o si allontana dal radar. Innanzitutto, vengono settati i parametri per l’acquisizione e per il processing necessario per ottenere una matrice Angolo-Range che caratterizza staticamente il target. Il mixer interno al radar, a seguito della ricezione di un segnale di eco, produce un segnale a frequenza intermedia il cui spettro presenta un picco in corrispondenza della distanza del target che lo ha riflesso. A questo punto si conosce la posizione del corpo e si procede con la stima della velocità sfruttando l’effetto Doppler: analizzando i chirp riflessi dallo stesso target in istanti successivi si ottengono una serie di picchi nella stessa posizione ma con fasi differenti, e da tale sfasamento si ricava la componente radiale della velocità del target. Sono stati studiati sia il caso di misure outdoor che quello di misure indoor, infine è stato elaborato un codice Matlab in grado di fornire un feedback riguardante una possibile collisione in seguito alla stima della velocità del corpo. Tale tecnologia gioca quindi un ruolo fondamentale nell’ambito della sicurezza stradale potendo prevenire incidenti.
Resumo:
In an effort to reduce Interlibrary borrowing activity, while enhancing the Library collection, the Bertrand Library has initiated a program to purchase current monographs requested through ILL by Bucknell University students and faculty. The results have been a successful reduction in ILL workload, and a cost-effective means of document delivery as measured by average delivery time, cost-per-title, processing costs, and circulation statistics. This procedure reflects an overall change in our philosophy concerning document access and delivery, which led to the reorganization of ILL services and staff in the Bertrand Library.
Resumo:
Microprocessori basati su singolo processore (CPU), hanno visto una rapida crescita di performances ed un abbattimento dei costi per circa venti anni. Questi microprocessori hanno portato una potenza di calcolo nell’ordine del GFLOPS (Giga Floating Point Operation per Second) sui PC Desktop e centinaia di GFLOPS su clusters di server. Questa ascesa ha portato nuove funzionalità nei programmi, migliori interfacce utente e tanti altri vantaggi. Tuttavia questa crescita ha subito un brusco rallentamento nel 2003 a causa di consumi energetici sempre più elevati e problemi di dissipazione termica, che hanno impedito incrementi di frequenza di clock. I limiti fisici del silicio erano sempre più vicini. Per ovviare al problema i produttori di CPU (Central Processing Unit) hanno iniziato a progettare microprocessori multicore, scelta che ha avuto un impatto notevole sulla comunità degli sviluppatori, abituati a considerare il software come una serie di comandi sequenziali. Quindi i programmi che avevano sempre giovato di miglioramenti di prestazioni ad ogni nuova generazione di CPU, non hanno avuto incrementi di performance, in quanto essendo eseguiti su un solo core, non beneficiavano dell’intera potenza della CPU. Per sfruttare appieno la potenza delle nuove CPU la programmazione concorrente, precedentemente utilizzata solo su sistemi costosi o supercomputers, è diventata una pratica sempre più utilizzata dagli sviluppatori. Allo stesso tempo, l’industria videoludica ha conquistato una fetta di mercato notevole: solo nel 2013 verranno spesi quasi 100 miliardi di dollari fra hardware e software dedicati al gaming. Le software houses impegnate nello sviluppo di videogames, per rendere i loro titoli più accattivanti, puntano su motori grafici sempre più potenti e spesso scarsamente ottimizzati, rendendoli estremamente esosi in termini di performance. Per questo motivo i produttori di GPU (Graphic Processing Unit), specialmente nell’ultimo decennio, hanno dato vita ad una vera e propria rincorsa alle performances che li ha portati ad ottenere dei prodotti con capacità di calcolo vertiginose. Ma al contrario delle CPU che agli inizi del 2000 intrapresero la strada del multicore per continuare a favorire programmi sequenziali, le GPU sono diventate manycore, ovvero con centinaia e centinaia di piccoli cores che eseguono calcoli in parallelo. Questa immensa capacità di calcolo può essere utilizzata in altri campi applicativi? La risposta è si e l’obiettivo di questa tesi è proprio quello di constatare allo stato attuale, in che modo e con quale efficienza pùo un software generico, avvalersi dell’utilizzo della GPU invece della CPU.
Resumo:
In piattaforme di Stream Processing è spesso necessario eseguire elaborazioni differenziate degli stream di input. Questa tesi ha l'obiettivo di realizzare uno scheduler in grado di attribuire priorità di esecuzione differenti agli operatori deputati all'elaborazione degli stream.
Resumo:
La tesi propone una soluzione middleware per scenari in cui i sensori producono un numero elevato di dati che è necessario gestire ed elaborare attraverso operazioni di preprocessing, filtering e buffering al fine di migliorare l'efficienza di comunicazione e del consumo di banda nel rispetto di vincoli energetici e computazionali. E'possibile effettuare l'ottimizzazione di questi componenti attraverso operazioni di tuning remoto.
Resumo:
Big data è il termine usato per descrivere una raccolta di dati così estesa in termini di volume,velocità e varietà da richiedere tecnologie e metodi analitici specifici per l'estrazione di valori significativi. Molti sistemi sono sempre più costituiti e caratterizzati da enormi moli di dati da gestire,originati da sorgenti altamente eterogenee e con formati altamente differenziati,oltre a qualità dei dati estremamente eterogenei. Un altro requisito in questi sistemi potrebbe essere il fattore temporale: sempre più sistemi hanno bisogno di ricevere dati significativi dai Big Data il prima possibile,e sempre più spesso l’input da gestire è rappresentato da uno stream di informazioni continuo. In questo campo si inseriscono delle soluzioni specifiche per questi casi chiamati Online Stream Processing. L’obiettivo di questa tesi è di proporre un prototipo funzionante che elabori dati di Instant Coupon provenienti da diverse fonti con diversi formati e protocolli di informazioni e trasmissione e che memorizzi i dati elaborati in maniera efficiente per avere delle risposte in tempo reale. Le fonti di informazione possono essere di due tipologie: XMPP e Eddystone. Il sistema una volta ricevute le informazioni in ingresso, estrapola ed elabora codeste fino ad avere dati significativi che possono essere utilizzati da terze parti. Lo storage di questi dati è fatto su Apache Cassandra. Il problema più grosso che si è dovuto risolvere riguarda il fatto che Apache Storm non prevede il ribilanciamento delle risorse in maniera automatica, in questo caso specifico però la distribuzione dei clienti durante la giornata è molto varia e ricca di picchi. Il sistema interno di ribilanciamento sfrutta tecnologie innovative come le metriche e sulla base del throughput e della latenza esecutiva decide se aumentare/diminuire il numero di risorse o semplicemente non fare niente se le statistiche sono all’interno dei valori di soglia voluti.
Resumo:
L’elaborazione di quantità di dati sempre crescente ed in tempi ragionevoli è una delle principali sfide tecnologiche del momento. La difficoltà non risiede esclusivamente nel disporre di motori di elaborazione efficienti e in grado di eseguire la computazione coordinata su un’enorme mole di dati, ma anche nel fornire agli sviluppatori di tali applicazioni strumenti di sviluppo che risultino intuitivi nell’utilizzo e facili nella messa in opera, con lo scopo di ridurre il tempo necessario a realizzare concretamente un’idea di applicazione e abbassare le barriere all’ingresso degli strumenti software disponibili. Questo lavoro di tesi prende in esame il progetto RAM3S, il cui intento è quello di semplificare la realizzazione di applicazioni di elaborazione dati basate su piattaforme di Stream Processing quali Spark, Storm, Flinke e Samza, e si occupa di esaudire il suo scopo originale fornendo un framework astratto ed estensibile per la definizione di applicazioni di stream processing, capaci di eseguire indistintamente sulle piattaforme disponibili sul mercato.
Resumo:
In questo elaborato vengono analizzate differenti tecniche per la detection di jammer attivi e costanti in una comunicazione satellitare in uplink. Osservando un numero limitato di campioni ricevuti si vuole identificare la presenza di un jammer. A tal fine sono stati implementati i seguenti classificatori binari: support vector machine (SVM), multilayer perceptron (MLP), spectrum guarding e autoencoder. Questi algoritmi di apprendimento automatico dipendono dalle features che ricevono in ingresso, per questo motivo è stata posta particolare attenzione alla loro scelta. A tal fine, sono state confrontate le accuratezze ottenute dai detector addestrati utilizzando differenti tipologie di informazione come: i segnali grezzi nel tempo, le statistical features, le trasformate wavelet e lo spettro ciclico. I pattern prodotti dall’estrazione di queste features dai segnali satellitari possono avere dimensioni elevate, quindi, prima della detection, vengono utilizzati i seguenti algoritmi per la riduzione della dimensionalità: principal component analysis (PCA) e linear discriminant analysis (LDA). Lo scopo di tale processo non è quello di eliminare le features meno rilevanti, ma combinarle in modo da preservare al massimo l’informazione, evitando problemi di overfitting e underfitting. Le simulazioni numeriche effettuate hanno evidenziato come lo spettro ciclico sia in grado di fornire le features migliori per la detection producendo però pattern di dimensioni elevate, per questo motivo è stato necessario l’utilizzo di algoritmi di riduzione della dimensionalità. In particolare, l'algoritmo PCA è stato in grado di estrarre delle informazioni migliori rispetto a LDA, le cui accuratezze risentivano troppo del tipo di jammer utilizzato nella fase di addestramento. Infine, l’algoritmo che ha fornito le prestazioni migliori è stato il Multilayer Perceptron che ha richiesto tempi di addestramento contenuti e dei valori di accuratezza elevati.
Resumo:
Protein aggregation became a widely accepted marker of many polyQ disorders, including Machado-Joseph disease (MJD), and is often used as readout for disease progression and development of therapeutic strategies. The lack of good platforms to rapidly quantify protein aggregates in a wide range of disease animal models prompted us to generate a novel image processing application that automatically identifies and quantifies the aggregates in a standardized and operator-independent manner. We propose here a novel image processing tool to quantify the protein aggregates in a Caenorhabditis elegans (C. elegans) model of MJD. Confocal mi-croscopy images were obtained from animals of different genetic conditions. The image processing application was developed using MeVisLab as a platform to pro-cess, analyse and visualize the images obtained from those animals. All segmenta-tion algorithms were based on intensity pixel levels.The quantification of area or numbers of aggregates per total body area, as well as the number of aggregates per animal were shown to be reliable and reproducible measures of protein aggrega-tion in C. elegans. The results obtained were consistent with the levels of aggrega-tion observed in the images. In conclusion, this novel imaging processing applica-tion allows the non-biased, reliable and high throughput quantification of protein aggregates in a C. elegans model of MJD, which may contribute to a significant improvement on the prognosis of treatment effectiveness for this group of disor-ders
Resumo:
Viral vectors are playing an increasingly important role in the vaccine and gene therapy elds. The broad spectrum of potential applications, together with expanding medical markets, drives the e orts to improve the production processes for viral vaccines and viral vectors. Developing countries, in particular, are becoming the main vaccine market. It is thus critical to decrease the cost per dose, which is only achievable by improving the production process. In particular advances in the upstream processing have substantially increased bioreactor yields, shifting the bioprocess bottlenecks towards the downstream processing. The work presented in this thesis aimed to develop new processes for adenoviruses puri cation. The use of state-of-the-art technology combined with innovative continuous processes contributed to build robust and cost-e ective strategies for puri cation of complex biopharmaceuticals.(...)
Resumo:
La quinoa (Chenopodium quinoa Willd), es un pseudocereal originario de la región Andina. Fue utilizada como alimento básico por los pueblos nativos. La quinoa, la papa y el maíz constituyeron el trinomio base de la alimentación indígena de este continente. La colonización española fue desplazando su cultivo a favor del trigo europeo y otros cereales, quedando reducida a las zonas altas de la región andina. La Quínoa ha adquirido una considerable atención en los últimos tiempos, principalmente por la calidad de sus proteínas y la ausencia de gluten en ella. Su empleo está ampliamente difundido en los países andinos, especialmente Bolivia y Perú, con un notable crecimiento de la superficie sembrada. En nuestro país la explotación de este cultivo se ubica principalmente en las provincias norteñas de Salta y Jujuy. En estos últimos años se ha reivindicado su cultivo y los granos privados de saponinas son considerados como un excelente alimento, reconocido por la OMS, la FAO y la NASA. Además de la calidad de sus lípidos y vitaminas, y al elevado contenido en almidón, la quinoa posee una proteína de excelente calidad nutricional y libre de gluten, lo que hace a este grano especialmente indicado para la alimentación de personas que sufren de la enfermedad celíaca o del síndrome de intestino irritado. El presente proyecto está orientado al aprovechamiento integral del grano de quinoa. Es nuestra intensión aquí, demostrar que dicho grano, cultivado en la provincia de Córdoba, permitirá elaborar productos alimenticios asi como también derivados de su industrialización. Para este objetivo se cuenta con las instalaciones de la Planta Piloto del Instituto de Ciencia y Tecnología de los Alimentos (ICTA), de la UNC, así como de intrumental moderno y acorde, como HPLC, GC, Espectrofotómetro UV-Vis, rotavapores de laboratorio e industrial, cámara fría, balanzas analíticas y de precisión, muflas, estufas, molinos y tamices, así como también, contamos con profesionales, algunos de ellos realizando su tesis doctoral en este tema. En cuanto a los objetivos que se persiguen, se espera obtener productos tales como sopas, papillas, productos para panadería y galletería y salsas. En el plano industrial, se pretende elaborar concentrados proteicos, almidón y saponinas. Como se dijo más arriba, a nivel internacional la quinoa ha comenzado a extender sus fronteras, y es así que hoy el principal productor mundial de este grano, Bolivia, destina un porcentaje importante de su producción a la exportación. La creciente demanda mundial de quinoa a hecho que se constituya en un cultivo estratégico y de alto valor, con precios internacionales que rondan los U$S 1200 la tonelada. Si a esto unimos que la planta presenta una gran resistencia a la sequía, que se adapta bien a terrenos salitrosos, arenosos y pobres, podemos comprender la importancia que adquiere para nuestra provincia, toda vez que en la misma existen zonas geográficas potencialmente aptas para su cultivo. Quinoa (Chenopodium quinoa Willd) is a pseudocereal originating in the Andean region. It was used as a staple food by native peoples. Quinoa, potatoes and corn were the tree most important indigenous staple food to this part of South America. Spanish colonization was marginalized cultivation in favor of European wheat and other grains, displacing it to the highlands of the Andean region. Quinoa has recently gained considerable attention, mainly by its protein quality and lack of gluten. Its use is widespread in the Andean countries, especially Bolivia and Peru, with a notable increase in plantings. In our country, the exploitation of this crop is located mainly in the northern provinces of Salta and Jujuy. In recent years its cultivation has been promoted, and the grains once free of saponins are considered an excellent food, recognized by WHO, FAO and NASA. In addition to its lipid and vitamins, and high starch contain, quinoa protein has an excellent nutritional value and it is free of gluten, making it particularly suitable for this grain to feed people with celiac disease or irritable bowel syndrome. This project aims at an integral development of quinoa grain. It is our intention here to demonstrate that this grain grown in the province of Córdoba, can produce food products resulting from local industrialization. This team has access to the facilities of the Pilot Plant of the Institute of Science and Food Technology (ICTA) of the UNC, and the modern equipments in it, as HPLC, GC, UV-Vis spectrophotometer, laboratory and industrial rotary evaporators, cold storage, analytical and precision balances, flasks, ovens, grinders and screens. Also, we have an important professional staff, some of them doing their thesis on this subject. With regard to the objectives pursued, we expect to obtain products such as soups, baby food, bakery products and biscuits and sauces. At the industrial level, it aims at producing protein concentrates, starch and saponins.
Resumo:
Estudi realitzat a partir d’una estada a Bell Labs (Lucent Technologies), New Jersey (Estats Units), entre el 15 de setembre de 2005 i el 15 de gener de 2006. Els sistemes de transmissió per fibra òptica fonamenten les principals xarxes de comunicacions. A mesura que la demanda d’ample de banda per usuari creixi, seran necessaris nous sistemes que siguin capaços de cobrir les necessitats a curt i llarg termini. La tecnologia dels sistemes òptics limita fortament la complexitat dels sistemes de transmissió / recepció en comparació, per exemple, als sistemes d’ones de ràdio. La tendència és la de dissenyar sistemes avançats amb detecció directa i mirar d’aplicar tècniques bàsiques de processat del senyal. Una d’aquestes tècniques és l’equalització electrònica, és a dir, fer ús de les tècniques de processament del senyal per tal de compensar la distorsió introduïda pel canal, deguda per una o diverses degradacions típiques: dispersió cromàtica, efectes no lineals, dispersió del mode de polarització (PMD) ... Dins d’un entorn comercial d’empresa, s’ha avaluat el funcionament dels sistemes d’equalització FFE-DFE aixi com MLSE en presència de dispersió cromàtica i/o dispersió del mode de polarització (PMD) en transmissions NRZ/RZ.
Resumo:
Este proyecto se centra en el análisis de señales GPS, utilizando un receptor software desarrollado con Matlab en un proyecto de investigación para la Agencia Espacial Europea (ESA), llevado a cabo por parte del departamento de Telecomunicaciones e Ingeniería de Sistemas de la ETSE. Este software utiliza técnicas de procesado de señal de alta sensibilidad (HS-GNSS) que permite al usuario determinar su posición en entornos de difícil propagación como puede ser el caso de los escenarios interiores. Los datos experimentales se analizan en función del nivel de multipath que afecta a la señal de cada uno de los satélites, y la degradación que los escenarios interiores provocan en las señales, a causa del mobiliario, paredes, personas, etc. Para analizar los datos experimentales, se ha utilizado una métrica presentada en el congreso internacional EuCAP 2009, con la que es posible caracterizar las señales en función del nivel de multipath.
Resumo:
L’emplaçament del projecte es situa a un parc eòlic marítim, on es vol observar el vent a través del radar VAD, Velocity Azimuth Display, per poder controlar la velocitat de rotació dels aerogeneradors, i poder substituir els actuals anemòmetres. No ens centrarem en el control d’aquest, sinó que l’objectiu principal d’aquest projecte és analitzar el funcionament i processat de dades del VAD. Es proposaran, simularan i estudiaran noves tècniques d’estimació espectral per obtenir una millora important amb les mesures de velocitat, direcció i divergència del vent, per tal de construir un radar més robust a pertorbacions. A més a més, també il·lustrarem mapes eòlics obtinguts a partir de tot el processat.