923 resultados para Identificazione di parametri, ottimizzazione, bvp, Gauss-Newton


Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’overespressione dei geni EVI1(3q26) e PRDM16(1p36), è descritta sia in presenza che in assenza di riarrangiamenti 3q26 e 1p36 in specifici sottogruppi citogenetici di LAM, ed è associata ad una prognosi sfavorevole. Lo scopo principale del nostro studio è stato identificare e caratterizzare tramite FISH e RQ-PCR, alterazioni di EVI1 e PRDM16 in pazienti con alterazioni cromosomiche 3q e 1p.Riarrangiamenti di EVI1 si associavano ad alterazioni cromosomiche 3q26, ma, in 6 casi (6/35;17,1%) erano presenti in assenza di coinvolgimenti, in citogenetica convenzionale, della regione 3q26, a causa di meccanismi complessi e/o alterazioni ‘criptiche’. Inoltre, abbiamo identificato quattro nuovi riarrangiamenti di EVI1, tra cui due nuove traslocazioni simili presenti in due fratelli. Riarrangiamenti e/o amplificazioni di PRDM16 erano spesso associate ad alterazioni 1p36 (7/14;50%). L’analisi di EVI1 e PRDM16 è stata estesa ad altri casi con alterazioni -7/7q-, con cariotipo normale, con alterazioni 3q per PRDM16 e con alterazioni 1p per EVI1. L’overespressione di EVI1 era presente solo nel gruppo -7/7q- (10/58;17.2%) ed in un caso si associava ad amplificazione genica, mentre PRDM16 era overespresso in casi di tutti i gruppi analizzati,sia con cariotipi complessi, dove si associava in alcuni casi ad amplificazione genica, sia con cariotipi normali o con singole alterazioni. Il nostro studio dimostra come la FISH permetta di identificare alterazioni dei geni EVI1 e PRDM16, anche in assenza di coinvolgimenti delle regioni 3q26 e 1p36. Riarrangiamenti complessi e/o una scarsa qualità dei preparati citogenetici sono le cause principali per la mancata identificazione di queste alterazioni. La RQ-PCR permette di identificare l’overespressione anche nei casi in cui non sia dovuta ad alterazioni citogenetiche. È importante confermare con FISH e/o RQ-PCR il coinvolgimento di questi due geni, per individuare alla diagnosi pazienti con prognosi sfavorevole e che potranno beneficiare di terapie maggiormente aggressive e/o di trapianto allogenico di cellule staminali.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo studio dell’intelligenza artificiale si pone come obiettivo la risoluzione di una classe di problemi che richiedono processi cognitivi difficilmente codificabili in un algoritmo per essere risolti. Il riconoscimento visivo di forme e figure, l’interpretazione di suoni, i giochi a conoscenza incompleta, fanno capo alla capacità umana di interpretare input parziali come se fossero completi, e di agire di conseguenza. Nel primo capitolo della presente tesi sarà costruito un semplice formalismo matematico per descrivere l’atto di compiere scelte. Il processo di “apprendimento” verrà descritto in termini della massimizzazione di una funzione di prestazione su di uno spazio di parametri per un ansatz di una funzione da uno spazio vettoriale ad un insieme finito e discreto di scelte, tramite un set di addestramento che descrive degli esempi di scelte corrette da riprodurre. Saranno analizzate, alla luce di questo formalismo, alcune delle più diffuse tecniche di artificial intelligence, e saranno evidenziate alcune problematiche derivanti dall’uso di queste tecniche. Nel secondo capitolo lo stesso formalismo verrà applicato ad una ridefinizione meno intuitiva ma più funzionale di funzione di prestazione che permetterà, per un ansatz lineare, la formulazione esplicita di un set di equazioni nelle componenti del vettore nello spazio dei parametri che individua il massimo assoluto della funzione di prestazione. La soluzione di questo set di equazioni sarà trattata grazie al teorema delle contrazioni. Una naturale generalizzazione polinomiale verrà inoltre mostrata. Nel terzo capitolo verranno studiati più nel dettaglio alcuni esempi a cui quanto ricavato nel secondo capitolo può essere applicato. Verrà introdotto il concetto di grado intrinseco di un problema. Verranno inoltre discusse alcuni accorgimenti prestazionali, quali l’eliminazione degli zeri, la precomputazione analitica, il fingerprinting e il riordino delle componenti per lo sviluppo parziale di prodotti scalari ad alta dimensionalità. Verranno infine introdotti i problemi a scelta unica, ossia quella classe di problemi per cui è possibile disporre di un set di addestramento solo per una scelta. Nel quarto capitolo verrà discusso più in dettaglio un esempio di applicazione nel campo della diagnostica medica per immagini, in particolare verrà trattato il problema della computer aided detection per il rilevamento di microcalcificazioni nelle mammografie.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Introduzione: L'analgesia epidurale è stata messa in correlazione con l'aumento della durata del secondo stadio del travaglio e del tasso di utilizzo della ventosa ostetrica. Diversi meccanismi sono stati ipotizzati, tra cui la riduzione di percezione della discesa fetale, della forza di spinta e dei riflessi che promuovono la progressione e rotazione della testa fetale nel canale del parto. Tali parametri sono solitamente valutati mediante esame clinico digitale, costantemente riportato essere poco accurato e riproducibile. Su queste basi l'uso dell'ecografia in travaglio, con introduzione di diversi parametri ecografici di valutazione della discesa della testa fetale, sono stati proposti per supportare la diagnosi clinica nel secondo stadio del travaglio. Scopi dello studio: studiare effetto dell’analgesia epidurale sulla progressione della testa fetale durante il II stadio del travaglio valutata mediante ecografia intrapartum. Materiali e metodi: una serie di pazienti nullipare a basso rischio a termine (37+0-42+0) sono state reclutate in modo prospettico nella sala parto del nostro Policlinico Universitario. In ciascuna di esse abbiamo acquisito un volume ecografico ogni 20 minuti dall’inizio della fase attiva del secondo stadio fino al parto ed una serie di parametri ecografici sono stati ricavati in un secondo tempo (angolo di progressione, distanza di progressione distanza testa sinfisi pubica e midline angle). Tutti questi parametri sono stati confrontati ad ogni intervallo di tempo nei due gruppi. Risultati: 71 pazienti totali, di cui 41 (57.7%) con analgesia epidurale. In 58 (81.7%) casi il parto è stato spontaneo, mentre in 8 (11.3%) e 5 (7.0%) casi rispettivamente si è ricorsi a ventosa ostetrica o taglio cesareo. I valori di tutti i parametri ecografici misurati sono risultati sovrapponibili nei due gruppi in tutti gli intervalli di misurazione. Conclusioni: la progressione della testa fetale valutata longitudinalmente mediante ecografia 3D non sembra differire significativamente nelle pazienti con o senza analgesia epidurale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Background. Neoangiogenesis is crucial in plaque progression and instability. Previous data from our group demonstrated that intra-plaque neovessels show both a Nestin+/WT+ and a Nestin+/WT1- phenotype, the latter being correlated with complications and plaque instability. Aims. The aims of the present thesis are: (i) to confirm our previous results on Nestin/WT1 phenotype in a larger series of carotid atheromatous plaques, (ii) to evaluate the relationship between the Nestin+/WT1- neoangiogenesis phenotype and plaque morphology, (iii) to evaluate the relationship between the immunohistochemical and histopathological characteristics and the clinical instability of the plaques. Materials and Methods. Seventy-three patients (53 males, 20 females, mean age 71 years) were consecutively enrolled. Symptoms, brain CT scan, 14 histological variables, including intraplaque hemorrhage and diffuse calcifications, were collected. Immunohistochemistry for CD34, Nestin and WT1 was performed. RT-PCR was performed to evaluate Nestin and WT1 mRNA (including 5 healthy arteries as controls). Results. Diffusely calcified plaques (13 out of 73) were found predominantly in females (P=0.017), with a significantly lower incidence of symptoms (TIA/stroke) and brain focal lesions (P=0.019 and P=0.013 respectively) than not-calcified plaques, but with the same incidence of intraplaque complications (P=0.156). Accordingly, both calcified and not calcified plaques showed similar mean densities of positivity for CD34, Nestin and WT1. The density of Nestin and WT1 correlated with the occurrence of intra-plaque hemorrhage in all cases, while the density of CD34 correlated only in not-calcified plaques. Conclusions. We confirmed that the Nestin+/WT1- phenotype characterizes the neovessels of instable plaques, regardless the real amount of CD34-positive neoangiogenesis. The calcified plaques show the same incidence of histological complications, albeit they do not influence symptomatology and plaque vulnerability. Female patients show a much higher incidence of not-complicated or calcified plaques, receiving de facto a sort of protection compared to male patients.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Bone metastases are responsible for different clinical complications defined as skeletal-related events (SREs) such as pathologic fractures, spinal cord compression, hypercalcaemia, bone marrow infiltration and severe bone pain requiring palliative radiotherapy. The general aim of these three years research period was to improve the management of patients with bone metastases through two different approaches of translational research. Firstly in vitro preclinical tests were conducted on breast cancer cells and on indirect co-colture of cancer cells and osteoclasts to evaluate bone targeted therapy singly and in combination with conventional chemotherapy. The study suggests that zoledronic acid has an antitumor activity in breast cancer cell lines. Its mechanism of action involves the decrease of RAS and RHO, as in osteoclasts. Repeated treatment enhances antitumor activity compared to non-repeated treatment. Furthermore the combination Zoledronic Acid + Cisplatin induced a high antitumoral activity in the two triple-negative lines MDA-MB-231 and BRC-230. The p21, pMAPK and m-TOR pathways were regulated by this combined treatment, particularly at lower Cisplatin doses. A co-colture system to test the activity of bone-targeted molecules on monocytes-breast conditioned by breast cancer cells was also developed. Another important criticism of the treatment of breast cancer patients, is the selection of patients who will benefit of bone targeted therapy in the adjuvant setting. A retrospective case-control study on breast cancer patients to find new predictive markers of bone metastases in the primary tumors was performed. Eight markers were evaluated and TFF1 and CXCR4 were found to discriminate between patients with relapse to bone respect to patients with no evidence of disease. In particular TFF1 was the most accurate marker reaching a sensitivity of 63% and a specificity of 79%. This marker could be a useful tool for clinicians to select patients who could benefit for bone targeted therapy in adjuvant setting.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo lavoro di tesi si è elaborato un quadro di riferimento per l’utilizzo combinato di due metodologie di valutazione di impatti LCA e RA, per tecnologie emergenti. L’originalità dello studio sta nell’aver proposto e anche applicato il quadro di riferimento ad un caso studio, in particolare ad una tecnologia innovativa di refrigerazione, basata su nanofluidi (NF), sviluppata da partner del progetto Europeo Nanohex che hanno collaborato all’elaborazione degli studi soprattutto per quanto riguarda l’inventario dei dati necessari. La complessità dello studio è da ritrovare tanto nella difficile integrazione di due metodologie nate per scopi differenti e strutturate per assolvere a quegli scopi, quanto nel settore di applicazione che seppur in forte espansione ha delle forti lacune di informazioni circa processi di produzione e comportamento delle sostanze. L’applicazione è stata effettuata sulla produzione di nanofluido (NF) di allumina secondo due vie produttive (single-stage e two-stage) per valutare e confrontare gli impatti per la salute umana e l’ambiente. Occorre specificare che il LCA è stato quantitativo ma non ha considerato gli impatti dei NM nelle categorie di tossicità. Per quanto concerne il RA è stato sviluppato uno studio di tipo qualitativo, a causa della problematica di carenza di parametri tossicologici e di esposizione su citata avente come focus la categoria dei lavoratori, pertanto è stata fatta l’assunzione che i rilasci in ambiente durante la fase di produzione sono trascurabili. Per il RA qualitativo è stato utilizzato un SW specifico, lo Stoffenmanger-Nano che rende possibile la prioritizzazione dei rischi associati ad inalazione in ambiente di lavoro. Il quadro di riferimento prevede una procedura articolata in quattro fasi: DEFINIZIONE SISTEMA TECNOLOGICO, RACCOLTA DATI, VALUTAZIONE DEL RISCHIO E QUANTIFICAZIONE DEGLI IMPATTI, INTERPRETAZIONE.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this work, the well-known MC code FLUKA was used to simulate the GE PETrace cyclotron (16.5 MeV) installed at “S. Orsola-Malpighi” University Hospital (Bologna, IT) and routinely used in the production of positron emitting radionuclides. Simulations yielded estimates of various quantities of interest, including: the effective dose distribution around the equipment; the effective number of neutron produced per incident proton and their spectral distribution; the activation of the structure of the cyclotron and the vault walls; the activation of the ambient air, in particular the production of 41Ar, the assessment of the saturation yield of radionuclides used in nuclear medicine. The simulations were validated against experimental measurements in terms of physical and transport parameters to be used at the energy range of interest in the medical field. The validated model was also extensively used in several practical applications uncluding the direct cyclotron production of non-standard radionuclides such as 99mTc, the production of medical radionuclides at TRIUMF (Vancouver, CA) TR13 cyclotron (13 MeV), the complete design of the new PET facility of “Sacro Cuore – Don Calabria” Hospital (Negrar, IT), including the ACSI TR19 (19 MeV) cyclotron, the dose field around the energy selection system (degrader) of a proton therapy cyclotron, the design of plug-doors for a new cyclotron facility, in which a 70 MeV cyclotron will be installed, and the partial decommissioning of a PET facility, including the replacement of a Scanditronix MC17 cyclotron with a new TR19 cyclotron.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Studio dell'attività, dei flussi e delle procedure di un terminal container. Identificazione di problematiche e riprogettazione del gate-in del terminal. Integrazione di nuove tecnologie ed automazione. Valutazione tecnico economica del progetto.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’Alpha Magnetic Spectrometer (AMS-02) é un rivelatore per raggi cosmici (CR) progettato e costruito da una collaborazione internazionale di 56 istituti e 16 paesi ed installato il 19 Maggio del 2011 sulla Stazione Spaziale Internazionale (ISS). Orbitando intorno alla Terra, AMS-02 sará in grado di studiare con un livello di accuratezza mai raggiunto prima la composizione dei raggi cosmici, esplorando nuove frontiere nella fisica delle particelle, ricercando antimateria primordiale ed evidenze indirette di materia oscura. Durante il mio lavoro di tesi, ho utilizzato il software GALPROP per studiare la propagazione dei CR nella nostra Galassia attraverso il mezzo interstellare (ISM), cercando di individuare un set di parametri in grado di fornire un buon accordo con i dati preliminari di AMS-02. In particolare, mi sono dedicata all’analisi del processo di propagazione di nuclei, studiando i loro flussi e i relativi rapporti. Il set di propagazione ottenuto dall’analisi é stato poi utilizzato per studiare ipotetici flussi da materia oscura e le possibili implicazioni per la ricerca indiretta attraverso AMS-02.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il lavoro che ho sviluppato presso l'unità di RM funzionale del Policlinico S.Orsola-Malpighi, DIBINEM, è incentrato sull'analisi dati di resting state - functional Magnetic Resonance Imaging (rs-fMRI) mediante l'utilizzo della graph theory, con lo scopo di valutare eventuali differenze in termini di connettività cerebrale funzionale tra un campione di pazienti affetti da Nocturnal Frontal Lobe Epilepsy (NFLE) ed uno di controlli sani. L'epilessia frontale notturna è una peculiare forma di epilessia caratterizzata da crisi che si verificano quasi esclusivamente durante il sonno notturno. Queste sono contraddistinte da comportamenti motori, prevalentemente distonici, spesso complessi, e talora a semiologia bizzarra. L'fMRI è una metodica di neuroimaging avanzata che permette di misurare indirettamente l'attività neuronale. Tutti i soggetti sono stati studiati in condizioni di resting-state, ossia di veglia rilassata. In particolare mi sono occupato di analizzare i dati fMRI con un approccio innovativo in campo clinico-neurologico, rappresentato dalla graph theory. I grafi sono definiti come strutture matematiche costituite da nodi e links, che trovano applicazione in molti campi di studio per la modellizzazione di strutture di diverso tipo. La costruzione di un grafo cerebrale per ogni partecipante allo studio ha rappresentato la parte centrale di questo lavoro. L'obiettivo è stato quello di definire le connessioni funzionali tra le diverse aree del cervello mediante l'utilizzo di un network. Il processo di modellizzazione ha permesso di valutare i grafi neurali mediante il calcolo di parametri topologici che ne caratterizzano struttura ed organizzazione. Le misure calcolate in questa analisi preliminare non hanno evidenziato differenze nelle proprietà globali tra i grafi dei pazienti e quelli dei controlli. Alterazioni locali sono state invece riscontrate nei pazienti, rispetto ai controlli, in aree della sostanza grigia profonda, del sistema limbico e delle regioni frontali, le quali rientrano tra quelle ipotizzate essere coinvolte nella fisiopatologia di questa peculiare forma di epilessia.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Introduzione: Le capacità coordinative possono essere dedotte dalle performance del movimento e possono subire un momentaneo peggioramento in seguito ad una rapida crescita in soggetti adolescenti. Attualmente la valutazione dei test motori è di tipo qualitativo o semi-quantitativo. Obiettivi: Somministrazione di test di valutazione della coordinazione motoria a soggetti adolescenti, in versione strumentata mediante sensori inerziali ed estrazione di parametri quantitativi. Valutazione della sensibilità di tali parametri ai gruppi di performance e variazione degli stessi in seguito ad uno scatto di crescita. Metodi: Ragazzi e ragazze di primo liceo (età media 15 anni) hanno indossato tre IMUs, posizionate sul tronco e attorno alle caviglie, ed hanno eseguito tre test per la valutazione della coordinazione motoria: il test della cicogna cieca, il test dell’accovacciamento, e una prova di tandem gait. Cinque mesi dopo i ragazzi cresciuti hanno ripetuto la prova di tandem gait. Risultati: I parametri scelti sono risultati sensibili alle differenze tra i gruppi di performance per due delle tre prove proposte (il test della cicogna e l’accovacciamento). Per la prova di tandem gait non sono state riscontrate differenze significative nei valori dei parametri. Conclusione: Dai risultati preliminari è emerso come i sensori inerziali possano essere utili nel guidare l’osservatore verso una valutazione oggettiva dei test motori, in particolare grazie al sensore posizionato sul tronco. Si ritiene necessario condurre prove ulteriori per standardizzare e migliorare i metodi proposti. Per la prova di tandem gait, per la quale non sono stati ottenuti risultati significativi, si suggerisce di continuare a seguire i ragazzi nella crescita, ed eventualmente aggiungere un task cognitivo alla prova.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi contiene uno studio sperimentale sul comportamento di una sabbia limosa del sottosuolo della laguna veneta e propone un'interpretazione dei risultati sperimentali ottenuti alla luce dei presupposti teorici di un approccio costitutivo avanzato noto come "Plasticità Generalizzata". Il programma sperimentale è consistito nella realizzazione di prove edometriche e prove triassiali su campioni di sabbia provenienti dal sito di Treporti, situato in prossimità della bocca di Lido. La risposta sperimentale, in termini di modulo volumetrico, è stata messa a confronto con i risultati di alcuni studi di letteratura, con particolare riferimento a quelli condotti da Jefferies & Been (2000). La disponibilità di prove di compressione edometrica realizzate nella cella K0 e la conseguente possibilità di valutare il coefficiente di spinta a riposo ha permesso di interpretare le prove in termini di tensione media efficace p' e di verificare l'applicabilità al caso in esame degli approcci di letteratura disponibili, spesso sviluppati a partire da prove di compressione isotropa effettuate in cella triassiale. Il comportamento tenso-deformativo osservato è stato successivamente simulato con un modello costitutivo per sabbie sviluppato nell'ambito della Plasticità Generalizzata. In particolare sono state utilizzate tre diverse formulazioni, che costituiscono un avanzamento dell'iniziale modello costitutivo proposto da Pastor, Zienkiewicz e Chan (1990), basate sull'uso di un parametro di stato del materiale definito rispetto alle condizioni di Stato Critico. Dal confronto tra previsioni del modello e risposta sperimentale è stato possibile individuare la formulazione che meglio simula il comportamento meccanico osservato sia in compressione edometrica sia in prove di taglio ed è stato proposto un set di parametri costitutivi ritenuti rappresentativi del terreno studiato.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Abstract The proliferation of wireless sensor networks and the variety of envisioned applications associated with them has motivated the development of distributed algorithms for collaborative processing over networked systems. One of the applications that has attracted the attention of the researchers is that of target localization where the nodes of the network try to estimate the position of an unknown target that lies within its coverage area. Particularly challenging is the problem of estimating the target’s position when we use received signal strength indicator (RSSI) due to the nonlinear relationship between the measured signal and the true position of the target. Many of the existing approaches suffer either from high computational complexity (e.g., particle filters) or lack of accuracy. Further, many of the proposed solutions are centralized which make their application to a sensor network questionable. Depending on the application at hand and, from a practical perspective it could be convenient to find a balance between localization accuracy and complexity. Into this direction we approach the maximum likelihood location estimation problem by solving a suboptimal (and more tractable) problem. One of the main advantages of the proposed scheme is that it allows for a decentralized implementation using distributed processing tools (e.g., consensus and convex optimization) and therefore, it is very suitable to be implemented in real sensor networks. If further accuracy is needed an additional refinement step could be performed around the found solution. Under the assumption of independent noise among the nodes such local search can be done in a fully distributed way using a distributed version of the Gauss-Newton method based on consensus. Regardless of the underlying application or function of the sensor network it is al¬ways necessary to have a mechanism for data reporting. While some approaches use a special kind of nodes (called sink nodes) for data harvesting and forwarding to the outside world, there are however some scenarios where such an approach is impractical or even impossible to deploy. Further, such sink nodes become a bottleneck in terms of traffic flow and power consumption. To overcome these issues instead of using sink nodes for data reporting one could use collaborative beamforming techniques to forward directly the generated data to a base station or gateway to the outside world. In a dis-tributed environment like a sensor network nodes cooperate in order to form a virtual antenna array that can exploit the benefits of multi-antenna communications. In col-laborative beamforming nodes synchronize their phases in order to add constructively at the receiver. Some of the inconveniences associated with collaborative beamforming techniques is that there is no control over the radiation pattern since it is treated as a random quantity. This may cause interference to other coexisting systems and fast bat-tery depletion at the nodes. Since energy-efficiency is a major design issue we consider the development of a distributed collaborative beamforming scheme that maximizes the network lifetime while meeting some quality of service (QoS) requirement at the re¬ceiver side. Using local information about battery status and channel conditions we find distributed algorithms that converge to the optimal centralized beamformer. While in the first part we consider only battery depletion due to communications beamforming, we extend the model to account for more realistic scenarios by the introduction of an additional random energy consumption. It is shown how the new problem generalizes the original one and under which conditions it is easily solvable. By formulating the problem under the energy-efficiency perspective the network’s lifetime is significantly improved. Resumen La proliferación de las redes inalámbricas de sensores junto con la gran variedad de posi¬bles aplicaciones relacionadas, han motivado el desarrollo de herramientas y algoritmos necesarios para el procesado cooperativo en sistemas distribuidos. Una de las aplicaciones que suscitado mayor interés entre la comunidad científica es la de localization, donde el conjunto de nodos de la red intenta estimar la posición de un blanco localizado dentro de su área de cobertura. El problema de la localization es especialmente desafiante cuando se usan niveles de energía de la seal recibida (RSSI por sus siglas en inglés) como medida para la localization. El principal inconveniente reside en el hecho que el nivel de señal recibida no sigue una relación lineal con la posición del blanco. Muchas de las soluciones actuales al problema de localization usando RSSI se basan en complejos esquemas centralizados como filtros de partículas, mientas que en otras se basan en esquemas mucho más simples pero con menor precisión. Además, en muchos casos las estrategias son centralizadas lo que resulta poco prácticos para su implementación en redes de sensores. Desde un punto de vista práctico y de implementation, es conveniente, para ciertos escenarios y aplicaciones, el desarrollo de alternativas que ofrezcan un compromiso entre complejidad y precisión. En esta línea, en lugar de abordar directamente el problema de la estimación de la posición del blanco bajo el criterio de máxima verosimilitud, proponemos usar una formulación subóptima del problema más manejable analíticamente y que ofrece la ventaja de permitir en¬contrar la solución al problema de localization de una forma totalmente distribuida, convirtiéndola así en una solución atractiva dentro del contexto de redes inalámbricas de sensores. Para ello, se usan herramientas de procesado distribuido como los algorit¬mos de consenso y de optimización convexa en sistemas distribuidos. Para aplicaciones donde se requiera de un mayor grado de precisión se propone una estrategia que con¬siste en la optimización local de la función de verosimilitud entorno a la estimación inicialmente obtenida. Esta optimización se puede realizar de forma descentralizada usando una versión basada en consenso del método de Gauss-Newton siempre y cuando asumamos independencia de los ruidos de medida en los diferentes nodos. Independientemente de la aplicación subyacente de la red de sensores, es necesario tener un mecanismo que permita recopilar los datos provenientes de la red de sensores. Una forma de hacerlo es mediante el uso de uno o varios nodos especiales, llamados nodos “sumidero”, (sink en inglés) que actúen como centros recolectores de información y que estarán equipados con hardware adicional que les permita la interacción con el exterior de la red. La principal desventaja de esta estrategia es que dichos nodos se convierten en cuellos de botella en cuanto a tráfico y capacidad de cálculo. Como alter¬nativa se pueden usar técnicas cooperativas de conformación de haz (beamforming en inglés) de manera que el conjunto de la red puede verse como un único sistema virtual de múltiples antenas y, por tanto, que exploten los beneficios que ofrecen las comu¬nicaciones con múltiples antenas. Para ello, los distintos nodos de la red sincronizan sus transmisiones de manera que se produce una interferencia constructiva en el recep¬tor. No obstante, las actuales técnicas se basan en resultados promedios y asintóticos, cuando el número de nodos es muy grande. Para una configuración específica se pierde el control sobre el diagrama de radiación causando posibles interferencias sobre sis¬temas coexistentes o gastando más potencia de la requerida. La eficiencia energética es una cuestión capital en las redes inalámbricas de sensores ya que los nodos están equipados con baterías. Es por tanto muy importante preservar la batería evitando cambios innecesarios y el consecuente aumento de costes. Bajo estas consideraciones, se propone un esquema de conformación de haz que maximice el tiempo de vida útil de la red, entendiendo como tal el máximo tiempo que la red puede estar operativa garantizando unos requisitos de calidad de servicio (QoS por sus siglas en inglés) que permitan una decodificación fiable de la señal recibida en la estación base. Se proponen además algoritmos distribuidos que convergen a la solución centralizada. Inicialmente se considera que la única causa de consumo energético se debe a las comunicaciones con la estación base. Este modelo de consumo energético es modificado para tener en cuenta otras formas de consumo de energía derivadas de procesos inherentes al funcionamiento de la red como la adquisición y procesado de datos, las comunicaciones locales entre nodos, etc. Dicho consumo adicional de energía se modela como una variable aleatoria en cada nodo. Se cambia por tanto, a un escenario probabilístico que generaliza el caso determinista y se proporcionan condiciones bajo las cuales el problema se puede resolver de forma eficiente. Se demuestra que el tiempo de vida de la red mejora de forma significativa usando el criterio propuesto de eficiencia energética.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A lo largo del presente trabajo se investiga la viabilidad de la descomposición automática de espectros de radiación gamma por medio de algoritmos de resolución de sistemas de ecuaciones algebraicas lineales basados en técnicas de pseudoinversión. La determinación de dichos algoritmos ha sido realizada teniendo en cuenta su posible implementación sobre procesadores de propósito específico de baja complejidad. En el primer capítulo se resumen las técnicas para la detección y medida de la radiación gamma que han servido de base para la confección de los espectros tratados en el trabajo. Se reexaminan los conceptos asociados con la naturaleza de la radiación electromagnética, así como los procesos físicos y el tratamiento electrónico que se hallan involucrados en su detección, poniendo de relieve la naturaleza intrínsecamente estadística del proceso de formación del espectro asociado como una clasificación del número de detecciones realizadas en función de la energía supuestamente continua asociada a las mismas. Para ello se aporta una breve descripción de los principales fenómenos de interacción de la radiación con la materia, que condicionan el proceso de detección y formación del espectro. El detector de radiación es considerado el elemento crítico del sistema de medida, puesto que condiciona fuertemente el proceso de detección. Por ello se examinan los principales tipos de detectores, con especial hincapié en los detectores de tipo semiconductor, ya que son los más utilizados en la actualidad. Finalmente, se describen los subsistemas electrónicos fundamentales para el acondicionamiento y pretratamiento de la señal procedente del detector, a la que se le denomina con el término tradicionalmente utilizado de Electrónica Nuclear. En lo que concierne a la espectroscopia, el principal subsistema de interés para el presente trabajo es el analizador multicanal, el cual lleva a cabo el tratamiento cualitativo de la señal, y construye un histograma de intensidad de radiación en el margen de energías al que el detector es sensible. Este vector N-dimensional es lo que generalmente se conoce con el nombre de espectro de radiación. Los distintos radionúclidos que participan en una fuente de radiación no pura dejan su impronta en dicho espectro. En el capítulo segundo se realiza una revisión exhaustiva de los métodos matemáticos en uso hasta el momento ideados para la identificación de los radionúclidos presentes en un espectro compuesto, así como para determinar sus actividades relativas. Uno de ellos es el denominado de regresión lineal múltiple, que se propone como la aproximación más apropiada a los condicionamientos y restricciones del problema: capacidad para tratar con espectros de baja resolución, ausencia del concurso de un operador humano (no supervisión), y posibilidad de ser soportado por algoritmos de baja complejidad capaces de ser instrumentados sobre procesadores dedicados de alta escala de integración. El problema del análisis se plantea formalmente en el tercer capítulo siguiendo las pautas arriba mencionadas y se demuestra que el citado problema admite una solución en la teoría de memorias asociativas lineales. Un operador basado en este tipo de estructuras puede proporcionar la solución al problema de la descomposición espectral deseada. En el mismo contexto, se proponen un par de algoritmos adaptativos complementarios para la construcción del operador, que gozan de unas características aritméticas especialmente apropiadas para su instrumentación sobre procesadores de alta escala de integración. La característica de adaptatividad dota a la memoria asociativa de una gran flexibilidad en lo que se refiere a la incorporación de nueva información en forma progresiva.En el capítulo cuarto se trata con un nuevo problema añadido, de índole altamente compleja. Es el del tratamiento de las deformaciones que introducen en el espectro las derivas instrumentales presentes en el dispositivo detector y en la electrónica de preacondicionamiento. Estas deformaciones invalidan el modelo de regresión lineal utilizado para describir el espectro problema. Se deriva entonces un modelo que incluya las citadas deformaciones como una ampliación de contribuciones en el espectro compuesto, el cual conlleva una ampliación sencilla de la memoria asociativa capaz de tolerar las derivas en la mezcla problema y de llevar a cabo un análisis robusto de contribuciones. El método de ampliación utilizado se basa en la suposición de pequeñas perturbaciones. La práctica en el laboratorio demuestra que, en ocasiones, las derivas instrumentales pueden provocar distorsiones severas en el espectro que no pueden ser tratadas por el modelo anterior. Por ello, en el capítulo quinto se plantea el problema de medidas afectadas por fuertes derivas desde el punto de vista de la teoría de optimización no lineal. Esta reformulación lleva a la introducción de un algoritmo de tipo recursivo inspirado en el de Gauss-Newton que permite introducir el concepto de memoria lineal realimentada. Este operador ofrece una capacidad sensiblemente mejorada para la descomposición de mezclas con fuerte deriva sin la excesiva carga computacional que presentan los algoritmos clásicos de optimización no lineal. El trabajo finaliza con una discusión de los resultados obtenidos en los tres principales niveles de estudio abordados, que se ofrecen en los capítulos tercero, cuarto y quinto, así como con la elevación a definitivas de las principales conclusiones derivadas del estudio y con el desglose de las posibles líneas de continuación del presente trabajo.---ABSTRACT---Through the present research, the feasibility of Automatic Gamma-Radiation Spectral Decomposition by Linear Algebraic Equation-Solving Algorithms using Pseudo-Inverse Techniques is explored. The design of the before mentioned algorithms has been done having into account their possible implementation on Specific-Purpose Processors of Low Complexity. In the first chapter, the techniques for the detection and measurement of gamma radiation employed to construct the spectra being used throughout the research are reviewed. Similarly, the basic concepts related with the nature and properties of the hard electromagnetic radiation are also re-examined, together with the physic and electronic processes involved in the detection of such kind of radiation, with special emphasis in the intrinsic statistical nature of the spectrum build-up process, which is considered as a classification of the number of individual photon-detections as a function of the energy associated to each individual photon. Fbr such, a brief description of the most important matter-energy interaction phenomena conditioning the detection and spectrum formation processes is given. The radiation detector is considered as the most critical element in the measurement system, as this device strongly conditions the detection process. Fbr this reason, the characteristics of the most frequent detectors are re-examined, with special emphasis on those of semiconductor nature, as these are the most frequently employed ones nowadays. Finally, the fundamental electronic subsystems for preaconditioning and treating of the signal delivered by the detector, classically addresed as Nuclear Electronics, is described. As far as Spectroscopy is concerned, the subsystem most interesting for the scope covered by the present research is the so-called Multichannel Analyzer, which is devoted to the cualitative treatment of the signal, building-up a hystogram of radiation intensity in the range of energies in which the detector is sensitive. The resulting N-dimensional vector is generally known with the ñame of Radiation Spectrum. The different radio-nuclides contributing to the spectrum of a composite source will leave their fingerprint in the resulting spectrum. Through the second chapter, an exhaustive review of the mathematical methods devised to the present moment to identify the radio-nuclides present in the composite spectrum and to quantify their relative contributions, is reviewed. One of the more popular ones is the so-known Múltiple Linear Regression, which is proposed as the best suited approach according to the constraints and restrictions present in the formulation of the problem, i.e., the need to treat low-resolution spectra, the absence of control by a human operator (un-supervision), and the possibility of being implemented as low-complexity algorithms amenable of being supported by VLSI Specific Processors. The analysis problem is formally stated through the third chapter, following the hints established in this context, and it is shown that the addressed problem may be satisfactorily solved under the point of view of Linear Associative Memories. An operator based on this kind of structures may provide the solution to the spectral decomposition problem posed. In the same context, a pair of complementary adaptive algorithms useful for the construction of the solving operator are proposed, which share certain special arithmetic characteristics that render them specially suitable for their implementation on VLSI Processors. The adaptive nature of the associative memory provides a high flexibility to this operator, in what refers to the progressive inclusión of new information to the knowledge base. Through the fourth chapter, this fact is treated together with a new problem to be considered, of a high interest but quite complex nature, as is the treatment of the deformations appearing in the spectrum when instrumental drifts in both the detecting device and the pre-acconditioning electronics are to be taken into account. These deformations render the Linear Regression Model proposed almost unuseful to describe the resulting spectrum. A new model including the drifts is derived as an extensión of the individual contributions to the composite spectrum, which implies a simple extensión of the Associative Memory, which renders this suitable to accept the drifts in the composite spectrum, thus producing a robust analysis of contributions. The extensión method is based on the Low-Amplitude Perturbation Hypothesis. Experimental practice shows that in certain cases the instrumental drifts may provoke severe distortions in the resulting spectrum, which can not be treated with the before-mentioned hypothesis. To cover also these less-frequent cases, through the fifth chapter, the problem involving strong drifts is treated under the point of view of Non-Linear Optimization Techniques. This reformulation carries the study to the consideration of recursive algorithms based on the Gauss-Newton methods, which allow the introduction of Feed-Back Memories, computing elements with a sensibly improved capability to decompose spectra affected by strong drifts. The research concludes with a discussion of the results obtained in the three main levéis of study considerad, which are presented in chapters third, fourth and fifth, toghether with the review of the main conclusions derived from the study and the outline of the main research lines opened by the present work.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente elaborato è incentrato sulla modellizzazione del plasma di bordo nei dispositivi per la produzione di energia da fusione nucleare noti come tokamak. La tecnologia che nel corso di tutta la seconda metà del XX secolo fino ad oggi è stata sviluppata a questo fine deve necessariamente scontrarsi con alcuni limiti. Nei tokamak il confinamento del plasma è di tipo magnetico e vincola le particelle a muoversi di moto elicoidale all'interno del vessel, tuttavia il confinamento non risulta perfetto e parte dell'energia si scarica sulle pareti della camera, rischiando pertanto di fondere i materiali. Alcune strategie possono essere messe in atto per limitare questo problema, per esempio agendo sulla geometria del tokamak, oppure sulla fisica, inducendo nel plasma una data concentrazione di impurezze che ionizzino irraggiando parte dell'energia di plasma. Proprio tale meccanismo di perdita è stato simulato in un modello monodimensionale di plasma monofluido di bordo. I risultati del codice numerico relativo al modello dimostrano che per concentrazioni di impurezze crescenti è possibile diminuire in modo significativo flusso di calore e temperatura al divertore. Per di più risulta possibile controllare la posizione del fronte di irraggiamento per mezzo di parametri di controllo del plasma quali la pressione. Si osserva inoltre l'insorgere del cosiddetto fenomeno di biforcazione alle basse temperature di divertore, fenomeno in cui il plasma si comporta in modo instabile a causa di fenomeni fisici tipici delle basse energie ("detachment") e a seguito del quale può improvvisamente spegnersi (disruzione). Infine lo stesso modello è stato migliorato inserendo l'ipotesi di plasma bifluido. Anche per gli ioni viene osservato il fenomeno di biforcazione. I risultati numerici evidenziano le dinamiche dello scambio energetico fra le specie gettando le basi di una progettazione efficiente della chimica del plasma finalizzata al raffreddamento del divertore.