807 resultados para Machine Learning,hepatocellular malignancies,HCC,MVI


Relevância:

100.00% 100.00%

Publicador:

Resumo:

The diagnosis, grading and classification of tumours has benefited considerably from the development of DCE-MRI which is now essential to the adequate clinical management of many tumour types due to its capability in detecting active angiogenesis. Several strategies have been proposed for DCE-MRI evaluation. Visual inspection of contrast agent concentration curves vs time is a very simple yet operator dependent procedure, therefore more objective approaches have been developed in order to facilitate comparison between studies. In so called model free approaches, descriptive or heuristic information extracted from time series raw data have been used for tissue classification. The main issue concerning these schemes is that they have not a direct interpretation in terms of physiological properties of the tissues. On the other hand, model based investigations typically involve compartmental tracer kinetic modelling and pixel-by-pixel estimation of kinetic parameters via non-linear regression applied on region of interests opportunely selected by the physician. This approach has the advantage to provide parameters directly related to the pathophysiological properties of the tissue such as vessel permeability, local regional blood flow, extraction fraction, concentration gradient between plasma and extravascular-extracellular space. Anyway, nonlinear modelling is computational demanding and the accuracy of the estimates can be affected by the signal-to-noise ratio and by the initial solutions. The principal aim of this thesis is investigate the use of semi-quantitative and quantitative parameters for segmentation and classification of breast lesion. The objectives can be subdivided as follow: describe the principal techniques to evaluate time intensity curve in DCE-MRI with focus on kinetic model proposed in literature; to evaluate the influence in parametrization choice for a classic bi-compartmental kinetic models; to evaluate the performance of a method for simultaneous tracer kinetic modelling and pixel classification; to evaluate performance of machine learning techniques training for segmentation and classification of breast lesion.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Myeloid cell leukemia-1 (Mcl-1) ist ein anti-apoptotisches Mitglied der Bcl-2-Proteinfamilie. Als solches ist es in der Lage, die mitochondriale Aktivierung während der Apoptose zu hemmen. Dadurch schützt es Zellen bei zellulärem Stress (wie z.B. Differenzierung, Proliferation oder Virusinfektion) vor Apoptoseinduktion. Aufgrund dieser Eigenschaft ist es unabkömmlich während der Embryogenese und in verschiedenen hämatopoetischen Zellpopulationen. Des Weiteren ist Mcl-1 als Protoonkogen in verschiedenen humanen Tumorentitäten verstärkt exprimiert und kann so zu einer verminderten Apoptosesensitivität von Tumorzellen beitragen. Auch primäre humane Hepatozyten können nach Mcl-1-Induktion durch Wachstumsfaktorbehandlung gegenüber CD95-vermittelter Apoptose geschützt werden. Daher sollte untersucht werden, welche Bedeutung Mcl-1 im hepatozellulären Karzinom (HCC) und in der gesunden Leber einnimmt. Hierzu wurde zunächst humanes HCC-Gewebe hinsichtlich der Expression von Mcl-1 untersucht. Es konnte gezeigt werden, dass Mcl-1 sowohl auf mRNA- als auch auf Protein-Ebene in HCC-Gewebe verstärkt exprimiert ist im Vergleich zu benachbartem Normalgewebe. Auch in verschiedenen HCC-Zelllinien konnte eine starke Mcl-1-Expression nachgewiesen werden. Diese war vor allem über den PI3K/Akt-Signalweg reguliert. Eine Hemmung dieses Signalwegs führte zu einer Reduktion der Mcl-1-Expression und so zu einer Sensitivierung der Zellen gegenüber verschiedenen Chemotherapeutika und zielgerichteten Therapien. Des Weiteren wurde die Mcl-1-Expression spezifisch durch RNA-Interferenz gehemmt. Auch hier konnte gezeigt werden, dass Zellen mit unterdrückter Mcl-1-Expression deutlich sensitiver gegenüber verschiedenen Apoptose-induzierenden Substanzen reagierten. Eine kombinierte Hemmung der Mcl-1-Expression und der PI3-Kinase führte schließlich zu einer nochmals verstärkten Sensitivierung. Im Gegensatz dazu führte eine Überexpression von Mcl-1 zu einer Hemmung der Apoptoseinduktion. Im zweiten Teil der Arbeit wurde eine Mauslinie etabliert, welche spezifisch in Hepatozyten kein Mcl-1 exprimiert, um so die Bedeutung von Mcl-1 für die Leber in vivo zu untersuchen. Es zeigte sich, dass Mcl-1flox/flox-AlbCre-Mäuse bereits im Alter von acht Wochen eine verminderte Lebergröße aufweisen. Dies wurde verursacht durch spontane Apoptoseinduktion in den Mcl-1 negativen Hepatozyten. Hierdurch kam es zu einer Leberschädigung, ersichtlich durch erhöhte Transaminasenwerte, erhöhte Caspase-3-Aktivierung, und Schädigung der Gewebsstruktur. Zudem war als kompensatorischer Effekt die Zellproliferation erhöht, ohne dass sich jedoch das Lebergewicht an das von Kontrolltieren anglich. Interessanterweise kam es in Mcl-1flox/flox-AlbCre-Mäusen als Folge der chronischen Leberschädigung zur Entwicklung einer Leberfibrose, ersichtlich durch eine verstärkte Collageneinlagerung. Weiterhin reagierten Mcl-1flox/flox-AlbCre-Mäuse wesentlich empfindlicher gegenüber Todesrezeptor-vermittelter Apoptose. Diese Daten zeigen zum einen, dass Mcl-1 zur Apoptoseresistenz von HCC-Zellen beitragen kann. Zielgerichtete Therapien, welche die Expression von Mcl-1 hemmen, könnten folglich für die Therapie des HCCs von Interesse sein. Des Weiteren konnte in dieser Arbeit zum ersten Mal gezeigt werden, dass Mcl-1 ein zentraler anti-apoptotischer Faktor für Hepatozyten in vivo ist.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Im Forschungsgebiet der Künstlichen Intelligenz, insbesondere im Bereich des maschinellen Lernens, hat sich eine ganze Reihe von Verfahren etabliert, die von biologischen Vorbildern inspiriert sind. Die prominentesten Vertreter derartiger Verfahren sind zum einen Evolutionäre Algorithmen, zum anderen Künstliche Neuronale Netze. Die vorliegende Arbeit befasst sich mit der Entwicklung eines Systems zum maschinellen Lernen, das Charakteristika beider Paradigmen in sich vereint: Das Hybride Lernende Klassifizierende System (HCS) wird basierend auf dem reellwertig kodierten eXtended Learning Classifier System (XCS), das als Lernmechanismus einen Genetischen Algorithmus enthält, und dem Wachsenden Neuralen Gas (GNG) entwickelt. Wie das XCS evolviert auch das HCS mit Hilfe eines Genetischen Algorithmus eine Population von Klassifizierern - das sind Regeln der Form [WENN Bedingung DANN Aktion], wobei die Bedingung angibt, in welchem Bereich des Zustandsraumes eines Lernproblems ein Klassifizierer anwendbar ist. Beim XCS spezifiziert die Bedingung in der Regel einen achsenparallelen Hyperquader, was oftmals keine angemessene Unterteilung des Zustandsraumes erlaubt. Beim HCS hingegen werden die Bedingungen der Klassifizierer durch Gewichtsvektoren beschrieben, wie die Neuronen des GNG sie besitzen. Jeder Klassifizierer ist anwendbar in seiner Zelle der durch die Population des HCS induzierten Voronoizerlegung des Zustandsraumes, dieser kann also flexibler unterteilt werden als beim XCS. Die Verwendung von Gewichtsvektoren ermöglicht ferner, einen vom Neuronenadaptationsverfahren des GNG abgeleiteten Mechanismus als zweites Lernverfahren neben dem Genetischen Algorithmus einzusetzen. Während das Lernen beim XCS rein evolutionär erfolgt, also nur durch Erzeugen neuer Klassifizierer, ermöglicht dies dem HCS, bereits vorhandene Klassifizierer anzupassen und zu verbessern. Zur Evaluation des HCS werden mit diesem verschiedene Lern-Experimente durchgeführt. Die Leistungsfähigkeit des Ansatzes wird in einer Reihe von Lernproblemen aus den Bereichen der Klassifikation, der Funktionsapproximation und des Lernens von Aktionen in einer interaktiven Lernumgebung unter Beweis gestellt.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This thesis concerns artificially intelligent natural language processing systems that are capable of learning the properties of lexical items (properties like verbal valency or inflectional class membership) autonomously while they are fulfilling their tasks for which they have been deployed in the first place. Many of these tasks require a deep analysis of language input, which can be characterized as a mapping of utterances in a given input C to a set S of linguistically motivated structures with the help of linguistic information encoded in a grammar G and a lexicon L: G + L + C → S (1) The idea that underlies intelligent lexical acquisition systems is to modify this schematic formula in such a way that the system is able to exploit the information encoded in S to create a new, improved version of the lexicon: G + L + S → L' (2) Moreover, the thesis claims that a system can only be considered intelligent if it does not just make maximum usage of the learning opportunities in C, but if it is also able to revise falsely acquired lexical knowledge. So, one of the central elements in this work is the formulation of a couple of criteria for intelligent lexical acquisition systems subsumed under one paradigm: the Learn-Alpha design rule. The thesis describes the design and quality of a prototype for such a system, whose acquisition components have been developed from scratch and built on top of one of the state-of-the-art Head-driven Phrase Structure Grammar (HPSG) processing systems. The quality of this prototype is investigated in a series of experiments, in which the system is fed with extracts of a large English corpus. While the idea of using machine-readable language input to automatically acquire lexical knowledge is not new, we are not aware of a system that fulfills Learn-Alpha and is able to deal with large corpora. To instance four major challenges of constructing such a system, it should be mentioned that a) the high number of possible structural descriptions caused by highly underspeci ed lexical entries demands for a parser with a very effective ambiguity management system, b) the automatic construction of concise lexical entries out of a bulk of observed lexical facts requires a special technique of data alignment, c) the reliability of these entries depends on the system's decision on whether it has seen 'enough' input and d) general properties of language might render some lexical features indeterminable if the system tries to acquire them with a too high precision. The cornerstone of this dissertation is the motivation and development of a general theory of automatic lexical acquisition that is applicable to every language and independent of any particular theory of grammar or lexicon. This work is divided into five chapters. The introductory chapter first contrasts three different and mutually incompatible approaches to (artificial) lexical acquisition: cue-based queries, head-lexicalized probabilistic context free grammars and learning by unification. Then the postulation of the Learn-Alpha design rule is presented. The second chapter outlines the theory that underlies Learn-Alpha and exposes all the related notions and concepts required for a proper understanding of artificial lexical acquisition. Chapter 3 develops the prototyped acquisition method, called ANALYZE-LEARN-REDUCE, a framework which implements Learn-Alpha. The fourth chapter presents the design and results of a bootstrapping experiment conducted on this prototype: lexeme detection, learning of verbal valency, categorization into nominal count/mass classes, selection of prepositions and sentential complements, among others. The thesis concludes with a review of the conclusions and motivation for further improvements as well as proposals for future research on the automatic induction of lexical features.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il tumore al seno si colloca al primo posto per livello di mortalità tra le patologie tumorali che colpiscono la popolazione femminile mondiale. Diversi studi clinici hanno dimostrato come la diagnosi da parte del radiologo possa essere aiutata e migliorata dai sistemi di Computer Aided Detection (CAD). A causa della grande variabilità di forma e dimensioni delle masse tumorali e della somiglianza di queste con i tessuti che le ospitano, la loro ricerca automatizzata è un problema estremamente complicato. Un sistema di CAD è generalmente composto da due livelli di classificazione: la detection, responsabile dell’individuazione delle regioni sospette presenti sul mammogramma (ROI) e quindi dell’eliminazione preventiva delle zone non a rischio; la classificazione vera e propria (classification) delle ROI in masse e tessuto sano. Lo scopo principale di questa tesi è lo studio di nuove metodologie di detection che possano migliorare le prestazioni ottenute con le tecniche tradizionali. Si considera la detection come un problema di apprendimento supervisionato e lo si affronta mediante le Convolutional Neural Networks (CNN), un algoritmo appartenente al deep learning, nuova branca del machine learning. Le CNN si ispirano alle scoperte di Hubel e Wiesel riguardanti due tipi base di cellule identificate nella corteccia visiva dei gatti: le cellule semplici (S), che rispondono a stimoli simili ai bordi, e le cellule complesse (C) che sono localmente invarianti all’esatta posizione dello stimolo. In analogia con la corteccia visiva, le CNN utilizzano un’architettura profonda caratterizzata da strati che eseguono sulle immagini, alternativamente, operazioni di convoluzione e subsampling. Le CNN, che hanno un input bidimensionale, vengono solitamente usate per problemi di classificazione e riconoscimento automatico di immagini quali oggetti, facce e loghi o per l’analisi di documenti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

questa tesi propone una prospettiva completa sull'accelerometro, descrivendone le caratteristiche le tipologie, gli utilizzi che se ne possono fare e gli ambiti di applicazione. Sviluppa anche argomenti che riguardano interfacce e piattaforme per l'interazione con il sensore e algoritmi machine learning.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Android, Google App Engine e Machine Learning per lo studio dell'affollamento delle tratte ferroviarie.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Generic object recognition is an important function of the human visual system and everybody finds it highly useful in their everyday life. For an artificial vision system it is a really hard, complex and challenging task because instances of the same object category can generate very different images, depending of different variables such as illumination conditions, the pose of an object, the viewpoint of the camera, partial occlusions, and unrelated background clutter. The purpose of this thesis is to develop a system that is able to classify objects in 2D images based on the context, and identify to which category the object belongs to. Given an image, the system can classify it and decide the correct categorie of the object. Furthermore the objective of this thesis is also to test the performance and the precision of different supervised Machine Learning algorithms in this specific task of object image categorization. Through different experiments the implemented application reveals good categorization performances despite the difficulty of the problem. However this project is open to future improvement; it is possible to implement new algorithms that has not been invented yet or using other techniques to extract features to make the system more reliable. This application can be installed inside an embedded system and after trained (performed outside the system), so it can become able to classify objects in a real-time. The information given from a 3D stereocamera, developed inside the department of Computer Engineering of the University of Bologna, can be used to improve the accuracy of the classification task. The idea is to segment a single object in a scene using the depth given from a stereocamera and in this way make the classification more accurate.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dysfunction of Autonomic Nervous System (ANS) is a typical feature of chronic heart failure and other cardiovascular disease. As a simple non-invasive technology, heart rate variability (HRV) analysis provides reliable information on autonomic modulation of heart rate. The aim of this thesis was to research and develop automatic methods based on ANS assessment for evaluation of risk in cardiac patients. Several features selection and machine learning algorithms have been combined to achieve the goals. Automatic assessment of disease severity in Congestive Heart Failure (CHF) patients: a completely automatic method, based on long-term HRV was proposed in order to automatically assess the severity of CHF, achieving a sensitivity rate of 93% and a specificity rate of 64% in discriminating severe versus mild patients. Automatic identification of hypertensive patients at high risk of vascular events: a completely automatic system was proposed in order to identify hypertensive patients at higher risk to develop vascular events in the 12 months following the electrocardiographic recordings, achieving a sensitivity rate of 71% and a specificity rate of 86% in identifying high-risk subjects among hypertensive patients. Automatic identification of hypertensive patients with history of fall: it was explored whether an automatic identification of fallers among hypertensive patients based on HRV was feasible. The results obtained in this thesis could have implications both in clinical practice and in clinical research. The system has been designed and developed in order to be clinically feasible. Moreover, since 5-minute ECG recording is inexpensive, easy to assess, and non-invasive, future research will focus on the clinical applicability of the system as a screening tool in non-specialized ambulatories, in order to identify high-risk patients to be shortlisted for more complex investigations.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il Sorafenib è l’unica terapia sistemica approvata per l’epatocarcinoma (HCC) avanzato. Tuttavia, molti tumori sviluppano resistenze. La chemioterapia metronomica sembrerebbe avere un effetto antiangiogenetico. La Capecitabina metronomica è potenzialmente efficace nell’HCC avanzato. Lo scopo dello studio è stato valutare il comportamento di un modello murino di HCC sottoposto a Sorafenib, Capecitabina e terapia combinata, per dimostrarne un eventuale effetto sinergico. Il modello è stato creato in topi scid mediante inoculazione sottocutanea di 5 milioni di cellule HuH7. I topi sono stati suddivisi in 4 gruppi: gruppo 1 sottoposto a terapia con placebo (9 topi), gruppo 2 a Sorafenib (7 topi), gruppo 3 a Capecitabina (7 topi) e gruppo 4 a terapia combinata Sorafenib+Capecitabina (10 topi). I topi sono stati studiati al giorno 0 e 14 con ecografia B-mode e con mezzo di contrasto (CEUS). Al giorno 14 sono stati sacrificati e i pezzi tumorali sono stati conservati per l’analisi Western Blot. Un topo del gruppo 1 e 4 topi del gruppo 4 sono morti precocemente e quindi sono stati esclusi. Il delta di crescita tumorale al giorno 14 rispetto al giorno 0 è risultato di +503 %, +158 %, +462 % e +176 % rispettivamente nei 4 gruppi (p<0.05 tra i 4 gruppi, tra il gruppo 1 e 2, tra il gruppo 1 e 4, tra il gruppo 2 e 3, tra il gruppo 3 e 4). Alla CEUS non si sono evidenziate differenze statisticamente significative nei cambiamenti di perfusione tumorale al giorno 14 nei 4 gruppi. L’analisi Western Blot ha mostrato livelli di VEGFR-2 inferiori nel gruppo dei topi trattati con Sorafenib. La terapia di associazione di Sorafenib e Capecitabina non comporta un beneficio, in termini di riduzione della crescita tumorale, in un modello murino di HCC rispetto al solo Sorafenib. Inoltre, può essere sospettato un incremento di tossicità.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Introduzione e scopo: la rapida diffusione delle malattie dismetaboliche sta modificando l’epidemiologia dell’epatocarcinoma (HCC). Scopo della tesi è, attraverso quattro studi, analizzare l’impatto di questi cambiamenti nella gestione clinica del paziente affetto da HCC. Materiali e metodi: quattro studi di coorte, condotti con analisi retrospettiva del database ITA.LI.CA. Studio 1:3658 pazienti arruolati tra il 01-01-2001 ed il 31-12-2012 suddivisi in base alla data di diagnosi:2001-2004 (954 pazienti), 2005-2008 (1122 pazienti), 2009-2012 (1582 pazienti). Studio 2:analisi comparativa tra 756 pazienti con HCC-NAFLD e 611 pazienti con HCC-HCV. Studio 3:proposta di quattro modelli alternativi al BCLC originale con validazione di una proposta di sottostadiazione dell’intermedio, considerando 2606 pazienti arruolati tra il 01-01-2000 e il 31-12-2012 e riallocati secondo gradi diversi di perfomance status (PS). Studio 4:analisi di 696 pazienti con HCC in stadio intermedio diagnosticato dopo il 1999 stratificati per trattamento. Risultati: studio 1:progressivo aumento dell’età alla diagnosi e delle eziologie dismetaboliche; più frequente esordio dell’HCC in stadio precoce e con funzione epatica più conservata; aumento della sopravvivenza dopo il 2008. Studio 2:i pazienti con HCC-NAFLD mostrano più frequentemente un tumore infiltrativo diagnosticato fuori dai programmi di sorveglianza, con prognosi peggiore rispetto ai pazienti HCC-HCV. Questa differenza di sopravvivenza si elimina rimuovendo i fattori di confondimento attraverso propensity analysis. Studio 3:il PS1 non è un predittore indipendente di sopravvivenza. Il modello 4 (considerando PS1=PS0 e con la sottostadiazione proposta), ha la migliore capacità discriminativa. Studio 4:i trattamenti curativi riducono la mortalità più della TACE, anche dopo propensity analysis. Conclusioni: l’aumento delle patologie dismetaboliche comporterà diagnosi di malattia ad uno stadio più avanzato, quando sintomatica, rendendo necessario stabilire un programma di sorveglianza. Inoltre per una migliore stratificazione e gestione dei pazienti, bisogna riconsiderare il ruolo del PS ed offrire un ventaglio di opzioni terapeutiche anche per il pazienti in stadio intermedio.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il documento tratta la famiglia di metodologie di allenamento e sfruttamento delle reti neurali ricorrenti nota sotto il nome di Reservoir Computing. Viene affrontata un'introduzione sul Machine Learning in generale per fornire tutti gli strumenti necessari a comprendere l'argomento. Successivamente, vengono dati dettagli implementativi ed analisi dei vantaggi e punti deboli dei vari approcci, il tutto con supporto di codice ed immagini esplicative. Nel finale vengono tratte conclusioni sugli approcci, su quanto migliorabile e sulle applicazioni pratiche.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nel documento vengono trattate le principali tecniche di geolocalizzazione basate sull'elaborazione dei segnali elettromagnetici ricevuti. E' altresì introdotto un sistema di remote positioning basato su test di prossimità rafforzato tramite machine learning tramite un approccio simulativo ed una implementazione reale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nowadays the number of hip joints arthroplasty operations continues to increase because the elderly population is growing. Moreover, the global life expectancy is increasing and people adopt a more active way of life. For this reasons, the demand of implant revision operations is becoming more frequent. The operation procedure includes the surgical removal of the old implant and its substitution with a new one. Every time a new implant is inserted, it generates an alteration in the internal femur strain distribution, jeopardizing the remodeling process with the possibility of bone tissue loss. This is of major concern, particularly in the proximal Gruen zones, which are considered critical for implant stability and longevity. Today, different implant designs exist in the market; however there is not a clear understanding of which are the best implant design parameters to achieve mechanical optimal conditions. The aim of the study is to investigate the stress shielding effect generated by different implant design parameters on proximal femur, evaluating which ranges of those parameters lead to the most physiological conditions.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi vengono valutati gli effetti sui modelli di regressione lineare da parte di troncature deterministiche dei dati analizzati, e viene proposto un metodo alternativo per effettuare queste regressioni, che rimuova queste distorsioni. In particolare vengono discussi questi effetti nel campo della ricerca biologica, come nel progetto Mark-Age. Il progetto Mark-Age ha come obiettivo quello di ottenere un set di biomarcatori per l'invecchiamento, attraverso l'uso di metodi di data learning in analisi di tipo trasversale; elaborando cioè diverse variabili misurate sulle popolazioni esaminate riguardanti più sistemi fisiologici contemporaneamente e senza escludere interazioni locali fra queste. E' necessario tenere conto in queste analisi che questi dati sono deterministicamente troncati per via dei criteri di selezione sull’età dei partecipanti, e che questo ha un effetto rilevante sui metodi di analisi standard, i quali invece ipotizzano che non vi sarebbe alcuna relazione fra l’assenza di un dato ed il suo valore, se questo fosse misurato. In questa tesi vengono studiati gli effetti di questa troncatura sia per quanto riguarda la selezione di modelli ottimali, che della stima dei parametri per questi modelli. Vengono studiati e caratterizzati questi effetti nell'ambito di un toy model, che permette di quantificare la distorsione e la perdita di potenza dovuta alla troncatura. Viene inoltre introdotto un appropriato metodo di regressione, chiamato Tobit, che tenga conto di questi effetti. Questo metodo viene infine applicato ad un sottoinsieme dati del progetto Mark-Age, dimostrando una notevole riduzione del bias di predizione, ottenendo anche una stima della precisione di queste predizioni.