953 resultados para Semi-algoritmo


Relevância:

20.00% 20.00%

Publicador:

Resumo:

A broad variety of solid state NMR techniques were used to investigate the chain dynamics in several polyethylene (PE) samples, including ultrahigh molecular weight PEs (UHMW-PEs) and low molecular weight PEs (LMW-PEs). Via changing the processing history, i.e. melt/solution crystallization and drawing processes, these samples gain different morphologies, leading to different molecular dynamics. Due to the long chain nature, the molecular dynamics of polyethylene can be distinguished in local fluctuation and long range motion. With the help of NMR these different kinds of molecular dynamics can be monitored separately. In this work the local chain dynamics in non-crystalline regions of polyethylene samples was investigated via measuring 1H-13C heteronuclear dipolar coupling and 13C chemical shift anisotropy (CSA). By analyzing the motionally averaged 1H-13C heteronuclear dipolar coupling and 13C CSA, the information about the local anisotropy and geometry of motion was obtained. Taking advantage of the big difference of the 13C T1 relaxation time in crystalline and non-crystalline regions of PEs, the 1D 13C MAS exchange experiment was used to investigate the cooperative chain motion between these regions. The different chain organizations in non-crystalline regions were used to explain the relationship between the local fluctuation and the long range motion of the samples. In a simple manner the cooperative chain motion between crystalline and non-crystalline regions of PE results in the experimentally observed diffusive behavior of PE chain. The morphological influences on the diffusion motion have been discussed. The morphological factors include lamellar thickness, chain organization in non-crystalline regions and chain entanglements. Thermodynamics of the diffusion motion in melt and solution crystallized UHMW-PEs is discussed, revealing entropy-controlled features of the chain diffusion in PE. This thermodynamic consideration explains the counterintuitive relationship between the local fluctuation and the long range motion of the samples. Using the chain diffusion coefficient, the rates of jump motion in crystals of the melt crystallized PE have been calculated. A concept of "effective" jump motion has been proposed to explain the difference between the values derived from the chain diffusion coefficients and those in literatures. The observations of this thesis give a clear demonstration of the strong relationship between the sample morphology and chain dynamics. The sample morphologies governed by the processing history lead to different spatial constraints for the molecular chains, leading to different features of the local and long range chain dynamics. The knowledge of the morphological influence on the microscopic chain motion has many implications in our understanding of the alpha-relaxation process in PE and the related phenomena such as crystal thickening, drawability of PE, the easy creep of PE fiber, etc.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La tesi descrive il progetto e il funzionamento di un algoritmo basato su un sistema di visione, studiato allo scopo di eliminare i marker, che vengono utilizzati dai sensori di contrasto nel processo di taglio delle singole etichette a partire dalle bobine che scorrono sul rullo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The diagnosis, grading and classification of tumours has benefited considerably from the development of DCE-MRI which is now essential to the adequate clinical management of many tumour types due to its capability in detecting active angiogenesis. Several strategies have been proposed for DCE-MRI evaluation. Visual inspection of contrast agent concentration curves vs time is a very simple yet operator dependent procedure, therefore more objective approaches have been developed in order to facilitate comparison between studies. In so called model free approaches, descriptive or heuristic information extracted from time series raw data have been used for tissue classification. The main issue concerning these schemes is that they have not a direct interpretation in terms of physiological properties of the tissues. On the other hand, model based investigations typically involve compartmental tracer kinetic modelling and pixel-by-pixel estimation of kinetic parameters via non-linear regression applied on region of interests opportunely selected by the physician. This approach has the advantage to provide parameters directly related to the pathophysiological properties of the tissue such as vessel permeability, local regional blood flow, extraction fraction, concentration gradient between plasma and extravascular-extracellular space. Anyway, nonlinear modelling is computational demanding and the accuracy of the estimates can be affected by the signal-to-noise ratio and by the initial solutions. The principal aim of this thesis is investigate the use of semi-quantitative and quantitative parameters for segmentation and classification of breast lesion. The objectives can be subdivided as follow: describe the principal techniques to evaluate time intensity curve in DCE-MRI with focus on kinetic model proposed in literature; to evaluate the influence in parametrization choice for a classic bi-compartmental kinetic models; to evaluate the performance of a method for simultaneous tracer kinetic modelling and pixel classification; to evaluate performance of machine learning techniques training for segmentation and classification of breast lesion.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The biogenic production of NO in the soil accounts for between 10% and 40% of the global total. A large degree of the uncertainty in the estimation of the biogenic emissions stems from a shortage of measurements in arid regions, which comprise 40% of the earth’s land surface area. This study examined the emission of NO from three ecosystems in southern Africa which cover an aridity gradient from semi-arid savannas in South Africa to the hyper-arid Namib Desert in Namibia. A laboratory method was used to determine the release of NO as a function of the soil moisture and the soil temperature. Various methods were used to up-scale the net potential NO emissions determined in the laboratory to the vegetation patch, landscape or regional level. The importance of landscape, vegetation and climatic characteristics is emphasized. The first study occurred in a semi-arid savanna region in South Africa, where soils were sampled from 4 landscape positions in the Kruger National Park. The maximum NO emission occurred at soil moisture contents of 10%-20% water filled pore space (WFPS). The highest net potential NO emissions came from the low lying landscape positions, which have the largest nitrogen (N) stocks and the largest input of N. Net potential NO fluxes obtained in the laboratory were converted in field fluxes for the period 2003-2005, for the four landscape positions, using soil moisture and temperature data obtained in situ at the Kruger National Park Flux Tower Site. The NO emissions ranged from 1.5-8.5 kg ha-1 a-1. The field fluxes were up-scaled to a regional basis using geographic information system (GIS) based techniques, this indicated that the highest NO emissions occurred from the Midslope positions due to their large geographical extent in the research area. Total emissions ranged from 20x103 kg in 2004 to 34x103 kg in 2003 for the 56000 ha Skukuza land type. The second study occurred in an arid savanna ecosystem in the Kalahari, Botswana. In this study I collected soils from four differing vegetation patch types including: Pan, Annual Grassland, Perennial Grassland and Bush Encroached patches. The maximum net potential NO fluxes ranged from 0.27 ng m-2 s-1 in the Pan patches to 2.95 ng m-2 s-1 in the Perennial Grassland patches. The net potential NO emissions were up-scaled for the year December 2005-November 2006. This was done using 1) the net potential NO emissions determined in the laboratory, 2) the vegetation patch distribution obtained from LANDSAT NDVI measurements 3) estimated soil moisture contents obtained from ENVISAT ASAR measurements and 4) soil surface temperature measurements using MODIS 8 day land surface temperature measurements. This up-scaling procedure gave NO fluxes which ranged from 1.8 g ha-1 month-1 in the winter months (June and July) to 323 g ha-1 month-1 in the summer months (January-March). Differences occurred between the vegetation patches where the highest NO fluxes occurred in the Perennial Grassland patches and the lowest in the Pan patches. Over the course of the year the mean up-scaled NO emission for the studied region was 0.54 kg ha-1 a-1 and accounts for a loss of approximately 7.4% of the estimated N input to the region. The third study occurred in the hyper-arid Namib Desert in Namibia. Soils were sampled from three ecosystems; Dunes, Gravel Plains and the Riparian zone of the Kuiseb River. The net potential NO flux measured in the laboratory was used to estimate the NO flux for the Namib Desert for 2006 using modelled soil moisture and temperature data from the European Centre for Medium Range Weather Forecasts (ECMWF) operational model on a 36km x 35km spatial resolution. The maximum net potential NO production occurred at low soil moisture contents (<10%WFPS) and the optimal temperature was 25°C in the Dune and Riparian ecosystems and 35°C in the Gravel Plain Ecosystems. The maximum net potential NO fluxes ranged from 3.0 ng m-2 s-1 in the Riparian ecosystem to 6.2 ng m-2 s-1 in the Gravel Plains ecosystem. Up-scaling the net potential NO flux gave NO fluxes of up to 0.062 kg ha-1 a-1 in the Dune ecosystem and 0.544 kg h-1 a-1 in the Gravel Plain ecosystem. From these studies it is shown that NO is emitted ubiquitously from terrestrial ecosystems, as such the NO emission potential from deserts and scrublands should be taken into account in the global NO models. The emission of NO is influenced by various factors such as landscape, vegetation and climate. This study looks at the potential emissions from certain arid and semi-arid environments in southern Africa and other parts of the world and discusses some of the important factors controlling the emission of NO from the soil.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Un sistema di distribuzione idropotabile (Water Distribution Network -WDN), data la sua complessità strutturale e funzionale, per l' ordinario esercizio richiede elevati quantitativi di energia. L'attuale trend tecnico/scientifico incoraggia la loro gestione e progettazione nell'ottica di un generale risparmio di energia che, oltre ad un indiscusso vantaggio economico, implica sopratutto una razionalizzazione dell'impiego di risorsa idrica. Questo è il contesto scientifico/culturale in cui il presente elaborato si colloca. Nello specifico, ci si propone la caratterizzazione energetica di la rete di distribuzione idrica Cabrera_network.(rivisitazione della rete presentata da E.Cabrera e M.Pardo nel loro studio del 2010) . Si sono quindi qualificati i legami tra i consumi energetici ed aspetti, quali: dimensionamento dei condotti, perdite idriche, tipologia di pompa centrifuga sfruttata e livello idrico massimo del serbatoio di compenso. Ciò è stato esplicato in due fasi di analisi. In una primo momento, si sono impiegati strumenti classi quali il simulatore idraulico Epanet2 e i fogli di calcolo Excel. In un secondo momento, il problema dell'ottimizzazione energetica della rete è stato risolto a mezzo l'algoritmo euristico GHEST. Al di là delle specifiche conclusioni, cui si rinvia, l'elaborato consente di cogliere un più generale profilo di ordine metodologico: l'importanza di una visione d'insieme del problema energetico in un sistema di distribuzione idropotabile, dalla quale, nel caso di specie, emerge che la scelta più ragionevole, al fine dell'ottimizzazione energetica, consiste nell'individuazione del più idoneo modello di pompa alimentante la rete. Per poi, data l'onere progettuale e applicativo che comporta, provvedere al reinvestimento dei capitali risparmiati in attività volte alla riduzione delle perdite idriche. Sono questi infatti, i due aspetti che più incidono sui consumi energetici nel caso di studio.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L'obiettivo del presente lavoro è quello di modellare diversi tipi di sospensioni semi attive del sedile di una trattrice agricola ed implementare diverse strategie di controllo di smorzamento e rigidezza al fine di minimizzare la propagazione delle vibrazioni al corpo dell'operatore.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Studio, progettazione e realizzazione di un regolatore di carica per batterie al piombo gel, con algoritmo mppt, per applicazioni fotovoltaiche in isola

Relevância:

20.00% 20.00%

Publicador:

Resumo:

1.Ricostruzione mandibolare La ricostruzione mandibolare è comunemente eseguita utilizzando un lembo libero perone. Il metodo convenzionale (indiretto) di Computer Aided Design e Computer Aided Manifacturing prevede il modellamento manuale preoperatorio di una placca di osteosintesi standard su un modello stereolitografico della mandibola. Un metodo innovativo CAD CAM diretto comprende 3 fasi: 1) pianificazione virtuale 2) computer aided design della dima di taglio mandibolari, della dima di taglio del perone e della placca di osteosintesi e 3) Computer Aided Manufacturing dei 3 dispositivi chirurgici personalizzati. 7 ricostruzioni mandibolari sono state effettuate con il metodo diretto. I risultati raggiunti e le modalità di pianificazione sono descritte e discusse. La progettazione assistita da computer e la tecnica di fabbricazione assistita da computer facilita un'accurata ricostruzione mandibolare ed apporta un miglioramento statisticamente significativo rispetto al metodo convenzionale. 2. Cavità orale e orofaringe Un metodo ricostruttivo standard per la cavità orale e l'orofaringe viene descritto. 163 pazienti affetti da cancro della cavità orale e dell'orofaringe, sono stati trattati dal 1992 al 2012 eseguendo un totale di 175 lembi liberi. La strategia chirurgica è descritta in termini di scelta del lembo, modellamento ed insetting. I modelli bidimensionali sono utilizzati per pianificare una ricostruzione tridimensionale con il miglior risultato funzionale ed estetico. I modelli, la scelta del lembo e l' insetting sono descritti per ogni regione. Complicazioni e risultati funzionali sono stati valutati sistematicamente. I risultati hanno mostrato un buon recupero funzionale con le tecniche ricostruttive descritte. Viene proposto un algoritmo ricostruttivo basato su template standard.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ultrasound imaging is widely used in medical diagnostics as it is the fastest, least invasive, and least expensive imaging modality. However, ultrasound images are intrinsically difficult to be interpreted. In this scenario, Computer Aided Detection (CAD) systems can be used to support physicians during diagnosis providing them a second opinion. This thesis discusses efficient ultrasound processing techniques for computer aided medical diagnostics, focusing on two major topics: (i) Ultrasound Tissue Characterization (UTC), aimed at characterizing and differentiating between healthy and diseased tissue; (ii) Ultrasound Image Segmentation (UIS), aimed at detecting the boundaries of anatomical structures to automatically measure organ dimensions and compute clinically relevant functional indices. Research on UTC produced a CAD tool for Prostate Cancer detection to improve the biopsy protocol. In particular, this thesis contributes with: (i) the development of a robust classification system; (ii) the exploitation of parallel computing on GPU for real-time performance; (iii) the introduction of both an innovative Semi-Supervised Learning algorithm and a novel supervised/semi-supervised learning scheme for CAD system training that improve system performance reducing data collection effort and avoiding collected data wasting. The tool provides physicians a risk map highlighting suspect tissue areas, allowing them to perform a lesion-directed biopsy. Clinical validation demonstrated the system validity as a diagnostic support tool and its effectiveness at reducing the number of biopsy cores requested for an accurate diagnosis. For UIS the research developed a heart disease diagnostic tool based on Real-Time 3D Echocardiography. Thesis contributions to this application are: (i) the development of an automated GPU based level-set segmentation framework for 3D images; (ii) the application of this framework to the myocardium segmentation. Experimental results showed the high efficiency and flexibility of the proposed framework. Its effectiveness as a tool for quantitative analysis of 3D cardiac morphology and function was demonstrated through clinical validation.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

E' stato sviluppato un algoritmo predittivo del rischio di consolidazione ossea (ARRCO – Algoritmo Rischio Ritardo Consolidazione Ossea - IGEA, Carpi, Italy) che combina diversi fattori correlati al rischio di ritardata o mancata guarigione di una frattura. Questo algoritmo ha permesso di idntificare una popolazione di pazienti affetti da fratture con aumentato rischio di ritardo di consolidazione o mancata guarigione. Questi pazienti sono stati sottoposti precocemente a stimolazione biofisica precoce mediante Campi Elettromagnetici Pulsati a bassa frequenza (CEMP), ottenendo la guarigione della frattura nella maggior parte dei casi e in tempi considerati fisiologici. Pertanto in un gruppo selezionato di pazienti, il trattamento può essere indirizzato all'applicazione precoce di CEMP, al fine di promuovere la consolidazione ossea di una frattura "a richio", il cui trattamento richiederebbe altrimenti tempi più prolungati e un costo virtuale maggiore dell'intero trattamento sanitario.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Implementazione mediante librerie MPI di un algoritmo genetico parallelo per risolvere il problema sulla k-colorabilità. La tesi descrive la versione sequenziale dell'algoritmo genetico di riferimento e l'implementazione della sua versione parallela. Vi è una fase di analisi dei risultati ottenuti dai test effettuati su una macchina ad architettura parallela.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il successo di XML ha rinnovato l'interesse per il controllo delle modifiche sugli alberi e i dati semi-strutturati. Le necessità principali sono gestire le revisioni dei documenti, interrogare e monitorare i cambiamenti e scambiare efficientemente i documenti e i loro aggiornamenti. I cambiamenti che si verificano tra due versioni di un documento sono sconosciuti al sistema. Quindi, un algoritmo di diffing viene utilizzato per costruire un delta che rappresenta i cambiamenti. Sono stati proposti vari algoritmi di diffing. Alcuni considerano la struttura ad albero dei documenti XML, mentre altri non lo fanno. Inoltre, alcuni algoritmi possono trovare una sequenza più "sintetica" delle modifiche. Questo migliora la qualità del monitoraggio e l'interrogazione delle modifiche. Esistono altri approcci sviluppati per monitorare i cambiamenti sui documenti XML, differenti dagli algoritmi di diffing, ma che comunque ottengono risultati quasi identici ed offrono un'interrogazione delle modifiche più agevole per gli utenti umani. Esistono infatti programmi di editing con strumenti di change tracking, che permettono a più autori di modificare diverse versioni dei documenti contemporaneamente e registrando in tempo reale tutti i cambiamenti da loro apportati. In questo lavoro studio i diversi strumenti e confronto i loro risultati sulla base di esperimenti condotti su documenti XML opportunamente modificati per riconoscere determinati cambiamenti. Ci sono anche diverse proposte di formati del delta per rappresentare i cambiamenti in XML, ma non vi è ancora alcuno standard. Espongo le principali proposte in base alle loro specifiche, le loro implementazioni e sui risultati degli esperimenti condotti. L'obiettivo è di fornire una valutazione della qualità degli strumenti e, sulla base di questo, guidare gli utenti nella scelta della soluzione appropriata per le loro applicazioni.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La sonnolenza durante la guida è un problema di notevole entità e rappresenta la causa di numerosi incidenti stradali. Rilevare i segnali che precedono la sonnolenza è molto importante in quanto, é possibile mettere in guardia i conducenti dei mezzi adottando misure correttive e prevenendo gli incidenti. Attualmente non esiste una metodica efficace in grado di misurare la sonnolenza in maniera affidabile, e che risulti di facile applicazione. La si potrebbe riconoscere da mutazioni di tipo comportamentale del soggetto come: presenza di sbadigli, chiusura degli occhi o movimenti di caduta della testa. I soggetti in stato di sonnolenza presentano dei deficit nelle loro capacità cognitive e psicomotorie. Lo stesso vale per i conducenti i quali, quando sono mentalmente affaticati non sono in grado di mantenere un elevato livello di attenzione. I tempi di reazione si allungano e la capacità decisionale si riduce. Ciò è associato a cambiamenti delle attività delta, theta e alfa di un tracciato EEG. Tramite lo studio dei segnali EEG è possibile ricavare informazioni utili sullo stato di veglia e sull'insorgenza del sonno. Come strumento di classificazione per elaborare e interpretare tali segnali, in questo studio di tesi sono state utilizzate le support vector machines(SVM). Le SVM rappresentano un insieme di metodi di apprendimento che permettono la classicazione di determinati pattern. Necessitano di un set di dati di training per creare un modello che viene testato su un diverso insieme di dati per valutarne le prestazioni. L'obiettivo è quello di classicare in modo corretto i dati di input. Una caratteristica delle SVM è una buona capacità di generalizzare indipendentemente dalla dimensione dello spazio di input. Questo le rende particolarmente adatte per l'analisi di dati biomedici come le registrazioni EEG multicanale caratterizzate da una certa ridondanza intrinseca dei dati. Nonostante sia abbastanza semplice distinguere lo stato di veglia dallo stato di sonno, i criteri per valutarne la transizione non sono ancora stati standardizzati. Sicuramente l'attività elettro-oculografica (EOG) riesce a dare informazioni utili riguardo l'insorgenza del sonno, in quanto essa è caratterizzata dalla presenza di movimenti oculari lenti rotatori (Slow Eye Movements, SEM) tipici della transizione dalla veglia alla sonno. L'attività SEM inizia prima dello stadio 1 del sonno, continua lungo tutta la durata dello stesso stadio 1, declinando progressivamente nei primi minuti dello stadio 2 del sonno fino a completa cessazione. In questo studio, per analizzare l'insorgere della sonnolenza nei conducenti di mezzi, sono state utilizzate registrazioni provenienti da un solo canale EEG e da due canali EOG. Utilizzare un solo canale EEG impedisce una definizione affidabile dell'ipnogramma da parte dei clinici. Quindi l'obiettivo che ci si propone, in primo luogo, è quello di realizzare un classificatore del sonno abbastanza affidabile, a partire da un solo canale EEG, al fine di verificare come si dispongono i SEM a cavallo dell'addormentamento. Quello che ci si aspetta è che effettivamente l'insorgere della sonnolenza sia caratterizzata da una massiccia presenza di SEM.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The physico-chemical characterization, structure-pharmacokinetic and metabolism studies of new semi synthetic analogues of natural bile acids (BAs) drug candidates have been performed. Recent studies discovered a role of BAs as agonists of FXR and TGR5 receptor, thus opening new therapeutic target for the treatment of liver diseases or metabolic disorders. Up to twenty new semisynthetic analogues have been synthesized and studied in order to find promising novel drugs candidates. In order to define the BAs structure-activity relationship, their main physico-chemical properties (solubility, detergency, lipophilicity and affinity with serum albumin) have been measured with validated analytical methodologies. Their metabolism and biodistribution has been studied in “bile fistula rat”, model where each BA is acutely administered through duodenal and femoral infusion and bile collected at different time interval allowing to define the relationship between structure and intestinal absorption and hepatic uptake ,metabolism and systemic spill-over. One of the studied analogues, 6α-ethyl-3α7α-dihydroxy-5β-cholanic acid, analogue of CDCA (INT 747, Obeticholic Acid (OCA)), recently under approval for the treatment of cholestatic liver diseases, requires additional studies to ensure its safety and lack of toxicity when administered to patients with a strong liver impairment. For this purpose, CCl4 inhalation to rat causing hepatic decompensation (cirrhosis) animal model has been developed and used to define the difference of OCA biodistribution in respect to control animals trying to define whether peripheral tissues might be also exposed as a result of toxic plasma levels of OCA, evaluating also the endogenous BAs biodistribution. An accurate and sensitive HPLC-ES-MS/MS method is developed to identify and quantify all BAs in biological matrices (bile, plasma, urine, liver, kidney, intestinal content and tissue) for which a sample pretreatment have been optimized.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Descrizione dell'algoritmo crittografico AES, criteri adottati dal NIST per la scelta di AES e considerazioni sulla sua sicurezza.