872 resultados para Optimisation granulaire


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tutkimuksessa on selvitetty erikoiskalustevalmistuksen projektinhallinnan suunnittelun toteutusta, tukiprosesseja sekä projektien seurantaa. Tutkimuksessa verrataan teoreettista projektinhallintaa ja käytännön toteutusta erikoiskalusteita valmistavassa yrityksessä. Osa-alueina ovat projektisuunnitelma, suunnitelman seuranta, asiakastyytyväisyys ja laatu sekä työprosessin vaihtelut ja riskit. Tutkimusaineisto on koottu kyselyin, seurannalla ja haastatteluin kohdeyrityksessä. Tutkimuksessa on käytetty tilastollisia ja analyyttisen hierarkian (AHP) sekä monitavoiteoptimoinnin menetelmiä. Tuloksissa esitetään työprojektin hallinnan eri osa-alueet mukaan lukien projektin laatu sekä työprosessin vaihtelun ja riskien kannattavat hallintamahdollisuudet. Suosituksena kalustevalmistuksen työprojektien kehittämiseksi tutkimuksessa esitetään toimintaperiaatteet projektinhallintaohjelmistojen käyttöönotolle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tässä työssä tutkitaan ohjelmistoarkkitehtuurisuunnitteluominaisuuksien vaikutusta erään client-server –arkkitehtuuriin perustuvan mobiilipalvelusovelluksen suunnittelu- ja toteutusaikaan. Kyseinen tutkimus perustuu reaalielämän projektiin, jonka kvalitatiivinen analyysi paljasti arkkitehtuurikompponenttien välisten kytkentöjen merkittävästi vaikuttavan projektin työmäärään. Työn päätavoite oli kvantitatiivisesti tutkia yllä mainitun havainnon oikeellisuus. Tavoitteen saavuttamiseksi suunniteltiin ohjelmistoarkkitehtuurisuunnittelun mittaristo kuvaamaan kyseisen järjestelmän alijärjestelmien arkkitehtuuria ja luotiin kaksi suunniteltua mittaristoa käyttävää, työmäärää (komponentin suunnittelu-, toteutus- ja testausaikojen summa) arvioivaa mallia, joista toinen on lineaarinen ja toinen epälineaarinen. Näiden mallien kertoimet sovitettiin optimoimalla niiden arvot epälineaarista gloobaalioptimointimenetelmää, differentiaalievoluutioalgoritmia, käyttäen, niin että mallien antamat arvot vastasivat parhaiten mitattua työmäärää sekä kaikilla ominaisuuksilla eli attribuuteilla että vain osalla niistä (yksi jätettiin vuorotellen pois). Kun arkkitehtuurikompenttien väliset kytkennät jätettiin malleista pois, mitattujen ja arvoitujen työmäärien välinen ero (ilmaistuna virheenä) kasvoi eräässä tapauksessa 367 % entisestä tarkoittaen sitä, että näin muodostettu malli vastasi toteutusaikoja huonosti annetulla ainestolla. Tämä oli suurin havaitu virhe kaikkien poisjätettyjen ominaisuuksien kesken. Saadun tuloksen perusteella päätettiin, että kyseisen järjestelmän toteutusajat ovat vahvasti riippuvaisia kytkentöjen määrästä, ja näin ollen kytkentöjen määrä oli mitä todennäköisemmin kaikista tärkein työmäärään vaikuttava tekijä tutkitun järjestelmän arkkitehtuurisuunnittelussa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The main subject of this master's thesis was predicting diffusion of innovations. The prediction was done in a special case: product has been available in some countries, and based on its diffusion in those countries the prediction is done for other countries. The prediction was based on finding similar countries with Self-Organizing Map~(SOM), using parameters of countries. Parameters included various economical and social key figures. SOM was optimised for different products using two different methods: (a) by adding diffusion information of products to the country parameters, and (b) by weighting the country parameters based on their importance for the diffusion of different products. A novel method using Differential Evolution (DE) was developed to solve the latter, highly non-linear optimisation problem. Results were fairly good. The prediction method seems to be on a solid theoretical foundation. The results based on country data were good. Instead, optimisation for different products did not generally offer clear benefit, but in some cases the improvement was clearly noticeable. The weights found for the parameters of the countries with the developed SOM optimisation method were interesting, and most of them could be explained by properties of the products.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La spectroscopie infrarouge (FTIR) est une technique de choix dans l'analyse des peintures en spray (traces ou bonbonnes de référence), grâce à son fort pouvoir discriminant, sa sensibilité, et ses nombreuses possibilités d'échantillonnage. La comparaison des spectres obtenus est aujourd'hui principalement faite visuellement, mais cette procédure présente des limitations telles que la subjectivité de la prise de décision car celle-ci dépend de l'expérience et de la formation suivie par l'expert. De ce fait, de faibles différences d'intensités relatives entre deux pics peuvent être perçues différemment par des experts, même au sein d'un même laboratoire. Lorsqu'il s'agit de justifier ces différences, certains les expliqueront par la méthode analytique utilisée, alors que d'autres estimeront plutôt qu'il s'agit d'une variabilité intrinsèque à la peinture et/ou à son vécu (par exemple homogénéité, sprayage, ou dégradation). Ce travail propose d'étudier statistiquement les différentes sources de variabilité observables dans les spectres infrarouges, de les identifier, de les comprendre et tenter de les minimiser. Le deuxième objectif principal est de proposer une procédure de comparaison des spectres qui soit davantage transparente et permette d'obtenir des réponses reproductibles indépendamment des experts interrogés. La première partie du travail traite de l'optimisation de la mesure infrarouge et des principaux paramètres analytiques. Les conditions nécessaires afin d'obtenir des spectres reproductibles et minimisant la variation au sein d'un même échantillon (intra-variabilité) sont présentées. Par la suite une procédure de correction des spectres est proposée au moyen de prétraitements et de sélections de variables, afin de minimiser les erreurs systématiques et aléatoires restantes, et de maximiser l'information chimique pertinente. La seconde partie présente une étude de marché effectuée sur 74 bonbonnes de peintures en spray représentatives du marché suisse. Les capacités de discrimination de la méthode FTIR au niveau de la marque et du modèle sont évaluées au moyen d'une procédure visuelle, et comparées à diverses procédures statistiques. Les limites inférieures de discrimination sont testées sur des peintures de marques et modèles identiques mais provenant de différents lots de production. Les résultats ont montré que la composition en pigments était particulièrement discriminante, à cause des étapes de corrections et d'ajustement de la couleur subies lors de la production. Les particularités associées aux peintures en spray présentes sous forme de traces (graffitis, gouttelettes) ont également été testées. Trois éléments sont mis en évidence et leur influence sur le spectre infrarouge résultant testée : 1) le temps minimum de secouage nécessaire afin d'obtenir une homogénéité suffisante de la peinture et, en conséquence, de la surface peinte, 2) la dégradation initiée par le rayonnement ultra- violet en extérieur, et 3) la contamination provenant du support lors du prélèvement. Finalement une étude de population a été réalisée sur 35 graffitis de la région lausannoise et les résultats comparés à l'étude de marché des bonbonnes en spray. La dernière partie de ce travail s'est concentrée sur l'étape de prise de décision lors de la comparaison de spectres deux-à-deux, en essayant premièrement de comprendre la pratique actuelle au sein des laboratoires au moyen d'un questionnaire, puis de proposer une méthode statistique de comparaison permettant d'améliorer l'objectivité et la transparence lors de la prise de décision. Une méthode de comparaison basée sur la corrélation entre les spectres est proposée, et ensuite combinée à une évaluation Bayesienne de l'élément de preuve au niveau de la source et au niveau de l'activité. Finalement des exemples pratiques sont présentés et la méthodologie est discutée afin de définir le rôle précis de l'expert et des statistiques dans la procédure globale d'analyse des peintures. -- Infrared spectroscopy (FTIR) is a technique of choice for analyzing spray paint speciments (i.e. traces) and reference samples (i.e. cans seized from suspects) due to its high discriminating power, sensitivity and sampling possibilities. The comparison of the spectra is currently carried out visually, but this procedure has limitations such as the subjectivity in the decision due to its dependency on the experience and training of the expert. This implies that small differences in the relative intensity of two peaks can be perceived differently by experts, even between analysts working in the same laboratory. When it comes to justifying these differences, some will explain them by the analytical technique, while others will estimate that the observed differences are mostly due to an intrinsic variability from the paint sample and/or its acquired characteristics (for example homogeneity, spraying, or degradation). This work proposes to statistically study the different sources of variability observed in infrared spectra, to identify them, understand them and try to minimize them. The second goal is to propose a procedure for spectra comparison that is more transparent, and allows obtaining reproducible answers being independent from the expert. The first part of the manuscript focuses on the optimization of infrared measurement and on the main analytical parameters. The necessary conditions to obtain reproducible spectra with a minimized variation within a sample (intra-variability) are presented. Following that a procedure of spectral correction is then proposed using pretreatments and variable selection methods, in order to minimize systematic and random errors, and increase simultaneously relevant chemical information. The second part presents a market study of 74 spray paints representative of the Swiss market. The discrimination capabilities of FTIR at the brand and model level are evaluated by means of visual and statistical procedures. The inferior limits of discrimination are tested on paints coming from the same brand and model, but from different production batches. The results showed that the pigment composition was particularly discriminatory, because of the corrections and adjustments made to the paint color during its manufacturing process. The features associated with spray paint traces (graffitis, droplets) were also tested. Three elements were identified and their influence on the resulting infrared spectra were tested: 1) the minimum shaking time necessary to obtain a sufficient homogeneity of the paint and subsequently of the painted surface, 2) the degradation initiated by ultraviolet radiation in an exterior environment, and 3) the contamination from the support when paint is recovered. Finally a population study was performed on 35 graffitis coming from the city of Lausanne and surroundings areas, and the results were compared to the previous market study of spray cans. The last part concentrated on the decision process during the pairwise comparison of spectra. First, an understanding of the actual practice among laboratories was initiated by submitting a questionnaire. Then, a proposition for a statistical method of comparison was advanced to improve the objectivity and transparency during the decision process. A method of comparison based on the correlation between spectra is proposed, followed by the integration into a Bayesian framework at both source and activity levels. Finally, some case examples are presented and the recommended methodology is discussed in order to define the role of the expert as well as the contribution of the tested statistical approach within a global analytical sequence for paint examinations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tämän diplomityön tavoitteena on case-esimerkin kautta tutkia, kuinka hyvin vähittäiskaupan logistiikkavarastossa pystytään sovittamaan yhteen työn kysyntä ja tarjonta ja mikä on vuokratyövoiman rooli tässä yhtälössä. Diplomityössä käsitellään logistiikkavaraston työmäärän ennustettavuutta, työvoiman joustavuutta, lasketaan vertailukelpoiset kustannukset eri henkilöstöryhmille sekä esitetään ehdotuksia kokonaiskustannusten optimoimiseksi. Diplomityössä käy ilmi, että tutkittavassa yrityksessä henkilöstöresurssien käyttö ei ole aivan optimaalinen, vaan että tehdyistä työtunneista jopa 21% on ylimääräisiä, mikä aiheuttaa vuosittain 1,0 miljoonan euron kustannushukan. Tämä johtuu sekä työmäärän epätasaisesta jakautumisesta kuukausien kesken, että työvoimatarpeen heikosta suunnittelusta. Työmäärän vaikeasta ennustettavuudesta johtuen turhia työtunteja ei ole mahdollista kokonaan poistaa, mutta hyvällä etukäteissuunnittelulla henkilöstökustannuksia pystytään laskemaan noin 13%. Henkilöstöryhmistä tehtyjen vertailulaskelmien perusteella ylitöiden teettäminen vakituisella henkilökunnalla osoittautuu kannattamattomaksi. Määräaikaisen henkilöstön käyttäminen on kustannuksiltaan edullista, mutta mahdollista vain, jos työvoiman tarve on tilapäinen ja tiedossa hyvissä ajoin etukäteen. Vuokratyövoima on tuntikustannukseltaan kalliimpaa, mutta sen nopea saatavuus mahdollistaa työvoiman entistä paremman sopeuttamisen työn kysynnän mukaan. Kun vuokratyövoimaa on saatavilla, ei varastolla tarvitse pitää ylimääräistä työvoimaa nopeiden työmäärän muutosten varalta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This master’s thesis aims to study and represent from literature how evolutionary algorithms are used to solve different search and optimisation problems in the area of software engineering. Evolutionary algorithms are methods, which imitate the natural evolution process. An artificial evolution process evaluates fitness of each individual, which are solution candidates. The next population of candidate solutions is formed by using the good properties of the current population by applying different mutation and crossover operations. Different kinds of evolutionary algorithm applications related to software engineering were searched in the literature. Applications were classified and represented. Also the necessary basics about evolutionary algorithms were presented. It was concluded, that majority of evolutionary algorithm applications related to software engineering were about software design or testing. For example, there were applications about classifying software production data, project scheduling, static task scheduling related to parallel computing, allocating modules to subsystems, N-version programming, test data generation and generating an integration test order. Many applications were experimental testing rather than ready for real production use. There were also some Computer Aided Software Engineering tools based on evolutionary algorithms.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Pysyäkseen kilpailukykyisenä vapautuneilla sähkömarkkinoilla on voimalaitoksen energiantuotantokustannusten oltava mahdollisimman matalia, tinkimättä kuitenkaan korkeasta käytettävyydestä. Polttoaineen energiasisällön mahdollisimman hyvä hyödyntäminen on ratkaisevan tärkeää voimalaitoksen kannattavuudelle. Polttoainekustannusten osuus on konvektiivisilla laitoksilla yleensä yli puolet koko elinjakson kustannuksista. Kun vielä päästörajat tiukkenevat koko ajan, korostuu polttoaineen korkea hyötykäyttö entisestään. Korkea energiantuotannon luotettavuus ja käytettävyys ovat myös elintärkeitä pyrittäessä kustannusten minimointiin. Tässä työssä on käyty läpi voimalaitoksen kustannuksiin vaikuttavia käsitteitä, kuten hyötysuhdetta, käytettävyyttä, polttoaineen hintoja, ylös- ja alasajoja ja tärkeimpiä häviöitä. Ajostrategiassa ja poikkeamien hallinnassa pyritään hyvään hyötysuhteeseen ja alhaisiin päästöihin joka käyttötilanteessa. Lisäksi on tarkasteltu tiettyjen suureiden, eli höyryn lämpötilan ja paineen, savukaasun hapen pitoisuuden, savukaasun loppulämpötilan, sekä lauhduttimen paineen poikkeamien vaikutusta ohjearvostaan energiantuotantokustannuksiin. Happi / hiilimonoksidi optimoinnissa on otettu huomioon myös pohjatuhkan palamattomat.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse comprend trois essais qui abordent l'information le processus d'ap-prentissage ainsi que le risque dans les marchés finances. Elle se concentre d'abord sur les implications à l'équilibre de l'hétérogénéité des agents à travers un processus d'apprentissage comprtemental et de mise à jour de l'information. De plus, elle examine les effets du partage des risques dans un reseau entreprise-fournisseur. Le premier chapitre étudie les effets du biais de disponibili sur l'évaluation des actifs. Ce biais décrit le fait que les agents surestiment l'importance de l'information acquise via l'expérience personnelle. L'hétérogénéité restante des différentes perceptions individuelles amène à une volonté d'échanges. Conformé¬ment aux données empiriques, les jeunes agents échangent plus mais en même temps souffrent d'une performance inférieure. Le deuxième chapitre se penche sur l'impact qu'ont les différences de modelisation entre les agents sur leurs percevons individuelles du processus de prix, dans le contexte des projections de modèles. Les agents sujets à un biais de projection pensent être représentatifs et interprètent les opinions des autres agents comme du bruit. Les agents, avec des modèles plus persistants, perçoivent que les prix réagissent de façon excessive lors des périodes de turbulence. Le troisième chapitre analyse l'impact du partage des risques dans la relation entreprise-fournisseur sur la décision optimale de financement de l'entreprise. Il étudie l'impact sur l'optimisation de la structure du capital ainsi que sur le coût du capital. Les résultats indiquent en particulier qu'un fournisseur avec un effet de levier faible est utile pour le financement d'un nouveau projet d'investissement. Pour des projets très rentables et des fournisseurs à faible effet de levier, le coût des capitaux propres de l'entreprise peut diminuer.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diplomityö on tehty Instrumentarium Oyj:hin kuuluvan Datex-Ohmedan Helsingin tehtaalla. Työn tavoitteena on ollut Helsingin tehtaan tuotantoprosessin ja sen mitoitussääntöjen kehittäminen. Työ on ollut osa sekä yrityksen toimituskyvyn kehittämisprojektia

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diplomityössä käsitellään Nokia Mobile Phonesin matkapuhelimien käyttöliittymäohjelmistojen suunnittelu-ja testausympäristön kehitystä. Ympäristöön lisättiin kaksi ohjelmistomodulia avustamaan simulointia ja versionhallintaa. Visualisointityökalulla matkapuhelimen toiminta voidaan jäljittää suunnittelu- kaavioihin tilasiirtyminä, kun taas vertailusovelluksella kaavioiden väliset erot nähdään graafisesti. Kehitetyt sovellukset parantavat käyttöliittymien suunnitteluprosessia tehostaen virheiden etsintää, optimointia ja versionhallintaa. Visualisointityökalun edut ovat merkittävät, koska käyttöliittymäsovellusten toiminta on havaittavissa suunnittelu- kaavioista reaaliaikaisen simuloinnin yhteydessä. Näin virheet ovat välittömästi paikannettavissa. Lisäksi työkalua voidaan hyödyntää kaavioita optimoitaessa, jolloin sovellusten kokoja muistintarve pienenee. Graafinen vertailutyökalu tuo edun rinnakkaiseen ohjelmistosuunnitteluun. Eri versioisten suunnittelukaavioiden erot ovat nähtävissä suoraan kaaviosta manuaalisen vertailun sijaan. Molemmat työkalut otettiin onnistuneesti käyttöön NMP:llä vuoden 2001 alussa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le nombre d'examens tomodensitométriques (Computed Tomography, CT) effectués chaque année étant en constante augmentation, différentes techniques d'optimisation, dont les algorithmes de reconstruction itérative permettant de réduire le bruit tout en maintenant la résolution spatiale, ont étés développées afin de réduire les doses délivrées. Le but de cette étude était d'évaluer l'impact des algorithmes de reconstruction itérative sur la qualité image à des doses effectives inférieures à 0.3 mSv, comparables à celle d'une radiographie thoracique. Vingt CT thoraciques effectués à cette dose effective ont été reconstruits en variant trois paramètres: l'algorithme de reconstruction, rétroprojection filtrée versus reconstruction itérative iDose4; la matrice, 5122 versus 7682; et le filtre de résolution en densité (mou) versus spatiale (dur). Ainsi, 8 séries ont été reconstruites pour chacun des 20 CT thoraciques. La qualité d'image de ces 8 séries a d'abord été évaluée qualitativement par deux radiologues expérimentés en aveugle en se basant sur la netteté des parois bronchiques et de l'interface entre le parenchyme pulmonaire et les vaisseaux, puis quantitativement en utilisant une formule de merit, fréquemment utilisée dans le développement de nouveaux algorithmes et filtres de reconstruction. La performance diagnostique de la meilleure série acquise à une dose effective inférieure à 0.3 mSv a été comparée à celle d'un CT de référence effectué à doses standards en relevant les anomalies du parenchyme pulmonaire. Les résultats montrent que la meilleure qualité d'image, tant qualitativement que quantitativement a été obtenue en utilisant iDose4, la matrice 5122 et le filtre mou, avec une concordance parfaite entre les classements quantitatif et qualitatif des 8 séries. D'autre part, la détection des nodules pulmonaires de plus de 4mm étaient similaire sur la meilleure série acquise à une dose effective inférieure à 0.3 mSv et le CT de référence. En conclusion, les CT thoraciques effectués à une dose effective inférieure à 0.3 mSv reconstruits avec iDose4, la matrice 5122 et le filtre mou peuvent être utilisés avec confiance pour diagnostiquer les nodules pulmonaires de plus de 4mm.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'état de mal épileptique (EME) est la plus fréquente urgence neurologique après les accidents vasculaires cérébraux, avec des hauts taux de morbidité et mortalité (Coeytaux et al., 2000). Son traitement est basé sur une approche en trois étapes (Meiekord et al., 2010). Dans ce contexte, un EME ne répondant pas aux benzodiazépines (1er ligne de traitement) suivi par des médicaments antiépileptiques (2ème ligne de traitement) est appelé EME réfractaire. Pour cette condition, représentant entre le 23% et le 43% des EME (Novy et al., 201O; Holtkamp et al., 2005), les actuelles recommandations préconisent un traitement par coma pharmacologique (3ème ligne de traitement), malgré un faible niveau d'évidence (Rossetti et al., 2011). En effet, l'impact du coma pharmacologique sur l'issue clinique n'a pas encore été clairement établi. Récemment, deux études américaines (Kowalski et al., 2012; Hocker et al., 2013) et une étude suisse (Sutter et al., 2014), ont montré un effet potentiellement délétère de ce type de traitement. Cependant, ces études étaient limitées à des patients hospitalisés aux soins intensifs et les analyses n'étaient pas ajustées pour tous les facteurs pronostiques connus. Le but de notre travail, publié dans Critical Gare Medicine (Marchi et al., 2015), était d'évaluer l'impact spécifique du coma pharmacologique sur le pronostic des patients avec EME, sans limitations aux soins intensifs et avec un·ajustement plus attentif concernant les autres facteurs pronostiques. En utilisant notre registre prospectif des patients avec EME traités aux Centre Hospitalier Universitaire Vaudois, nous avons comparé l'issue clinique à la sortie de l'hôpital des patients traités avec ou sans coma pharmacologique (467 épisodes au total). Ensuite, nous avons utilisé une régression logistique multinomiale pour ajuster les résultats par les autres facteur pronostiques connus (âge, absence de crises épileptiques précédentes, étiologie potentiellement fatale, gravité clinique de l'EME, comorbidités). Nous · avons pu mettre ainsi en évidence que le traitement avec coma pharmacologique est associé avec une mauvaise issue clinique après un EME. De plus, nous avons pu po_ur la première fois montrer que cet effet est d'autant plus important chez les patients avec un EME de type partiel complexe au moment du traitement. Nos résultats suggèrent que l'utilisation du coma pharmacologique ne doit pas être indiscriminée dans l'EME réfractaire et qu'une évaluation de la situation clinique de base permet une optimisation son emploi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Evaluation of image quality (IQ) in Computed Tomography (CT) is important to ensure that diagnostic questions are correctly answered, whilst keeping radiation dose to the patient as low as is reasonably possible. The assessment of individual aspects of IQ is already a key component of routine quality control of medical x-ray devices. These values together with standard dose indicators can be used to give rise to 'figures of merit' (FOM) to characterise the dose efficiency of the CT scanners operating in certain modes. The demand for clinically relevant IQ characterisation has naturally increased with the development of CT technology (detectors efficiency, image reconstruction and processing), resulting in the adaptation and evolution of assessment methods. The purpose of this review is to present the spectrum of various methods that have been used to characterise image quality in CT: from objective measurements of physical parameters to clinically task-based approaches (i.e. model observer (MO) approach) including pure human observer approach. When combined together with a dose indicator, a generalised dose efficiency index can be explored in a framework of system and patient dose optimisation. We will focus on the IQ methodologies that are required for dealing with standard reconstruction, but also for iterative reconstruction algorithms. With this concept the previously used FOM will be presented with a proposal to update them in order to make them relevant and up to date with technological progress. The MO that objectively assesses IQ for clinically relevant tasks represents the most promising method in terms of radiologist sensitivity performance and therefore of most relevance in the clinical environment.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

STOPP/START est un outil d'optimisation de la prescription médicamenteuse chez les patients âgés. Mis à jour en 2015, cet article en présente une adaptation pratique pour la médecine générale, en français (www.louvainmedical.be, page d'accueil, rubrique didactique: accès libre), ainsi que les critères les plus fréquemment rencontrés chez des patients âgés fragiles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Fetal MRI reconstruction aims at finding a high-resolution image given a small set of low-resolution images. It is usually modeled as an inverse problem where the regularization term plays a central role in the reconstruction quality. Literature has considered several regularization terms s.a. Dirichlet/Laplacian energy [1], Total Variation (TV)based energies [2,3] and more recently non-local means [4]. Although TV energies are quite attractive because of their ability in edge preservation, standard explicit steepest gradient techniques have been applied to optimize fetal-based TV energies. The main contribution of this work lies in the introduction of a well-posed TV algorithm from the point of view of convex optimization. Specifically, our proposed TV optimization algorithm for fetal reconstruction is optimal w.r.t. the asymptotic and iterative convergence speeds O(1/n(2)) and O(1/root epsilon), while existing techniques are in O(1/n) and O(1/epsilon). We apply our algorithm to (1) clinical newborn data, considered as ground truth, and (2) clinical fetal acquisitions. Our algorithm compares favorably with the literature in terms of speed and accuracy.