884 resultados para Graph-Based Linear Programming Modelling
Resumo:
A sensitive preconcentration procedure for spectrophotometeric determination of aluminum was developed. Aluminum as aluminon complex is adsorbed on microcrystalline naphthalene. The naphthalene containing the complex is dissolved in 3 mL of acetone and its absorbance is measured at 544 nm. The effect of various factors on the preconcentration of aluminum was investigated. The calibration graph was linear in the range of 1-60 mg L-1. The limit of detection was 0.52 mg L-1 and relative standard deviation for the determination of 5 mg L-1 was 2.65%. The proposed solid phase extraction procedure was applied to determination of aluminum in food samples.
Resumo:
A method for the determination of trace amounts of palladium was developed using homogeneous liquid-liquid microextraction via flotation assistance (HLLME-FA) followed by graphite furnace atomic absorption spectrometry (GFAAS). Ammonium pyrrolidine dithiocarbamate (APDC) was used as a complexing agent. This was applied to determine palladium in three types of water samples. In this study, a special extraction cell was designed to facilitate collection of the low-density solvent extraction. No centrifugation was required in this procedure. The water sample solution was added to the extraction cell which contained an appropriate mixture of extraction and homogeneous solvents. By using air flotation, the organic solvent was collected at the conical part of the designed cell. Parameters affecting extraction efficiency were investigated and optimized. Under the optimum conditions, the calibration graph was linear in the range of 1.0-200 µg L-1 with a limit of detection of 0.3 µg L-1. The performance of the method was evaluated for the extraction and determination of palladium in water samples and satisfactory results were obtained. In order to verify the accuracy of the approach, the standard addition method was applied for the determination of palladium in spiked synthetic samples and satisfactory results were obtained.
Resumo:
An enzymatic spectrophotometric method for the determination of methyldopa in a dissolution test of tablets was developed using peroxidase from radish (Raphanus sativus). The enzyme was extracted from radish roots using a phosphate buffer of pH 6.5 and partially purified through centrifugation. The supernatant was used as a source of peroxidase. The methyldopachrome resulting from the oxidation of methyldopa catalyzed by peroxidase was monitored at 480 nm. The enzymatic activity was stable for a period of at least 25 days when the extract was stored at 4 or -20 ºC. The method was validated according to RDC 899 and ICH guidelines. The calibration graph was linear in the range 200-800 µg mL-1, with a correlation coefficient of 0.9992. The limits of detection and quantification in the dissolution medium were 36 and 120 µg mL-1, respectively. Recovery was greater than 98.9%. This method can be applied for the determination of methyldopa in dissolution tests of tablets without interference from the excipients.
Resumo:
Techniques of evaluation of risks coming from inherent uncertainties to the agricultural activity should accompany planning studies. The risk analysis should be carried out by risk simulation using techniques as the Monte Carlo method. This study was carried out to develop a computer program so-called P-RISCO for the application of risky simulations on linear programming models, to apply to a case study, as well to test the results comparatively to the @RISK program. In the risk analysis it was observed that the average of the output variable total net present value, U, was considerably lower than the maximum U value obtained from the linear programming model. It was also verified that the enterprise will be front to expressive risk of shortage of water in the month of April, what doesn't happen for the cropping pattern obtained by the minimization of the irrigation requirement in the months of April in the four years. The scenario analysis indicated that the sale price of the passion fruit crop exercises expressive influence on the financial performance of the enterprise. In the comparative analysis it was verified the equivalence of P-RISCO and @RISK programs in the execution of the risk simulation for the considered scenario.
Resumo:
The golden standard in nuclear medicine imaging of inflammation is the use of radiolabeled leukocytes. Although their diagnostic accuracy is good, the preparation of the leukocytes is both laborious and potentially hazardous for laboratory personnel. Molecules involved in leukocyte migration could serve as targets for the development of inflammation imaging agents. An excellent target would be a molecule that is absent or expressed at low level in normal tissues, but is induced or up-regulated at the site of inflammation. Vascular adhesion protein-1 (VAP-1) is a very promising target for in vivo imaging, since it is translocated to the endothelial cell surface when inflammation occurs. VAP-1 functions as an endothelial adhesion molecule that participates in leukocyte recruitment to inflamed tissues. Besides being an adhesion molecule, VAP-1 also has enzymatic activity. In this thesis, the targeting of VAP-1 was studied by using Gallium-68 (68Ga) labeled peptides and an Iodine-124 (124I) labeled antibody. The peptides were designed based on molecular modelling and phage display library searches. The new imaging agents were preclinically tested in vitro, as well as in vivo in animal models. The most promising imaging agent appeared to be a peptide belonging to the VAP-1 leukocyte ligand, Siglec-9 peptide. The 68Ga-labeled Siglec-9 peptide was able to detect VAP-1 positive vasculature in rodent models of sterile skin inflammation and melanoma by positron emission tomography. In addition to peptides, the 124I-labeled antibody showed VAP-1 specific binding both in vitro and in vivo. However, the estimated human radiation dose was rather high, and thus further preclinical studies in disease models are needed to clarify the value of this imaging agent. Detection of VAP-1 on endothelium was demonstrated in these studies and this imaging approach could be used in the diagnosis of inflammatory conditions as well as melanoma. These studies provide a proof-of-concept for PET imaging of VAP-1 and further studies are warranted.
Resumo:
En option är ett finansiellt kontrakt som ger dess innehavare en rättighet (men medför ingen skyldighet) att sälja eller köpa någonting (till exempel en aktie) till eller från säljaren av optionen till ett visst pris vid en bestämd tidpunkt i framtiden. Den som säljer optionen binder sig till att gå med på denna framtida transaktion ifall optionsinnehavaren längre fram bestämmer sig för att inlösa optionen. Säljaren av optionen åtar sig alltså en risk av att den framtida transaktion som optionsinnehavaren kan tvinga honom att göra visar sig vara ofördelaktig för honom. Frågan om hur säljaren kan skydda sig mot denna risk leder till intressanta optimeringsproblem, där målet är att hitta en optimal skyddsstrategi under vissa givna villkor. Sådana optimeringsproblem har studerats mycket inom finansiell matematik. Avhandlingen "The knapsack problem approach in solving partial hedging problems of options" inför en ytterligare synpunkt till denna diskussion: I en relativt enkel (ändlig och komplett) marknadsmodell kan nämligen vissa partiella skyddsproblem beskrivas som så kallade kappsäcksproblem. De sistnämnda är välkända inom en gren av matematik som heter operationsanalys. I avhandlingen visas hur skyddsproblem som tidigare lösts på andra sätt kan alternativt lösas med hjälp av metoder som utvecklats för kappsäcksproblem. Förfarandet tillämpas även på helt nya skyddsproblem i samband med så kallade amerikanska optioner.
Resumo:
Tämä kandidaatintyö on tarkoitettu suomenkieliseksi selvitykseksi lastuavissa työstöprosesseissa esiintyvien työstövärähtelyjen luonteesta, syntymekanismeista ja välttämismenetelmistä. Erityisesti työssä keskitytään matemaattiseen mallintamiseen pohjautuviin välttämismenetelmiin.
Resumo:
The Baltic Sea is a unique environment that contains unique genetic populations. In order to study these populations on a genetic level basic molecular research is needed. The aim of this thesis was to provide a basic genetic resource for population genomic studies by de novo assembling a transcriptome for the Baltic Sea isopod Idotea balthica. RNA was extracted from a whole single adult male isopod and sequenced using Illumina (125bp PE) RNA-Seq. The reads were preprocessed using FASTQC for quality control, TRIMMOMATIC for trimming, and RCORRECTOR for error correction. The preprocessed reads were then assembled with TRINITY, a de Bruijn graph-based assembler, using different k-mer sizes. The different assemblies were combined and clustered using CD-HIT. The assemblies were evaluated using TRANSRATE for quality and filtering, BUSCO for completeness, and TRANSDECODER for annotation potential. The 25-mer assembly was annotated using PANNZER (protein annotation with z-score) and BLASTX. The 25-mer assembly represents the best first draft assembly since it contains the most information. However, this assembly shows high levels of polymorphism, which currently cannot be differentiated as paralogs or allelic variants. Furthermore, this assembly is incomplete, which could be improved by sampling additional developmental stages.
Resumo:
Récemment, nous avons pu observer un intérêt grandissant pour l'application de l'analogie formelle à l'analyse morphologique. L'intérêt premier de ce concept repose sur ses parallèles avec le processus mental impliqué dans la création de nouveaux termes basée sur les relations morphologiques préexistantes de la langue. Toutefois, l'utilisation de ce concept reste tout de même marginale due notamment à son coût de calcul élevé.Dans ce document, nous présenterons le système à base de graphe Moranapho fondé sur l'analogie formelle. Nous démontrerons par notre participation au Morpho Challenge 2009 (Kurimo:10) et nos expériences subséquentes, que la qualité des analyses obtenues par ce système rivalise avec l'état de l'art. Nous analyserons aussi l'influence de certaines de ses composantes sur la qualité des analyses morphologiques produites. Nous appuierons les conclusions tirées de nos analyses sur des théories bien établies dans le domaine de la linguistique. Ceci nous permet donc de fournir certaines prédictions sur les succès et les échecs de notre système, lorsqu'appliqué à d'autres langues que celles testées au cours de nos expériences.
Resumo:
PROBLÉMATIQUE La violence collective, à travers les guerres civiles et autres conflits politiques violents, constitue un lourd fardeau pour la santé publique. Plus de la moitié des décès causés par l’ensemble des conflits dans le monde entier se trouvent en Afrique. L’une des conséquences est le déplacement massif des populations qui se réfugient vers l’extérieur du pays, mais aussi de plus en plus à l’intérieur des frontières nationales. Ceux qui ne traversent pas sont appelés déplacés internes. Leur état de santé est au moins aussi vulnérable que celui de réfugiés, mais est très peu documenté. De 1993 à 2005, le Burundi a plongé dans une crise politico-sociale sans précédent. En 2001, environ 10 % de la population vivaient dans des camps de déplacés. OBJECTIF Documenter l’état de santé des personnes déplacées par la guerre au Burundi et identifier ses déterminants. CADRE CONCEPTUEL Le cadre conceptuel est basé sur la modélisation de l’association entre les événements traumatiques, les facteurs de l’environnement post-traumatique et l’état de santé des déplacés internes burundais. MÉTHODE Une enquête transversale a été menée dans deux camps de déplacés au Burundi. Les données ont été obtenues de façon rétrospective sur l’exposition aux événements traumatiques et de manière transversale pour l’état de santé et les facteurs de l’environnement post-traumatique. Les participants ont été interrogés sur les événements traumatiques vécus personnellement ou par leurs proches selon une courte échelle élaborée à cet effet. De même, les facteurs de l’environnement post-traumatique ont été documentés. Pour la mesure de l’état de santé, un questionnaire comportant certains des 17 items du profil de santé de Duke a été utilisé. Deux traductions ont été réalisées et plusieurs items ont été adaptés. RÉSULTATS Les événements traumatiques vécus par les déplacés internes burundais sont négativement associés à l’état de santé physique, à l’état de santé sociale, à l’état de santé perçu et, positivement, avec l’incapacité. De même, plusieurs facteurs de l’environnement post-traumatique sont associés à l’état de santé. Par contre, certaines associations sont à interpréter selon leurs interactions avec les événements traumatiques. Celles-ci agissent parfois comme modificateurs d’effet, en amortissant ou en amplifiant le lien associatif initial entre certains événements traumatiques et l’état de santé des déplacés. CONCLUSION : Les résultats font ressortir un effet différentiel associé d’une part aux événements traumatiques vécus précédemment et d’autre part, en interaction avec ces derniers, à l’environnement post-traumatique. Notre thèse en arrive à la conclusion que les facteurs de l’environnement post-traumatique constituent des déterminants importants de l’état de santé des déplacés de guerre.
Resumo:
Thèse réalisée en cotutelle avec l'Université d'Avignon.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Malgré des progrès constants en termes de capacité de calcul, mémoire et quantité de données disponibles, les algorithmes d'apprentissage machine doivent se montrer efficaces dans l'utilisation de ces ressources. La minimisation des coûts est évidemment un facteur important, mais une autre motivation est la recherche de mécanismes d'apprentissage capables de reproduire le comportement d'êtres intelligents. Cette thèse aborde le problème de l'efficacité à travers plusieurs articles traitant d'algorithmes d'apprentissage variés : ce problème est vu non seulement du point de vue de l'efficacité computationnelle (temps de calcul et mémoire utilisés), mais aussi de celui de l'efficacité statistique (nombre d'exemples requis pour accomplir une tâche donnée). Une première contribution apportée par cette thèse est la mise en lumière d'inefficacités statistiques dans des algorithmes existants. Nous montrons ainsi que les arbres de décision généralisent mal pour certains types de tâches (chapitre 3), de même que les algorithmes classiques d'apprentissage semi-supervisé à base de graphe (chapitre 5), chacun étant affecté par une forme particulière de la malédiction de la dimensionalité. Pour une certaine classe de réseaux de neurones, appelés réseaux sommes-produits, nous montrons qu'il peut être exponentiellement moins efficace de représenter certaines fonctions par des réseaux à une seule couche cachée, comparé à des réseaux profonds (chapitre 4). Nos analyses permettent de mieux comprendre certains problèmes intrinsèques liés à ces algorithmes, et d'orienter la recherche dans des directions qui pourraient permettre de les résoudre. Nous identifions également des inefficacités computationnelles dans les algorithmes d'apprentissage semi-supervisé à base de graphe (chapitre 5), et dans l'apprentissage de mélanges de Gaussiennes en présence de valeurs manquantes (chapitre 6). Dans les deux cas, nous proposons de nouveaux algorithmes capables de traiter des ensembles de données significativement plus grands. Les deux derniers chapitres traitent de l'efficacité computationnelle sous un angle différent. Dans le chapitre 7, nous analysons de manière théorique un algorithme existant pour l'apprentissage efficace dans les machines de Boltzmann restreintes (la divergence contrastive), afin de mieux comprendre les raisons qui expliquent le succès de cet algorithme. Finalement, dans le chapitre 8 nous présentons une application de l'apprentissage machine dans le domaine des jeux vidéo, pour laquelle le problème de l'efficacité computationnelle est relié à des considérations d'ingénierie logicielle et matérielle, souvent ignorées en recherche mais ô combien importantes en pratique.
Resumo:
Parmi les méthodes d’estimation de paramètres de loi de probabilité en statistique, le maximum de vraisemblance est une des techniques les plus populaires, comme, sous des conditions l´egères, les estimateurs ainsi produits sont consistants et asymptotiquement efficaces. Les problèmes de maximum de vraisemblance peuvent être traités comme des problèmes de programmation non linéaires, éventuellement non convexe, pour lesquels deux grandes classes de méthodes de résolution sont les techniques de région de confiance et les méthodes de recherche linéaire. En outre, il est possible d’exploiter la structure de ces problèmes pour tenter d’accélerer la convergence de ces méthodes, sous certaines hypothèses. Dans ce travail, nous revisitons certaines approches classiques ou récemment d´eveloppées en optimisation non linéaire, dans le contexte particulier de l’estimation de maximum de vraisemblance. Nous développons également de nouveaux algorithmes pour résoudre ce problème, reconsidérant différentes techniques d’approximation de hessiens, et proposons de nouvelles méthodes de calcul de pas, en particulier dans le cadre des algorithmes de recherche linéaire. Il s’agit notamment d’algorithmes nous permettant de changer d’approximation de hessien et d’adapter la longueur du pas dans une direction de recherche fixée. Finalement, nous évaluons l’efficacité numérique des méthodes proposées dans le cadre de l’estimation de modèles de choix discrets, en particulier les modèles logit mélangés.
Resumo:
Contexte: Le Bénin est atteint par le double fardeau nutritionnel : dans le même pays, et parfois dans le même ménage, il y a des personnes malnutries et d’autres aux prises avec des maladies chroniques. Ces conditions, au moins pour partie, peuvent être prévenues si la population est sensibilisée à de bonnes habitudes alimentaires. Pour ce faire, les professionnels de la santé ont besoin d’outils comme un guide alimentaire (GA) pour faciliter l’apprentissage de bonnes pratiques alimentaires. Ce dernier nécessite plusieurs étapes à son élaboration, dont la définition des groupes alimentaires, la présentation visuelle et la quantification des portions d'aliments. Objectif : Ce travail a eu pour but de proposer et d’homologuer des portions quotidiennes d’aliments dans chaque groupe alimentaire pour différents groupes d’âge de Béninois. Méthode : Elle consiste à : 1) Caractériser la consommation alimentaire locale; 2) Optimiser le profil moyen de consommation alimentaire quotidienne à l’aide de la programmation linéaire (PL); 3) Traduire les résultats en termes de nombre et taille de portions d’aliments de chaque groupe à consommer quotidiennement; 4) Illustrer les recommandations au moyen d’exemples de menus journaliers; 5) Homologuer le prototype du GA avec des experts béninois. La PL a permis de déterminer les choix d’aliments et quantités optimales à recommander à partir des enquêtes transversales récentes et des recommandations nutritionnelles de l’OMS. Résultats : Les quantités et portions d'aliments recommandées à la consommation ont été déterminées. Les résultats ont été partagés avec les personnes-ressources en nutrition au Bénin. Le premier prototype du GA a été développé pour restitution subséquente aux autorités du Bénin.