953 resultados para Matrices doublement stochastiques


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans un premier temps, nous avons modélisé la structure d’une famille d’ARN avec une grammaire de graphes afin d’identifier les séquences qui en font partie. Plusieurs autres méthodes de modélisation ont été développées, telles que des grammaires stochastiques hors-contexte, des modèles de covariance, des profils de structures secondaires et des réseaux de contraintes. Ces méthodes de modélisation se basent sur la structure secondaire classique comparativement à nos grammaires de graphes qui se basent sur les motifs cycliques de nucléotides. Pour exemplifier notre modèle, nous avons utilisé la boucle E du ribosome qui contient le motif Sarcin-Ricin qui a été largement étudié depuis sa découverte par cristallographie aux rayons X au début des années 90. Nous avons construit une grammaire de graphes pour la structure du motif Sarcin-Ricin et avons dérivé toutes les séquences qui peuvent s’y replier. La pertinence biologique de ces séquences a été confirmée par une comparaison des séquences d’un alignement de plus de 800 séquences ribosomiques bactériennes. Cette comparaison a soulevée des alignements alternatifs pour quelques unes des séquences que nous avons supportés par des prédictions de structures secondaires et tertiaires. Les motifs cycliques de nucléotides ont été observés par les membres de notre laboratoire dans l'ARN dont la structure tertiaire a été résolue expérimentalement. Une étude des séquences et des structures tertiaires de chaque cycle composant la structure du Sarcin-Ricin a révélé que l'espace des séquences dépend grandement des interactions entre tous les nucléotides à proximité dans l’espace tridimensionnel, c’est-à-dire pas uniquement entre deux paires de bases adjacentes. Le nombre de séquences générées par la grammaire de graphes est plus petit que ceux des méthodes basées sur la structure secondaire classique. Cela suggère l’importance du contexte pour la relation entre la séquence et la structure, d’où l’utilisation d’une grammaire de graphes contextuelle plus expressive que les grammaires hors-contexte. Les grammaires de graphes que nous avons développées ne tiennent compte que de la structure tertiaire et négligent les interactions de groupes chimiques spécifiques avec des éléments extra-moléculaires, comme d’autres macromolécules ou ligands. Dans un deuxième temps et pour tenir compte de ces interactions, nous avons développé un modèle qui tient compte de la position des groupes chimiques à la surface des structures tertiaires. L’hypothèse étant que les groupes chimiques à des positions conservées dans des séquences prédéterminées actives, qui sont déplacés dans des séquences inactives pour une fonction précise, ont de plus grandes chances d’être impliqués dans des interactions avec des facteurs. En poursuivant avec l’exemple de la boucle E, nous avons cherché les groupes de cette boucle qui pourraient être impliqués dans des interactions avec des facteurs d'élongation. Une fois les groupes identifiés, on peut prédire par modélisation tridimensionnelle les séquences qui positionnent correctement ces groupes dans leurs structures tertiaires. Il existe quelques modèles pour adresser ce problème, telles que des descripteurs de molécules, des matrices d’adjacences de nucléotides et ceux basé sur la thermodynamique. Cependant, tous ces modèles utilisent une représentation trop simplifiée de la structure d’ARN, ce qui limite leur applicabilité. Nous avons appliqué notre modèle sur les structures tertiaires d’un ensemble de variants d’une séquence d’une instance du Sarcin-Ricin d’un ribosome bactérien. L’équipe de Wool à l’université de Chicago a déjà étudié cette instance expérimentalement en testant la viabilité de 12 variants. Ils ont déterminé 4 variants viables et 8 létaux. Nous avons utilisé cet ensemble de 12 séquences pour l’entraînement de notre modèle et nous avons déterminé un ensemble de propriétés essentielles à leur fonction biologique. Pour chaque variant de l’ensemble d’entraînement nous avons construit des modèles de structures tertiaires. Nous avons ensuite mesuré les charges partielles des atomes exposés sur la surface et encodé cette information dans des vecteurs. Nous avons utilisé l’analyse des composantes principales pour transformer les vecteurs en un ensemble de variables non corrélées, qu’on appelle les composantes principales. En utilisant la distance Euclidienne pondérée et l’algorithme du plus proche voisin, nous avons appliqué la technique du « Leave-One-Out Cross-Validation » pour choisir les meilleurs paramètres pour prédire l’activité d’une nouvelle séquence en la faisant correspondre à ces composantes principales. Finalement, nous avons confirmé le pouvoir prédictif du modèle à l’aide d’un nouvel ensemble de 8 variants dont la viabilité à été vérifiée expérimentalement dans notre laboratoire. En conclusion, les grammaires de graphes permettent de modéliser la relation entre la séquence et la structure d’un élément structural d’ARN, comme la boucle E contenant le motif Sarcin-Ricin du ribosome. Les applications vont de la correction à l’aide à l'alignement de séquences jusqu’au design de séquences ayant une structure prédéterminée. Nous avons également développé un modèle pour tenir compte des interactions spécifiques liées à une fonction biologique donnée, soit avec des facteurs environnants. Notre modèle est basé sur la conservation de l'exposition des groupes chimiques qui sont impliqués dans ces interactions. Ce modèle nous a permis de prédire l’activité biologique d’un ensemble de variants de la boucle E du ribosome qui se lie à des facteurs d'élongation.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les amidons non modifiées et modifiés représentent un groupe d’excipients biodégradables et abondants particulièrement intéressant. Ils ont été largement utilisés en tant qu’excipients à des fins diverses dans des formulations de comprimés, tels que liants et/ou agents de délitement. Le carboxyméthylamidon sodique à haute teneur en amylose atomisé (SD HASCA) a été récemment proposé comme un excipient hydrophile à libération prolongée innovant dans les formes posologiques orales solides. Le carboxyméthylamidon sodique à haute teneur en amylose amorphe (HASCA) a d'abord été produit par l'éthérification de l'amidon de maïs à haute teneur en amylose avec le chloroacétate. HASCA a été par la suite séché par atomisation pour obtenir le SD HASCA. Ce nouvel excipient a montré des propriétés présentant certains avantages dans la production de formes galéniques à libération prolongée. Les comprimés matriciels produits à partir de SD HASCA sont peu coûteux, simples à formuler et faciles à produire par compression directe. Le principal objectif de cette recherche était de poursuivre le développement et l'optimisation des comprimés matriciels utilisant SD HASCA comme excipient pour des formulations orales à libération prolongée. A cet effet, des tests de dissolution simulant les conditions physiologiques du tractus gastro-intestinal les plus pertinentes, en tenant compte de la nature du polymère à l’étude, ont été utilisés pour évaluer les caractéristiques à libération prolongée et démontrer la performance des formulations SD HASCA. Une étude clinique exploratoire a également été réalisée pour évaluer les propriétés de libération prolongée de cette nouvelle forme galénique dans le tractus gastro-intestinal. Le premier article présenté dans cette thèse a évalué les propriétés de libération prolongée et l'intégrité physique de formulations contenant un mélange comprimé de principe actif, de chlorure de sodium et de SD HASCA, dans des milieux de dissolution biologiquement pertinentes. L'influence de différentes valeurs de pH acide et de temps de séjour dans le milieu acide a été étudiée. Le profil de libération prolongée du principe actif à partir d'une formulation de SD HASCA optimisée n'a pas été significativement affecté ni par la valeur de pH acide ni par le temps de séjour dans le milieu acide. Ces résultats suggèrent une influence limitée de la variabilité intra et interindividuelle du pH gastrique sur la cinétique de libération à partir de matrices de SD HASCA. De plus, la formulation optimisée a gardé son intégrité pendant toute la durée des tests de dissolution. L’étude in vivo exploratoire a démontré une absorption prolongée du principe actif après administration orale des comprimés matriciels de SD HASCA et a montré que les comprimés ne se sont pas désintégrés en passant par l'estomac et qu’ils ont résisté à l’hydrolyse par les α-amylases dans l'intestin. Le deuxième article présente le développement de comprimés SD HASCA pour une administration orale une fois par jour et deux fois par jour contenant du chlorhydrate de tramadol (100 mg et 200 mg). Ces formulations à libération prolongée ont présenté des valeurs de dureté élevées sans nécessiter l'ajout de liants, ce qui facilite la production et la manipulation des comprimés au niveau industriel. La force de compression appliquée pour produire les comprimés n'a pas d'incidence significative sur les profils de libération du principe actif. Le temps de libération totale à partir de comprimés SD HASCA a augmenté de manière significative avec le poids du comprimé et peut, de ce fait, être utilisé pour moduler le temps de libération à partir de ces formulations. Lorsque les comprimés ont été exposés à un gradient de pH et à un milieu à 40% d'éthanol, un gel très rigide s’est formé progressivement sur leur surface amenant à la libération prolongée du principe actif. Ces propriétés ont indiqué que SD HASCA est un excipient robuste pour la production de formes galéniques orales à libération prolongée, pouvant réduire la probabilité d’une libération massive de principe actif et, en conséquence, des effets secondaires, même dans le cas de co-administration avec une forte dose d'alcool. Le troisième article a étudié l'effet de α-amylase sur la libération de principe actif à partir de comprimés SD HASCA contenant de l’acétaminophène et du chlorhydrate de tramadol qui ont été développés dans les premières étapes de cette recherche (Acetaminophen SR et Tramadol SR). La modélisation mathématique a montré qu'une augmentation de la concentration d’α-amylase a entraîné une augmentation de l'érosion de polymère par rapport à la diffusion de principe actif comme étant le principal mécanisme contrôlant la libération de principe actif, pour les deux formulations et les deux temps de résidence en milieu acide. Cependant, même si le mécanisme de libération peut être affecté, des concentrations d’α-amylase allant de 0 UI/L à 20000 UI/L n'ont pas eu d'incidence significative sur les profils de libération prolongée à partir de comprimés SD HASCA, indépendamment de la durée de séjour en milieu acide, le principe actif utilisé, la teneur en polymère et la différente composition de chaque formulation. Le travail présenté dans cette thèse démontre clairement l'utilité de SD HASCA en tant qu'un excipient à libération prolongée efficace.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La tomographie d’émission par positrons (TEP) est une modalité d’imagerie moléculaire utilisant des radiotraceurs marqués par des isotopes émetteurs de positrons permettant de quantifier et de sonder des processus biologiques et physiologiques. Cette modalité est surtout utilisée actuellement en oncologie, mais elle est aussi utilisée de plus en plus en cardiologie, en neurologie et en pharmacologie. En fait, c’est une modalité qui est intrinsèquement capable d’offrir avec une meilleure sensibilité des informations fonctionnelles sur le métabolisme cellulaire. Les limites de cette modalité sont surtout la faible résolution spatiale et le manque d’exactitude de la quantification. Par ailleurs, afin de dépasser ces limites qui constituent un obstacle pour élargir le champ des applications cliniques de la TEP, les nouveaux systèmes d’acquisition sont équipés d’un grand nombre de petits détecteurs ayant des meilleures performances de détection. La reconstruction de l’image se fait en utilisant les algorithmes stochastiques itératifs mieux adaptés aux acquisitions à faibles statistiques. De ce fait, le temps de reconstruction est devenu trop long pour une utilisation en milieu clinique. Ainsi, pour réduire ce temps, on les données d’acquisition sont compressées et des versions accélérées d’algorithmes stochastiques itératifs qui sont généralement moins exactes sont utilisées. Les performances améliorées par l’augmentation de nombre des détecteurs sont donc limitées par les contraintes de temps de calcul. Afin de sortir de cette boucle et permettre l’utilisation des algorithmes de reconstruction robustes, de nombreux travaux ont été effectués pour accélérer ces algorithmes sur les dispositifs GPU (Graphics Processing Units) de calcul haute performance. Dans ce travail, nous avons rejoint cet effort de la communauté scientifique pour développer et introduire en clinique l’utilisation des algorithmes de reconstruction puissants qui améliorent la résolution spatiale et l’exactitude de la quantification en TEP. Nous avons d’abord travaillé sur le développement des stratégies pour accélérer sur les dispositifs GPU la reconstruction des images TEP à partir des données d’acquisition en mode liste. En fait, le mode liste offre de nombreux avantages par rapport à la reconstruction à partir des sinogrammes, entre autres : il permet d’implanter facilement et avec précision la correction du mouvement et le temps de vol (TOF : Time-Of Flight) pour améliorer l’exactitude de la quantification. Il permet aussi d’utiliser les fonctions de bases spatio-temporelles pour effectuer la reconstruction 4D afin d’estimer les paramètres cinétiques des métabolismes avec exactitude. Cependant, d’une part, l’utilisation de ce mode est très limitée en clinique, et d’autre part, il est surtout utilisé pour estimer la valeur normalisée de captation SUV qui est une grandeur semi-quantitative limitant le caractère fonctionnel de la TEP. Nos contributions sont les suivantes : - Le développement d’une nouvelle stratégie visant à accélérer sur les dispositifs GPU l’algorithme 3D LM-OSEM (List Mode Ordered-Subset Expectation-Maximization), y compris le calcul de la matrice de sensibilité intégrant les facteurs d’atténuation du patient et les coefficients de normalisation des détecteurs. Le temps de calcul obtenu est non seulement compatible avec une utilisation clinique des algorithmes 3D LM-OSEM, mais il permet également d’envisager des reconstructions rapides pour les applications TEP avancées telles que les études dynamiques en temps réel et des reconstructions d’images paramétriques à partir des données d’acquisitions directement. - Le développement et l’implantation sur GPU de l’approche Multigrilles/Multitrames pour accélérer l’algorithme LMEM (List-Mode Expectation-Maximization). L’objectif est de développer une nouvelle stratégie pour accélérer l’algorithme de référence LMEM qui est un algorithme convergent et puissant, mais qui a l’inconvénient de converger très lentement. Les résultats obtenus permettent d’entrevoir des reconstructions en temps quasi-réel que ce soit pour les examens utilisant un grand nombre de données d’acquisition aussi bien que pour les acquisitions dynamiques synchronisées. Par ailleurs, en clinique, la quantification est souvent faite à partir de données d’acquisition en sinogrammes généralement compressés. Mais des travaux antérieurs ont montré que cette approche pour accélérer la reconstruction diminue l’exactitude de la quantification et dégrade la résolution spatiale. Pour cette raison, nous avons parallélisé et implémenté sur GPU l’algorithme AW-LOR-OSEM (Attenuation-Weighted Line-of-Response-OSEM) ; une version de l’algorithme 3D OSEM qui effectue la reconstruction à partir de sinogrammes sans compression de données en intégrant les corrections de l’atténuation et de la normalisation dans les matrices de sensibilité. Nous avons comparé deux approches d’implantation : dans la première, la matrice système (MS) est calculée en temps réel au cours de la reconstruction, tandis que la seconde implantation utilise une MS pré- calculée avec une meilleure exactitude. Les résultats montrent que la première implantation offre une efficacité de calcul environ deux fois meilleure que celle obtenue dans la deuxième implantation. Les temps de reconstruction rapportés sont compatibles avec une utilisation clinique de ces deux stratégies.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il est connu qu’une équation différentielle linéaire, x^(k+1)Y' = A(x)Y, au voisinage d’un point singulier irrégulier non-résonant est uniquement déterminée (à isomorphisme analytique près) par : (1) sa forme normale formelle, (2) sa collection de matrices de Stokes. La définition des matrices de Stokes fait appel à un ordre sur les parties réelles des valeurs propres du système, ordre qui peut être perturbé par une rotation en x. Dans ce mémoire, nous avons établi le caractère intrinsèque de cette relation : nous avons donc établi comment la nouvelle collection de matrices de Stokes obtenue après une rotation en x qui change l’ordre des parties réelles des valeurs propres dépend de la collection initiale. Pour ce faire, nous donnons un chapitre de préliminaires généraux sur la forme normale des équations différentielles ordinaires puis un chapitre sur le phénomène de Stokes pour les équations différentielles linéaires. Le troisième chapitre contient nos résultats.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This study was conducted to identify the concentration dependence of the operating wavelengths and the relative intensities in which a dye mixture doped polymer optical fibre can operate. A comparative study of the radiative and Forster type energy transfer processes in Coumarin 540:Rhodamine 6G, Coumarin 540:Rhodamine B and Rhodamine 6G:Rhodamine B in methyl methacrylate (MMA) and poly(methyl methacrylate) (PMMA) was done by fabricating a series of dye mixture doped polymer rods which have two emission peaks with varying relative intensities. These rods can be used as preforms for the fabrication of polymer optical fibre amplifiers operating in the multi-wavelength regime. The 445 nm line from an Nd:YAG pumped optical parametric oscillator (OPO) was used as the excitation source for the first two dye pairs and a frequency doubled Nd:YAG laser emitting at 532 nm was used to excite the Rh 6G:Rh B pair. The fluorescence lifetimes of the donor molecule in pure form as well as in the mixtures were experimentally measured in both monomer and polymer matrices by time-correlated single photon counting technique. The energy transfer rate constants and transfer efficiencies were calculated and their dependence on the acceptor concentration was analysed. It was found that radiative energy transfer mechanisms are more efficient in all the three dye pairs in liquid and solid matrices.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Biotechnology is currently considered as a useful altemative to conventional process technology in industrial and catalytic fields. The increasing awareness of the need to create green and sustainable production processes in all fields of chemistry has stimulated materials scientists to search for innovative catalysts supports. lmmobilization of enzymes in inorganic matrices is very useful in practical applications due to the preserved stability and catalytic activity of the immobilized enzymes under extreme conditions. Nanostructured inorganic, organic or hybrid organic-inorganic nanocomposites present paramount advantages to facilitate integration and miniaturization of the devices (nanotechnologies), thus affording a direct connection between the inorganic, organic and biological worlds. These properties, combined with good chemical stability, make them competent candidates for designed biocatalysts, protein-separation devices, drug delivery systems, and biosensors Aluininosilicate clays and layered double hydroxides, displaying, respectively, cation and anion exchange properties, were found to be attractive materials for immobilization because of their hydrophilic, swelling and porosity properties, as well as their mechanical and thermal stability.The aim of this study is the replacement of inorganic catalysts by immobilized lipases to obtain purer and healthier products.Mesocellular silica foams were synthesized by oil-in-water microemulsion templating route and were functionalized with silane and glutaraldehyde. " The experimental results from IR spectroscopy and elemental analysis demonstrated the presence of immobilized lipase and also functionalisation with silane and glutaraldehyde on the supports.The present work is a comprehensive study on enzymatic synthesis of butyl isobutyrate through esterification reaction using lipase immobilized onto mesocellular siliceous foams and montmorillonite K-10 via adsorption and covalent binding. Moreover, the irnrnobil-ization does not modify the nature of the kinetic mechanism proposed which is of the Bi-Bi Ping—Pong type with inhibition by n-butanol. The immobilized biocatalyst can be commercially exploited for the synthesis of other short chain flavor esters. Mesocellular silica foams (MCF) were synthesized by microemusion templating method via two different routes (hydrothermal and room temperature). and were functionalized with silane and glutaraldehyde. Candida rugosa lipase was adsorbed onto MCF silica and clay using heptane as the coupling medium for reactions in non-aqueous media. I From XRD results, a slight broadening and lowering of d spacing values after immobilization and modification was observed in the case of MCF 160 and MCF35 but there was no change in the d-spacing in the case of K-10 which showed that the enzymes are adsorbed only on the external surface. This was further confirmed from the nitrogen adsorption measurements

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This thesis Entitled On Infinite graphs and related matrices.ln the last two decades (iraph theory has captured wide attraction as a Mathematical model for any system involving a binary relation. The theory is intimately related to many other branches of Mathematics including Matrix Theory Group theory. Probability. Topology and Combinatorics . and has applications in many other disciplines..Any sort of study on infinite graphs naturally involves an attempt to extend the well known results on the much familiar finite graphs. A graph is completely determined by either its adjacencies or its incidences. A matrix can convey this information completely. This makes a proper labelling of the vertices. edges and any other elements considered, an inevitable process. Many types of labelling of finite graphs as Cordial labelling, Egyptian labelling, Arithmetic labeling and Magical labelling are available in the literature. The number of matrices associated with a finite graph are too many For a study ofthis type to be exhaustive. A large number of theorems have been established by various authors for finite matrices. The extension of these results to infinite matrices associated with infinite graphs is neither obvious nor always possible due to convergence problems. In this thesis our attempt is to obtain theorems of a similar nature on infinite graphs and infinite matrices. We consider the three most commonly used matrices or operators, namely, the adjacency matrix

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Grey Level Co-occurrence Matrices (GLCM) are one of the earliest techniques used for image texture analysis. In this paper we defined a new feature called trace extracted from the GLCM and its implications in texture analysis are discussed in the context of Content Based Image Retrieval (CBIR). The theoretical extension of GLCM to n-dimensional gray scale images are also discussed. The results indicate that trace features outperform Haralick features when applied to CBIR.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Seit einigen Jahren erfährt Lateinamerika einen epochalen Umbruch. Das neoliberale Modell ist in einer Krise. Die Politik des „Washington Consensus“ und das Diktum einer politisch nicht kontrollierbaren Globalisierung werden zunehmend hinterfagt. Aus der Linkswende haben sich neue alternative Politikkonzepten entwickelt. In dem vorliegenden Working Paper wird auf die Beziehung von sozialen Bewegungen, Ideologien und Regierungen eingegangen. In ihrer Diagnose arbeitet Maristella Svampa die ambivalenten Charakteristiken des aktuellen Wandels in Lateinamerika heraus. Daran schließt eine analytische Annäherung an die verschiedenen ideologischen Traditionen an, die den Widerstandssektor prägen. Abschließend werden bei der Analyse der vier wichtigsten Tendenzen einige der wichtigsten Daten über die Region präsentiert. Zu diesen Tendenzen gehören der Fortschritt der indigenen Kämpfe, die Konsolidierung neuer Formen des Kampfes, die Reaktivierung der national-populären Tradition, sowie die Rückkehr des „Desarrollismo“. Letztere wird sowohl von progressiven als auch eher konservativ-neoliberalen Regierungen unterstützt.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Las matrices insumo-producto y de contabilidad social constituyen fuentes de información importante para el entendimiento de las relaciones productivas y económicas de un país en un determinado momento del tiempo. En Colombia, la construcción de estos instrumentos tiene una larga experiencia aunque poca ha sido su documentación. Este artículo pretende exponer de manera clara y concisa el procedimiento necesario para su construcción.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mediante dos juegos de adivinación de números en unas tablas, se estudia cómo la base 2 y las matrices son fundamentales en la tecnología digital. Además se aporta la implementación en el programa informático Mathematica del algoritmo que permite realizar esta acción. En el artículo se muestra paso a paso cómo realizar estos juegos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Resumen basado en el de la publicación

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Trabajo que recoge los resultados tras la aplicación del test de Raven en diferentes grupos de EGB para conocer de manera objetiva la realidad de los alumnos españoles de este nivel educativo. Todo ello va precedido por unas normas simplificadas de aplicación, acompañadas de las que dió el autor del test, y un estudio sintético y práctico de las variadas y diversas potencialidades del mismo encaminadas al conocimiento exhaustivo del examinando, así como diversas observaciones prácticas del autor..

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Resumen basado en el de la publicación