846 resultados para compression functions


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Plusieurs familles de fonctions spéciales de plusieurs variables, appelées fonctions d'orbites, sont définies dans le contexte des groupes de Weyl de groupes de Lie simples compacts/d'algèbres de Lie simples. Ces fonctions sont étudiées depuis près d'un siècle en raison de leur lien avec les caractères des représentations irréductibles des algèbres de Lie simples, mais également de par leurs symétries et orthogonalités. Nous sommes principalement intéressés par la description des relations d'orthogonalité discrète et des transformations discrètes correspondantes, transformations qui permettent l'utilisation des fonctions d'orbites dans le traitement de données multidimensionnelles. Cette description est donnée pour les groupes de Weyl dont les racines ont deux longueurs différentes, en particulier pour les groupes de rang $2$ dans le cas des fonctions d'orbites du type $E$ et pour les groupes de rang $3$ dans le cas de toutes les autres fonctions d'orbites.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le glaucome est la première cause de cécité irréversible à travers le monde. À présent il n’existe aucun remède au glaucome, et les thérapies adoptées sont souvent inadéquates. La perte de vision causée par le glaucome est due à la mort sélective des cellules rétiniennes ganglionnaires, les neurones qui envoient de l’information visuelle de la rétine au cerveau. Le mécanisme principal menant au dommage des cellules rétiniennes ganglionnaires lors du glaucome n’est pas bien compris, mais quelques responsables putatifs ont été proposés tels que l’excitotoxicité, le manque de neurotrophines, la compression mécanique, l’ischémie, les astrocytes réactifs et le stress oxidatif, parmis d’autres. Indépendamment de la cause, il est bien établi que la perte des cellules rétiniennes ganglionnaires lors du glaucome est causée par la mort cellulaire programmée apoptotique. Cependant, les mécanismes moléculaires précis qui déclenchent l’apoptose dans les cellules rétiniennes ganglionnaires adultes sont mal définis. Pour aborder ce point, j’ai avancé l’hypothèse centrale que l’identification de voies de signalisations moléculaires impliquées dans la mort apoptotique des cellules rétiniennes ganglionnaires offrirait des avenues thérapeutiques pour ralentir ou même prévenir la mort de celles-ci lors de neuropathies oculaires telles que le glaucome. Dans la première partie de ma thèse, j’ai caractérisé le rôle de la famille de protéines stimulatrices d’apoptose de p53 (ASPP), protéines régulatrices de la famille p53, dans la mort apoptotique des cellules rétiniennes ganglionnaires. p53 est un facteur de transcription nucléaire impliqué dans des fonctions cellulaires variant de la transcription à l’apoptose. Les membres de la famille ASPP, soit ASPP1, ASPP2 et iASPP, sont des protéines de liaison de p53 qui régulent l’apoptose. Pourtant, le rôle de la famille des ASPP dans la mort des cellules rétiniennes ganglionnaires est inconnu. ASPP1 et ASPP2 étant pro-apoptotiques, l’hypothèse de cette première étude est que la baisse ciblée de ASPP1 et ASPP2 promouvrait la survie des cellules rétiniennes ganglionnaires après une blessure du nerf optique. Nous avons utilisé un modèle expérimental bien caractérisé de mort apoptotique neuronale induite par axotomie du nerf optique chez le rat de type Sprague Dawley. Les résultats de cette étude (Wilson et al. Journal of Neuroscience, 2013) ont démontré que p53 est impliqué dans la mort apoptotique des cellules rétiniennes ganglionnaires, et qu’une baisse ciblée de ASPP1 et ASPP2 par acide ribonucléique d’interference promeut la survie des cellules rétiniennes ganglionnaires. Dans la deuxième partie de ma thèse, j’ai caractérisé le rôle d’iASPP, le membre anti-apoptotique de la famille des ASPP, dans la mort apoptotique des cellules rétiniennes ganglionnaires. L’hypothèse de cette seconde étude est que la surexpression d’iASPP promouvrait la survie des cellules rétiniennes ganglionnaires après axotomie. Mes résultats (Wilson et al. PLoS ONE, 2014) démontrent que le knockdown ciblé de iASPP exacerbe la mort apoptotique des cellules rétiniennes ganglionnaires, et que la surexpression de iASPP par virus adéno-associé promeut la survie des cellules rétiniennes ganglionnaires. En conclusion, les résultats présentés dans cette thèse contribuent à une meilleure compréhension des mécanismes régulateurs sous-jacents la perte de cellules rétiniennes ganglionnaires par apoptose et pourraient fournir des pistes pour la conception de nouvelles stratégies neuroprotectrices pour le traitement de maladies neurodégénératives telles que le glaucome.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette thèse s'intéresse à l'étude des propriétés et applications de quatre familles des fonctions spéciales associées aux groupes de Weyl et dénotées $C$, $S$, $S^s$ et $S^l$. Ces fonctions peuvent être vues comme des généralisations des polynômes de Tchebyshev. Elles sont en lien avec des polynômes orthogonaux à plusieurs variables associés aux algèbres de Lie simples, par exemple les polynômes de Jacobi et de Macdonald. Elles ont plusieurs propriétés remarquables, dont l'orthogonalité continue et discrète. En particulier, il est prouvé dans la présente thèse que les fonctions $S^s$ et $S^l$ caractérisées par certains paramètres sont mutuellement orthogonales par rapport à une mesure discrète. Leur orthogonalité discrète permet de déduire deux types de transformées discrètes analogues aux transformées de Fourier pour chaque algèbre de Lie simple avec racines des longueurs différentes. Comme les polynômes de Tchebyshev, ces quatre familles des fonctions ont des applications en analyse numérique. On obtient dans cette thèse quelques formules de <>, pour des fonctions de plusieurs variables, en liaison avec les fonctions $C$, $S^s$ et $S^l$. On fournit également une description complète des transformées en cosinus discrètes de types V--VIII à $n$ dimensions en employant les fonctions spéciales associées aux algèbres de Lie simples $B_n$ et $C_n$, appelées cosinus antisymétriques et symétriques. Enfin, on étudie quatre familles de polynômes orthogonaux à plusieurs variables, analogues aux polynômes de Tchebyshev, introduits en utilisant les cosinus (anti)symétriques.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Soit $\displaystyle P(z):=\sum_{\nu=0}^na_\nu z^{\nu}$ un polynôme de degré $n$ et $\displaystyle M:=\sup_{|z|=1}|P(z)|.$ Sans aucne restriction suplémentaire, on sait que $|P'(z)|\leq Mn$ pour $|z|\leq 1$ (inégalité de Bernstein). Si nous supposons maintenant que les zéros du polynôme $P$ sont à l'extérieur du cercle $|z|=k,$ quelle amélioration peut-on apporter à l'inégalité de Bernstein? Il est déjà connu [{\bf \ref{Mal1}}] que dans le cas où $k\geq 1$ on a $$(*) \qquad |P'(z)|\leq \frac{n}{1+k}M \qquad (|z|\leq 1),$$ qu'en est-il pour le cas où $k < 1$? Quelle est l'inégalité analogue à $(*)$ pour une fonction entière de type exponentiel $\tau ?$ D'autre part, si on suppose que $P$ a tous ses zéros dans $|z|\geq k \, \, (k\geq 1),$ quelle est l'estimation de $|P'(z)|$ sur le cercle unité, en terme des quatre premiers termes de son développement en série entière autour de l'origine. Cette thèse constitue une contribution à la théorie analytique des polynômes à la lumière de ces questions.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La compréhension de processus biologiques complexes requiert des approches expérimentales et informatiques sophistiquées. Les récents progrès dans le domaine des stratégies génomiques fonctionnelles mettent dorénavant à notre disposition de puissants outils de collecte de données sur l’interconnectivité des gènes, des protéines et des petites molécules, dans le but d’étudier les principes organisationnels de leurs réseaux cellulaires. L’intégration de ces connaissances au sein d’un cadre de référence en biologie systémique permettrait la prédiction de nouvelles fonctions de gènes qui demeurent non caractérisées à ce jour. Afin de réaliser de telles prédictions à l’échelle génomique chez la levure Saccharomyces cerevisiae, nous avons développé une stratégie innovatrice qui combine le criblage interactomique à haut débit des interactions protéines-protéines, la prédiction de la fonction des gènes in silico ainsi que la validation de ces prédictions avec la lipidomique à haut débit. D’abord, nous avons exécuté un dépistage à grande échelle des interactions protéines-protéines à l’aide de la complémentation de fragments protéiques. Cette méthode a permis de déceler des interactions in vivo entre les protéines exprimées par leurs promoteurs naturels. De plus, aucun biais lié aux interactions des membranes n’a pu être mis en évidence avec cette méthode, comparativement aux autres techniques existantes qui décèlent les interactions protéines-protéines. Conséquemment, nous avons découvert plusieurs nouvelles interactions et nous avons augmenté la couverture d’un interactome d’homéostasie lipidique dont la compréhension demeure encore incomplète à ce jour. Par la suite, nous avons appliqué un algorithme d’apprentissage afin d’identifier huit gènes non caractérisés ayant un rôle potentiel dans le métabolisme des lipides. Finalement, nous avons étudié si ces gènes et un groupe de régulateurs transcriptionnels distincts, non préalablement impliqués avec les lipides, avaient un rôle dans l’homéostasie des lipides. Dans ce but, nous avons analysé les lipidomes des délétions mutantes de gènes sélectionnés. Afin d’examiner une grande quantité de souches, nous avons développé une plateforme à haut débit pour le criblage lipidomique à contenu élevé des bibliothèques de levures mutantes. Cette plateforme consiste en la spectrométrie de masse à haute resolution Orbitrap et en un cadre de traitement des données dédié et supportant le phénotypage des lipides de centaines de mutations de Saccharomyces cerevisiae. Les méthodes expérimentales en lipidomiques ont confirmé les prédictions fonctionnelles en démontrant certaines différences au sein des phénotypes métaboliques lipidiques des délétions mutantes ayant une absence des gènes YBR141C et YJR015W, connus pour leur implication dans le métabolisme des lipides. Une altération du phénotype lipidique a également été observé pour une délétion mutante du facteur de transcription KAR4 qui n’avait pas été auparavant lié au métabolisme lipidique. Tous ces résultats démontrent qu’un processus qui intègre l’acquisition de nouvelles interactions moléculaires, la prédiction informatique des fonctions des gènes et une plateforme lipidomique innovatrice à haut débit , constitue un ajout important aux méthodologies existantes en biologie systémique. Les développements en méthodologies génomiques fonctionnelles et en technologies lipidomiques fournissent donc de nouveaux moyens pour étudier les réseaux biologiques des eucaryotes supérieurs, incluant les mammifères. Par conséquent, le stratégie présenté ici détient un potentiel d’application au sein d’organismes plus complexes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La tomographie d’émission par positrons (TEP) est une modalité d’imagerie moléculaire utilisant des radiotraceurs marqués par des isotopes émetteurs de positrons permettant de quantifier et de sonder des processus biologiques et physiologiques. Cette modalité est surtout utilisée actuellement en oncologie, mais elle est aussi utilisée de plus en plus en cardiologie, en neurologie et en pharmacologie. En fait, c’est une modalité qui est intrinsèquement capable d’offrir avec une meilleure sensibilité des informations fonctionnelles sur le métabolisme cellulaire. Les limites de cette modalité sont surtout la faible résolution spatiale et le manque d’exactitude de la quantification. Par ailleurs, afin de dépasser ces limites qui constituent un obstacle pour élargir le champ des applications cliniques de la TEP, les nouveaux systèmes d’acquisition sont équipés d’un grand nombre de petits détecteurs ayant des meilleures performances de détection. La reconstruction de l’image se fait en utilisant les algorithmes stochastiques itératifs mieux adaptés aux acquisitions à faibles statistiques. De ce fait, le temps de reconstruction est devenu trop long pour une utilisation en milieu clinique. Ainsi, pour réduire ce temps, on les données d’acquisition sont compressées et des versions accélérées d’algorithmes stochastiques itératifs qui sont généralement moins exactes sont utilisées. Les performances améliorées par l’augmentation de nombre des détecteurs sont donc limitées par les contraintes de temps de calcul. Afin de sortir de cette boucle et permettre l’utilisation des algorithmes de reconstruction robustes, de nombreux travaux ont été effectués pour accélérer ces algorithmes sur les dispositifs GPU (Graphics Processing Units) de calcul haute performance. Dans ce travail, nous avons rejoint cet effort de la communauté scientifique pour développer et introduire en clinique l’utilisation des algorithmes de reconstruction puissants qui améliorent la résolution spatiale et l’exactitude de la quantification en TEP. Nous avons d’abord travaillé sur le développement des stratégies pour accélérer sur les dispositifs GPU la reconstruction des images TEP à partir des données d’acquisition en mode liste. En fait, le mode liste offre de nombreux avantages par rapport à la reconstruction à partir des sinogrammes, entre autres : il permet d’implanter facilement et avec précision la correction du mouvement et le temps de vol (TOF : Time-Of Flight) pour améliorer l’exactitude de la quantification. Il permet aussi d’utiliser les fonctions de bases spatio-temporelles pour effectuer la reconstruction 4D afin d’estimer les paramètres cinétiques des métabolismes avec exactitude. Cependant, d’une part, l’utilisation de ce mode est très limitée en clinique, et d’autre part, il est surtout utilisé pour estimer la valeur normalisée de captation SUV qui est une grandeur semi-quantitative limitant le caractère fonctionnel de la TEP. Nos contributions sont les suivantes : - Le développement d’une nouvelle stratégie visant à accélérer sur les dispositifs GPU l’algorithme 3D LM-OSEM (List Mode Ordered-Subset Expectation-Maximization), y compris le calcul de la matrice de sensibilité intégrant les facteurs d’atténuation du patient et les coefficients de normalisation des détecteurs. Le temps de calcul obtenu est non seulement compatible avec une utilisation clinique des algorithmes 3D LM-OSEM, mais il permet également d’envisager des reconstructions rapides pour les applications TEP avancées telles que les études dynamiques en temps réel et des reconstructions d’images paramétriques à partir des données d’acquisitions directement. - Le développement et l’implantation sur GPU de l’approche Multigrilles/Multitrames pour accélérer l’algorithme LMEM (List-Mode Expectation-Maximization). L’objectif est de développer une nouvelle stratégie pour accélérer l’algorithme de référence LMEM qui est un algorithme convergent et puissant, mais qui a l’inconvénient de converger très lentement. Les résultats obtenus permettent d’entrevoir des reconstructions en temps quasi-réel que ce soit pour les examens utilisant un grand nombre de données d’acquisition aussi bien que pour les acquisitions dynamiques synchronisées. Par ailleurs, en clinique, la quantification est souvent faite à partir de données d’acquisition en sinogrammes généralement compressés. Mais des travaux antérieurs ont montré que cette approche pour accélérer la reconstruction diminue l’exactitude de la quantification et dégrade la résolution spatiale. Pour cette raison, nous avons parallélisé et implémenté sur GPU l’algorithme AW-LOR-OSEM (Attenuation-Weighted Line-of-Response-OSEM) ; une version de l’algorithme 3D OSEM qui effectue la reconstruction à partir de sinogrammes sans compression de données en intégrant les corrections de l’atténuation et de la normalisation dans les matrices de sensibilité. Nous avons comparé deux approches d’implantation : dans la première, la matrice système (MS) est calculée en temps réel au cours de la reconstruction, tandis que la seconde implantation utilise une MS pré- calculée avec une meilleure exactitude. Les résultats montrent que la première implantation offre une efficacité de calcul environ deux fois meilleure que celle obtenue dans la deuxième implantation. Les temps de reconstruction rapportés sont compatibles avec une utilisation clinique de ces deux stratégies.

Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Department of Biotechnology, Cochin University of Science and Technology

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The brain with its highly complex structure made up of simple units,imterconnected information pathways and specialized functions has always been an object of mystery and sceintific fascination for physiologists,neuroscientists and lately to mathematicians and physicists. The stream of biophysicists are engaged in building the bridge between the biological and physical sciences guided by a conviction that natural scenarios that appear extraordinarily complex may be tackled by application of principles from the realm of physical sciences. In a similar vein, this report aims to describe how nerve cells execute transmission of signals ,how these are put together and how out of this integration higher functions emerge and get reflected in the electrical signals that are produced in the brain.Viewing the E E G Signal through the looking glass of nonlinear theory, the dynamics of the underlying complex system-the brain ,is inferred and significant implications of the findings are explored.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Department of Statistics, Cochin University of Science and Technology

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The increasing tempo of construction activity the world over creates heavy pressure on existing land space. The quest for new and competent site often points to the needs for improving existing sites, which are otherwise deemed unsuitable for adopting conventional foundations. This is accomplished by ground improvement methods, which are employed to improve the quality of soil incompetent in their natural state. Among the construction activities, a well-connected road network is one of the basic infrastructure requirements, which play a vital role for the fast and comfortable movement of inter- regional traffic in countries like India.One of the innovative ground improvement techniques practised all over the world is the use of geosynthetics, which include geotextiles, geomembranes, geogrids, etc . They offer the advantages such as space saving, enviromnental sensitivity, material availability, technical superiority, higher cost savings, less construction time, etc . Because of its fundamental properties, such as tensile strength, filtering and water permeability, a geotextile inserted between the base material and sub grade can function as reinforcement, a filter medium, a separation layer and as a drainage medium. Though polymeric geotextiles are used in abundant quantities, the use of natural geotextiles (like coir, jute, etc.) has yet to get momentum. This is primarily due to the lack of research work on natural geotextilcs for ground improvement, particularly in the areas of un paved roads. Coir geotextiles are best suited for low cost applications because of its availability at low prices compared to its synthetic counterparts. The proper utilisation of coir geotextilcs in various applications demands large quantities of the product, which in turn can create a boom in the coir industry. The present study aims at exploring the possibilities of utilising coir geotextiles for unpaved roads and embankments.The properties of coir geotextiles used have been evaluated. The properties studied include mass per unit area, puncture resistance, tensile strength, secant modulus, etc . The interfacial friction between soils and three types of coir geotextiles used was also evaluated. It was found that though the parameters evaluated for coir geotextiles have low values compared to polymeric geotextiles, the former are sufficient for use in unpaved roads and embankments. The frictional characteristics of coir geotextile - soil interfaces are extremely good and satisfy the condition set by the International Geosynthetic Society for varied applications.The performance of coir geotextiles reinforced subgrade was studied by conducting California Bearing Ratio (CBR) tests. Studies were made with coir geotextiles placed at different levels and also in multiple layers. The results have shown that the coir geotextile enhances the subgrade strength. A regression analysis was perfonned and a mathematical model was developed to predict the CBR of the coir geotextile reinforced subgrade soil as a function of the soil properties, coir geotextile properties, and placement depth of reinforcement.The effects of coir geotextiles on bearing capacity were studied by perfonning plate load tests in a test tan1e This helped to understand the functioning of geotextile as reinforcement in unpaved roads and embankments. The perfonnance of different types of coir geotextiles with respect to the placement depth in dry and saturated conditions was studied. The results revealed that the bearing capacity of coir-reinforced soil is increasing irrespective of the type of coir geotextiles and saturation condition.The rut behaviour of unreinforced and coir reinforced unpaved road sections were compared by conducting model static load tests in a test tank and also under repetitive loads in a wheel track test facility. The results showed that coir geotextiles could fulfill the functions as reinforcement and as a separator, both under static and repetitive loads. The rut depth was very much reduced whik placing coir geotextiles in between sub grade and sub base.In order to study the use of Coir geotextiles in improving the settlement characteristics, two types of prefabricated COlf geotextile vertical drains were developed and their time - settlement behaviour were studied. Three different dispositions were tried. It was found that the coir geotextile drains were very effective in reducing consolidation time due to radial drainage. The circular drains in triangular disposition gave maximum beneficial effect.In long run, the degradation of coir geotextile is expected, which results in a soil - fibre matrix. Hence, studies pertaining to strength and compressibility characteristics of soil - coir fibre composites were conducted. Experiments were done using coir fibres having different aspect ratios and in different proportions. The results revealed that the strength of the soil was increased by 150% to 200% when mixed with 2% of fibre having approximately 12mm length, at all compaction conditions. Also, the coefficient of consolidation increased and compression index decreased with the addition of coir fibre.Typical design charts were prepared for the design of coir geotextile reinforced unpaved roads. Some illustrative examples are also given. The results demonstrated that a considerable saving in subase / base thickness can he achieved with the use of eoir geotextiles, which in turn, would save large quantities of natural aggregates.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The work is intended to study the following important aspects of document image processing and develop new methods. (1) Segmentation ofdocument images using adaptive interval valued neuro-fuzzy method. (2) Improving the segmentation procedure using Simulated Annealing technique. (3) Development of optimized compression algorithms using Genetic Algorithm and parallel Genetic Algorithm (4) Feature extraction of document images (5) Development of IV fuzzy rules. This work also helps for feature extraction and foreground and background identification. The proposed work incorporates Evolutionary and hybrid methods for segmentation and compression of document images. A study of different neural networks used in image processing, the study of developments in the area of fuzzy logic etc is carried out in this work

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Extending IPv6 to IEEE 802.15.4-based Low power Wireless Personal Area Networks requires efficient header compression mechanisms to adapt to their limited bandwidth, memory and energy constraints. This paper presents an experimental evaluation of an improved header compression scheme which provides better compression of IPv6 multicast addresses and UDP port numbers compared to existing mechanisms. This scheme outperforms the existing compression mechanism in terms of data throughput of the network and energy consumption of nodes. It enhances throughput by up to 8% and reduces transmission energy of nodes by about 5%.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This work proposes a parallel genetic algorithm for compressing scanned document images. A fitness function is designed with Hausdorff distance which determines the terminating condition. The algorithm helps to locate the text lines. A greater compression ratio has achieved with lesser distortion

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In this paper, an improved technique for evolving wavelet coefficients refined for compression and reconstruction of fingerprint images is presented. The FBI fingerprint compression standard [1, 2] uses the cdf 9/7 wavelet filter coefficients. Lifting scheme is an efficient way to represent classical wavelets with fewer filter coefficients [3, 4]. Here Genetic algorithm (GA) is used to evolve better lifting filter coefficients for cdf 9/7 wavelet to compress and reconstruct fingerprint images with better quality. Since the lifting filter coefficients are few in numbers compared to the corresponding classical wavelet filter coefficients, they are evolved at a faster rate using GA. A better reconstructed image quality in terms of Peak-Signal-to-Noise-Ratio (PSNR) is achieved with the best lifting filter coefficients evolved for a compression ratio 16:1. These evolved coefficients perform well for other compression ratios also.