993 resultados para Domain walls
Resumo:
The effect of age on the structure and composition of isolated and purified cell walls from cultures of Choanephora cucurbitarum was investigated by microchemical analyses, visible and infrared spectrophotometry, x-ray diffractometry and electron microscopy. Qualitative evaluation revealed the presence of lipids, proteins, neutral sugars, strong alkali soluble sugars, chitin, chitosan and uronic acids in the cell walls of both the 1 and 7 day old cultures. As the mycelium aged, there was a slight but statistically significant increase in the protein content, and a pronounced rise in the chitin and neutral sugar constituents of the cell walls. Conversely, the decrease in the chitosan content during this period had the net effect of altering the chitin: chitosan ratio from near unity in the younger cultures, to a 2:1 ratio in the 7 day old cell wall samples. Glutaraldehyde-osmium fixed thin sections of the 1 day old vegetative hyphae of £. curbitarum revealed the presence of a monolayered cell wall, which upon aging became bilayered. Replicas of acid hydrolysed cell walls demonstrated that both the 1 and 7 day old samples possessed an outer layer which was composed of finely granular amorphous material and randomly distributed microfibrils. The deposition of an inner secondary layer composed of parallel oriented microfibrils in the older hypha was correlated with an increase in the chitin content in the cell wall. The significance of these results with respect to the intimate relationship between composition and structure is discussed.
Resumo:
Activity of the medial frontal cortex (MFC) has been implicated in attention regulation and performance monitoring. The MFC is thought to generate several event-related potential (ERPs) components, known as medial frontal negativities (MFNs), that are elicited when a behavioural response becomes difficult to control (e.g., following an error or shifting from a frequently executed response). The functional significance of MFNs has traditionally been interpreted in the context of the paradigm used to elicit a specific response, such as errors. In a series of studies, we consider the functional similarity of multiple MFC brain responses by designing novel performance monitoring tasks and exploiting advanced methods for electroencephalography (EEG) signal processing and robust estimation statistics for hypothesis testing. In study 1, we designed a response cueing task and used Independent Component Analysis (ICA) to show that the latent factors describing a MFN to stimuli that cued the potential need to inhibit a response on upcoming trials also accounted for medial frontal brain responses that occurred when individuals made a mistake or inhibited an incorrect response. It was also found that increases in theta occurred to each of these task events, and that the effects were evident at the group level and in single cases. In study 2, we replicated our method of classifying MFC activity to cues in our response task and showed again, using additional tasks, that error commission, response inhibition, and, to a lesser extent, the processing of performance feedback all elicited similar changes across MFNs and theta power. In the final study, we converted our response cueing paradigm into a saccade cueing task in order to examine the oscillatory dynamics of response preparation. We found that, compared to easy pro-saccades, successfully preparing a difficult anti-saccadic response was characterized by an increase in MFC theta and the suppression of posterior alpha power prior to executing the eye movement. These findings align with a large body of literature on performance monitoring and ERPs, and indicate that MFNs, along with their signature in theta power, reflects the general process of controlling attention and adapting behaviour without the need to induce error commission, the inhibition of responses, or the presentation of negative feedback.
Resumo:
Receipt from Allan and Bro. of St. Catharines for work done on walls, Oct. 31, 1876.
Resumo:
The rationalizability of a choice function on an arbitrary domain under various coherence properties has received a considerable amount of attention both in the long-established and in the recent literature. Because domain closedness conditions play an important role in much of rational choice theory, we examine the consequences of these requirements on the logical relationships among different versions of rationalizability. It turns out that closedness under intersection does not lead to any results differing from those obtained on arbitrary domains. In contrast, closedness under union allows us to prove an additional implication.
Resumo:
On étudie l’application des algorithmes de décomposition matricielles tel que la Factorisation Matricielle Non-négative (FMN), aux représentations fréquentielles de signaux audio musicaux. Ces algorithmes, dirigés par une fonction d’erreur de reconstruction, apprennent un ensemble de fonctions de base et un ensemble de coef- ficients correspondants qui approximent le signal d’entrée. On compare l’utilisation de trois fonctions d’erreur de reconstruction quand la FMN est appliquée à des gammes monophoniques et harmonisées: moindre carré, divergence Kullback-Leibler, et une mesure de divergence dépendente de la phase, introduite récemment. Des nouvelles méthodes pour interpréter les décompositions résultantes sont présentées et sont comparées aux méthodes utilisées précédemment qui nécessitent des connaissances du domaine acoustique. Finalement, on analyse la capacité de généralisation des fonctions de bases apprises par rapport à trois paramètres musicaux: l’amplitude, la durée et le type d’instrument. Pour ce faire, on introduit deux algorithmes d’étiquetage des fonctions de bases qui performent mieux que l’approche précédente dans la majorité de nos tests, la tâche d’instrument avec audio monophonique étant la seule exception importante.
Resumo:
L’évolution récente des commutateurs de sélection de longueurs d’onde (WSS -Wavelength Selective Switch) favorise le développement du multiplexeur optique d’insertionextraction reconfigurable (ROADM - Reconfigurable Optical Add/Drop Multiplexers) à plusieurs degrés sans orientation ni coloration, considéré comme un équipement fort prometteur pour les réseaux maillés du futur relativement au multiplexage en longueur d’onde (WDM -Wavelength Division Multiplexing ). Cependant, leur propriété de commutation asymétrique complique la question de l’acheminement et de l’attribution des longueur d’ondes (RWA - Routing andWavelength Assignment). Or la plupart des algorithmes de RWA existants ne tiennent pas compte de cette propriété d’asymétrie. L’interruption des services causée par des défauts d’équipements sur les chemins optiques (résultat provenant de la résolution du problème RWA) a pour conséquence la perte d’une grande quantité de données. Les recherches deviennent ainsi incontournables afin d’assurer la survie fonctionnelle des réseaux optiques, à savoir, le maintien des services, en particulier en cas de pannes d’équipement. La plupart des publications antérieures portaient particulièrement sur l’utilisation d’un système de protection permettant de garantir le reroutage du trafic en cas d’un défaut d’un lien. Cependant, la conception de la protection contre le défaut d’un lien ne s’avère pas toujours suffisante en termes de survie des réseaux WDM à partir de nombreux cas des autres types de pannes devenant courant de nos jours, tels que les bris d’équipements, les pannes de deux ou trois liens, etc. En outre, il y a des défis considérables pour protéger les grands réseaux optiques multidomaines composés de réseaux associés à un domaine simple, interconnectés par des liens interdomaines, où les détails topologiques internes d’un domaine ne sont généralement pas partagés à l’extérieur. La présente thèse a pour objectif de proposer des modèles d’optimisation de grande taille et des solutions aux problèmes mentionnés ci-dessus. Ces modèles-ci permettent de générer des solutions optimales ou quasi-optimales avec des écarts d’optimalité mathématiquement prouvée. Pour ce faire, nous avons recours à la technique de génération de colonnes afin de résoudre les problèmes inhérents à la programmation linéaire de grande envergure. Concernant la question de l’approvisionnement dans les réseaux optiques, nous proposons un nouveau modèle de programmation linéaire en nombres entiers (ILP - Integer Linear Programming) au problème RWA afin de maximiser le nombre de requêtes acceptées (GoS - Grade of Service). Le modèle résultant constitue celui de l’optimisation d’un ILP de grande taille, ce qui permet d’obtenir la solution exacte des instances RWA assez grandes, en supposant que tous les noeuds soient asymétriques et accompagnés d’une matrice de connectivité de commutation donnée. Ensuite, nous modifions le modèle et proposons une solution au problème RWA afin de trouver la meilleure matrice de commutation pour un nombre donné de ports et de connexions de commutation, tout en satisfaisant/maximisant la qualité d’écoulement du trafic GoS. Relativement à la protection des réseaux d’un domaine simple, nous proposons des solutions favorisant la protection contre les pannes multiples. En effet, nous développons la protection d’un réseau d’un domaine simple contre des pannes multiples, en utilisant les p-cycles de protection avec un chemin indépendant des pannes (FIPP - Failure Independent Path Protecting) et de la protection avec un chemin dépendant des pannes (FDPP - Failure Dependent Path-Protecting). Nous proposons ensuite une nouvelle formulation en termes de modèles de flots pour les p-cycles FDPP soumis à des pannes multiples. Le nouveau modèle soulève un problème de taille, qui a un nombre exponentiel de contraintes en raison de certaines contraintes d’élimination de sous-tour. Par conséquent, afin de résoudre efficacement ce problème, on examine : (i) une décomposition hiérarchique du problème auxiliaire dans le modèle de décomposition, (ii) des heuristiques pour gérer efficacement le grand nombre de contraintes. À propos de la protection dans les réseaux multidomaines, nous proposons des systèmes de protection contre les pannes d’un lien. Tout d’abord, un modèle d’optimisation est proposé pour un système de protection centralisée, en supposant que la gestion du réseau soit au courant de tous les détails des topologies physiques des domaines. Nous proposons ensuite un modèle distribué de l’optimisation de la protection dans les réseaux optiques multidomaines, une formulation beaucoup plus réaliste car elle est basée sur l’hypothèse d’une gestion de réseau distribué. Ensuite, nous ajoutons une bande pasiv sante partagée afin de réduire le coût de la protection. Plus précisément, la bande passante de chaque lien intra-domaine est partagée entre les p-cycles FIPP et les p-cycles dans une première étude, puis entre les chemins pour lien/chemin de protection dans une deuxième étude. Enfin, nous recommandons des stratégies parallèles aux solutions de grands réseaux optiques multidomaines. Les résultats de l’étude permettent d’élaborer une conception efficace d’un système de protection pour un très large réseau multidomaine (45 domaines), le plus large examiné dans la littérature, avec un système à la fois centralisé et distribué.
Resumo:
Le cycle glycérolipides/acides gras libres (GL/FFA) est une voie métabolique clé qui relie le métabolisme du glucose et des acides gras et il est composé de deux processus métaboliques appelés lipogenèse et lipolyse. Le cycle GL/FFA, en particulier la lipolyse des triglycérides, génère diverses molécules de signalisation pour réguler la sécrétion d'insuline dans les cellules bêta pancréatiques et la thermogenèse non-frissonnante dans les adipocytes. Actuellement, les lipides provenant spécifiquement de la lipolyse impliqués dans ce processus sont mal connus. L’hydrolyse des triglycérides dans les cellules β est réalisée par les actions successives de la triglycéride lipase adipocytaire pour produire le diacylglycérol, ensuite par la lipase hormono-sensible pour produire le monoacylglycérol (MAG) et enfin par la MAG lipase (MAGL) qui relâche du glycerol et des acides gras. Dans les cellules bêta, la MAGL classique est très peu exprimée et cette étude a démontré que l’hydrolyse de MAG dans les cellules β est principalement réalisée par l'α/β-Hydrolase Domain-6 (ABHD6) nouvellement identifiée. L’inhibition d’ABHD6 par son inhibiteur spécifique WWL70, conduit à une accumulation des 1-MAG à longues chaines saturées à l'intérieur des cellules, accompagnée d’une augmentation de la sécrétion d'insuline stimulée par le glucose (GSIS). Baisser les niveaux de MAG en surexprimant ABHD6 dans la lignée cellulaire bêta INS832/13 réduit la GSIS, tandis qu’une augmentation des niveaux de MAG par le « knockdown » d’ABHD6 améliore la GSIS. L'exposition aiguë des monoacylglycérols exogènes stimule la sécrétion d'insuline de manière dose-dépendante et restaure la GSIS supprimée par un inhibiteur de lipases appelé orlistat. En outre, les souris avec une inactivation du gène ABHD6 dans tous les tissus (ABHD6-KO) et celles avec une inactivation du gène ABHD6 spécifiquement dans la cellule β présentent une GSIS stimulée, et leurs îlots montrent une augmentation de la production de monoacylglycérol et de la sécrétion d'insuline en réponse au glucose. L’inhibition d’ABHD6 chez les souris diabétiques (modèle induit par de faibles doses de streptozotocine) restaure la GSIS et améliore la tolérance au glucose. De plus, les résultats montrent que les MAGs non seulement améliorent la GSIS, mais potentialisent également la sécrétion d’insuline induite par les acides gras libres ainsi que la sécrétion d’insuline induite par divers agents et hormones, sans altération de l'oxydation et l'utilisation du glucose ainsi que l'oxydation des acides gras. Nous avons démontré que le MAG se lie à la protéine d’amorçage des vésicules appelée Munc13-1 et l’active, induisant ainsi l’exocytose de l'insuline. Sur la base de ces observations, nous proposons que le 1-MAG à chaines saturées agit comme facteur de couplage métabolique pour réguler la sécrétion d'insuline et que ABHD6 est un modulateur négatif de la sécrétion d'insuline. En plus de son rôle dans les cellules bêta, ABHD6 est également fortement exprimé dans les adipocytes et son niveau est augmenté avec l'obésité. Les souris dépourvues globalement d’ABHD6 et nourris avec une diète riche en gras (HFD) montrent une faible diminution de la prise alimentaire, une diminution du gain de poids corporel et de la glycémie à jeun et une amélioration de la tolérance au glucose et de la sensibilité à l'insuline et ont une activité locomotrice accrue. En outre, les souris ABHD6-KO affichent une augmentation de la dépense énergétique et de la thermogenèse induite par le froid. En conformité avec ceci, ces souris présentent des niveaux élevés d’UCP1 dans les adipocytes blancs et bruns, indiquant le brunissement des adipocytes blancs. Le phénotype de brunissement est reproduit dans les souris soit en les traitant de manière chronique avec WWL70 (inhibiteur d’ABHD6) ou des oligonucléotides anti-sense ciblant l’ABHD6. Les tissus adipeux blanc et brun isolés de souris ABHD6-KO montrent des niveaux très élevés de 1-MAG, mais pas de 2-MAG. L'augmentation des niveaux de MAG soit par administration exogène in vitro de 1-MAG ou par inhibition ou délétion génétique d’ABHD6 provoque le brunissement des adipocytes blancs. Une autre évidence indique que les 1-MAGs sont capables de transactiver PPARα et PPARγ et que l'effet de brunissement induit par WWL70 ou le MAG exogène est aboli par les antagonistes de PPARα et PPARγ. L’administration in vivo de l’antagoniste de PPARα GW6471 à des souris ABHD6-KO inverse partiellement les effets causés par l’inactivation du gène ABHD6 sur le gain de poids corporel, et abolit l’augmentation de la thermogenèse, le brunissement du tissu adipeux blanc et l'oxydation des acides gras dans le tissu adipeux brun. L’ensemble de ces observations indique que ABHD6 régule non seulement l’homéostasie de l'insuline et du glucose, mais aussi l'homéostasie énergétique et la fonction des tissus adipeux. Ainsi, 1-MAG agit non seulement comme un facteur de couplage métabolique pour réguler la sécrétion d'insuline en activant Munc13-1 dans les cellules bêta, mais régule aussi le brunissement des adipocytes blancs et améliore la fonction de la graisse brune par l'activation de PPARα et PPARγ. Ces résultats indiquent que ABHD6 est une cible prometteuse pour le développement de thérapies contre l'obésité, le diabète de type 2 et le syndrome métabolique.
Resumo:
Gabion faced re.taining walls are essentially semi rigid structures that can generally accommodate large lateral and vertical movements without excessive structural distress. Because of this inherent feature, they offer technical and economical advantage over the conventional concrete gravity retaining walls. Although they can be constructed either as gravity type or reinforced soil type, this work mainly deals with gabion faced reinforced earth walls as they are more suitable to larger heights. The main focus of the present investigation was the development of a viable plane strain two dimensional non linear finite element analysis code which can predict the stress - strain behaviour of gabion faced retaining walls - both gravity type and reinforced soil type. The gabion facing, backfill soil, In - situ soil and foundation soil were modelled using 20 four noded isoparametric quadrilateral elements. The confinement provided by the gabion boxes was converted into an induced apparent cohesion as per the membrane correction theory proposed by Henkel and Gilbert (1952). The mesh reinforcement was modelled using 20 two noded linear truss elements. The interactions between the soil and the mesh reinforcement as well as the facing and backfill were modelled using 20 four noded zero thickness line interface elements (Desai et al., 1974) by incorporating the nonlinear hyperbolic formulation for the tangential shear stiffness. The well known hyperbolic formulation by Ouncan and Chang (1970) was used for modelling the non - linearity of the soil matrix. The failure of soil matrix, gabion facing and the interfaces were modelled using Mohr - Coulomb failure criterion. The construction stages were also modelled.Experimental investigations were conducted on small scale model walls (both in field as well as in laboratory) to suggest an alternative fill material for the gabion faced retaining walls. The same were also used to validate the finite element programme developed as a part of the study. The studies were conducted using different types of gabion fill materials. The variation was achieved by placing coarse aggregate and quarry dust in different proportions as layers one above the other or they were mixed together in the required proportions. The deformation of the wall face was measured and the behaviour of the walls with the variation of fill materials was analysed. It was seen that 25% of the fill material in gabions can be replaced by a soft material (any locally available material) without affecting the deformation behaviour to large extents. In circumstances where deformation can be allowed to some extents, even up to 50% replacement with soft material can be possible.The developed finite element code was validated using experimental test results and other published results. Encouraged by the close comparison between the theory and experiments, an extensive and systematic parametric study was conducted, in order to gain a closer understanding of the behaviour of the system. Geometric parameters as well as material parameters were varied to understand their effect on the behaviour of the walls. The final phase of the study consisted of developing a simplified method for the design of gabion faced retaining walls. The design was based on the limit state method considering both the stability and deformation criteria. The design parameters were selected for the system and converted to dimensionless parameters. Thus the procedure for fixing the dimensions of the wall was simplified by eliminating the conventional trial and error procedure. Handy design charts were developed which would prove as a hands - on - tool to the design engineers at site. Economic studies were also conducted to prove the cost effectiveness of the structures with respect to the conventional RCC gravity walls and cost prediction models and cost breakdown ratios were proposed. The studies as a whole are expected to contribute substantially to understand the actual behaviour of gabion faced retaining wall systems with particular reference to the lateral deformations.
Resumo:
The detection of buried objects using time-domain freespace measurements was carried out in the near field. The location of a hidden object was determined from an analysis of the reflected signal. This method can be extended to detect any number of objects. Measurements were carried out in the X- and Ku-bands using ordinary rectangular pyramidal horn antennas of gain 15 dB. The same antenna was used as the transmitter and recei er. The experimental results were compared with simulated results by applying the two-dimensional finite-difference time-domain(FDTD)method, and agree well with each other. The dispersi e nature of the dielectric medium was considered for the simulation.
Resumo:
A Monte Carlo simulation study of the vacancy-assisted domain growth in asymmetric binary alloys is presented. The system is modeled using a three-state ABV Hamiltonian which includes an asymmetry term. Our simulated system is a stoichiometric two-dimensional binary alloy with a single vacancy which evolves according to the vacancy-atom exchange mechanism. We obtain that, compared to the symmetric case, the ordering process slows down dramatically. Concerning the asymptotic behavior it is algebraic and characterized by the Allen-Cahn growth exponent x51/2. The late stages of the evolution are preceded by a transient regime strongly affected by both the temperature and the degree of asymmetry of the alloy. The results are discussed and compared to those obtained for the symmetric case.
Resumo:
Data mining is one of the hottest research areas nowadays as it has got wide variety of applications in common man’s life to make the world a better place to live. It is all about finding interesting hidden patterns in a huge history data base. As an example, from a sales data base, one can find an interesting pattern like “people who buy magazines tend to buy news papers also” using data mining. Now in the sales point of view the advantage is that one can place these things together in the shop to increase sales. In this research work, data mining is effectively applied to a domain called placement chance prediction, since taking wise career decision is so crucial for anybody for sure. In India technical manpower analysis is carried out by an organization named National Technical Manpower Information System (NTMIS), established in 1983-84 by India's Ministry of Education & Culture. The NTMIS comprises of a lead centre in the IAMR, New Delhi, and 21 nodal centres located at different parts of the country. The Kerala State Nodal Centre is located at Cochin University of Science and Technology. In Nodal Centre, they collect placement information by sending postal questionnaire to passed out students on a regular basis. From this raw data available in the nodal centre, a history data base was prepared. Each record in this data base includes entrance rank ranges, reservation, Sector, Sex, and a particular engineering. From each such combination of attributes from the history data base of student records, corresponding placement chances is computed and stored in the history data base. From this data, various popular data mining models are built and tested. These models can be used to predict the most suitable branch for a particular new student with one of the above combination of criteria. Also a detailed performance comparison of the various data mining models is done.This research work proposes to use a combination of data mining models namely a hybrid stacking ensemble for better predictions. A strategy to predict the overall absorption rate for various branches as well as the time it takes for all the students of a particular branch to get placed etc are also proposed. Finally, this research work puts forward a new data mining algorithm namely C 4.5 * stat for numeric data sets which has been proved to have competent accuracy over standard benchmarking data sets called UCI data sets. It also proposes an optimization strategy called parameter tuning to improve the standard C 4.5 algorithm. As a summary this research work passes through all four dimensions for a typical data mining research work, namely application to a domain, development of classifier models, optimization and ensemble methods.