966 resultados para Helmholtz Machines
Resumo:
Ningú no dubte ja del canvi de mentalitat que s’ha produït en els darrers anys en els compradors pel què fa al mercat de l’automòbil. La seguretat i el respecte per el medi ambient, són actualment dos dels factors claus que el consumidor té en compte a l’hora de comprar un vehicle. D’altra banda en els darrers anys la Unió Europea, ha fixat tota una sèrie normatives per tal de reduir les emissions nocives a l’atmosfera. Així doncs, més seguretat i menys emissions, signifiquen vehicles que incorporin components i sistemas cada cop més sofisticats, els quals, a la vegada, necessiten de bancs d’assaig i equips de test per tal de ser validats. Aquest fet ha provocat una revolució dins dels sistemes de test per a vehicles, per als quals han augmentat enormement les exigències en quan a precisions i repetibilitat per tal d’intentar reproduir, amb la màxima fiabilitat possible, les condicions de treball que hauran de suportar els components durant el seu ús real. Les característiques dels motors elèctrics, resulten ideals per a accionar aquest tipus d’aplicacions, ja que permeten un control del parell molt acurat i una repetibilitat quasi perfecte enfront d’altres sistemas utilitzats fins no fa massa temps. Aquesta demanda creixent d’aquest tipus de màquines elèctriques, obra una nova oportunitat de negoci per a les empreses fabricants de motors elèctrics. L’objectiu principal d’aquest treball és identificar i satisfer les necessitats dels clients, dins d’un mercat industrial concret: el mercat dels motors elèctrics per a bancs de proves de components per a la indústria de l’automoció. La fita és doncs la de proporcionar les eines necessàries per tal de que una empresa, fabricant de motors elèctrics de velocitat variable, pugui realitzar el disseny, desenvolupament i llançament comercial d’un nou tipus de motor, específicament pensat per aquest mercat, amb les màximes garanties d’èxit. Com a principal conclusió, el treball argumenta que el nou producte representa una oportunitat de negoci força atractiva i rendible per a l’empresa, i permetrà diversificar la oferta de la companyia cap a un nou sector fins ara no explotat.
Resumo:
Com a resultat de les politiques i estratègies de col·laboració entre la universitat de Vic i de l’hospital i de la voluntat de realitzar activitats formatives conjuntes , s’estableix un línia de treball orientada a l’estudi i anàlisi de la situació logística interna actual del laboratori d’anàlisis clíniques de l’Hospital General de Vic. El treball es centra en el procés intern del laboratori i l’abast de l’estudi es troba limitat a les àrees especifiques d’hematologia i coagulació i bioquímica. D’aquestes dues àrees el treball realitza un estudi exhaustiu del seu procés intern, identifica les seves activitats i la seva metodologia de treball amb l’objectiu d’elaborar el Value Stream Map de cadascuna de les àrees. Les àrees de Microbiologia, Banc de Sang i Urgències resten fora d’aquest estudi exhaustiu tot i que són presents en el treball per la inevitable interacció que tenen en la globalitat del procés. El treball es centra bàsicament en els processos automatitzats tot i que els processos que es duen a terme en el laboratori són tant automatitzats com manuals. També es limita al sistema productiu intern del laboratori tot i la interacció que té aquest sistema intern amb altres centres productius del sistema com ara són els centres d’atenció primària, els diversos hospitals i centres d’atenció sociosanitària. El laboratori es troba immers en el moment de l’elaboració d’aquest treball en un situació de canvi i millora del seus processos interns que consisteixen principalment en la substitució de part la maquinària actual que obliguen a la definició d’un nou layout i d’una nova distribució de la producció a cada màquina. A nivell extern també s’estan produint millores en el sistema informàtic de gestió que afecten a part del seu procés. L’objectiu del treball és donar visibilitat total al procés de logística interna actual del laboratori, identificant clarament com són i quina seqüència tenen els processos logístics interns i els mètodes de treball actuals, tant de recursos màquina com recursos persona, per poder identificar sota una perspectiva de generació de valor, aquells punts concrets de la logística interna que poden ser millorats en quant a eficiència i productivitat amb l’objectiu que un cop identificats es puguin emprendre accions i/o projectes de millora. El treball finalitza amb un anàlisis final del procés logística interna des d’una òptica Lean. Per fer-ho, identifica aquelles activitats que no aporten valor al procés o MUDA i les classifica en set categories i es realitzen diverses propostes de millora com són la implantació d’un flux continu , anivellat i basat en un concepte pull , identifica activitats que poden ser estandarditzades i/o simplificades i proposa modificacions en les infraestructures físiques per donar major visibilitat al procés. L’aspecte humà del procés es planteja des d’un punt de vist de metodologia, formació, comunicació i aplicació de les 5S.
Resumo:
Les empreses sempre han buscat com optimitzar el màxim els seus recursos i ser més eficients a la hora de realitzar les tasques que li han estat encomanades. És per aquest motiu que constantment les empreses realitzen estudis i valoracions de com poder millorar dia a dia. Aquest fet no és diferenciador a l’empresa Serralleria i Alumini Vilaró (S.A.V), que dia a dia estudia com optimitzar els seus processos o de vegades introduir-ne de nous per tal d’expandir la seva oferta de serveis. L’empresa és dedica a la fabricació de peces metàl•liques el procés ja sigui només de tall i mecanitzat, plegat, soldadura, acabats en inoxidable, pintura i fins i tot embalatge pel que fa a la part productiva, respecte a la part d’oficina tècnica també ofereix serveis de desenvolupament de productes segons especificacions del client i reenginyeria de qualsevol producte, analitzant la part que és vol millorar. En l’actualitat l’empresa ha detectat una mancança que creu que es podria solucionar, el problema és que l’empresa disposa de varies màquines de tall, entre les quals hi ha una màquina de tall làser i el problema principal és que la càrrega de les planxes del calaix de magatzem a la bancada de la màquina es realitza o bé manualment o a través d’un gripper sostingut al pont grua, depenent del pes de la planxa a transportar. L’objectiu principal d’aquest treball és fer el disseny d’una màquina que permeti automatitzar el procés de transportar la planxa metàl•lica del calaix de magatzem dipositat sobre una taula mòbil a la bancada de la màquina de tall. El disseny que pretenem fer és complet començant per fer un disseny estructural de la màquina més els seus respectius càlculs, moviments que volem aconseguir, tria de components ( motors, sensors ...), elaboració d’un pressupost per poder fer una estimació i finalment la elaboració del programa de control de tota la màquina més la interacció amb la màquina a través d’una pantalla tàctil. Es a dir, el que pretenem és realitzar un projecte que puguem fabricar en la realitat utilitzant tota la informació continguda dins del mateix
Batch effect confounding leads to strong bias in performance estimates obtained by cross-validation.
Resumo:
BACKGROUND: With the large amount of biological data that is currently publicly available, many investigators combine multiple data sets to increase the sample size and potentially also the power of their analyses. However, technical differences ("batch effects") as well as differences in sample composition between the data sets may significantly affect the ability to draw generalizable conclusions from such studies. FOCUS: The current study focuses on the construction of classifiers, and the use of cross-validation to estimate their performance. In particular, we investigate the impact of batch effects and differences in sample composition between batches on the accuracy of the classification performance estimate obtained via cross-validation. The focus on estimation bias is a main difference compared to previous studies, which have mostly focused on the predictive performance and how it relates to the presence of batch effects. DATA: We work on simulated data sets. To have realistic intensity distributions, we use real gene expression data as the basis for our simulation. Random samples from this expression matrix are selected and assigned to group 1 (e.g., 'control') or group 2 (e.g., 'treated'). We introduce batch effects and select some features to be differentially expressed between the two groups. We consider several scenarios for our study, most importantly different levels of confounding between groups and batch effects. METHODS: We focus on well-known classifiers: logistic regression, Support Vector Machines (SVM), k-nearest neighbors (kNN) and Random Forests (RF). Feature selection is performed with the Wilcoxon test or the lasso. Parameter tuning and feature selection, as well as the estimation of the prediction performance of each classifier, is performed within a nested cross-validation scheme. The estimated classification performance is then compared to what is obtained when applying the classifier to independent data.
Resumo:
En la societat d’avui dia, les empreses depenen en gran part dels seus recursos informàtics. La seva capacitat de supervivència i innovació en el mercat actual, on la competitivitat és cada dia més forta, passa per una infraestructura informàtica que els permeti, no només desplegar i implantar ordinadors i servidors de manera ràpida i eficient sinó que també les protegeixi contra parades del sistema informàtic, problemes amb servidors, caigudes o desastres físics de hardware.Per evitar aquests problemes informàtics susceptibles de poder parar el funcionament d’una empresa es va començar a treballar en el camp de la virtualització informàtica amb l’objectiu de poder trobar solucions a aquests problemes a la vegada que s’aprofitaven els recursos de hardware existents d’una manera més òptim a i eficient, reduint així també el cost de la infraestructura informàtica.L’objectiu principal d’aquest treball és veure en primer pla la conversió d’una empresa real amb una infraestructura informàtica del tipus un servidor físic -una funció cap a una infraestructura virtual del tipus un servidor físic -varis servidors virtual -vàries funcions. Analitzarem l’estat actual de l’empresa, servidors i funcions, adquirirem el hardware necessari i farem la conversió de tots els seus servidors cap a una nova infraestructura virtual.Faig especial atenció a les explicacions de perquè utilitzo una opció i no un altre i també procuro sempre donar vàries opcions. Igualment remarco en quadres verds observacions a tenir en compte complementàries al que estic explicant en aquell moment, i en quadres vermells temes en els que s’ha de posar especial atenció en el moment en que es fan. Finalment, un cop feta la conversió, veurem els molts avantatges que ens ha reportat aquesta tecnologia a nivell de fiabilitat, estabilitat, capacitat de tolerància a errades, capacitat de ràpid desplegament de noves màquines, capacitat de recuperació del sistema i aprofitament de recursos físics.
Resumo:
La interacció home-màquina per mitjà de la veu cobreix moltes àrees d’investigació. Es destaquen entre altres, el reconeixement de la parla, la síntesis i identificació de discurs, la verificació i identificació de locutor i l’activació per veu (ordres) de sistemes robòtics. Reconèixer la parla és natural i simple per a les persones, però és un treball complex per a les màquines, pel qual existeixen diverses metodologies i tècniques, entre elles les Xarxes Neuronals. L’objectiu d’aquest treball és desenvolupar una eina en Matlab per al reconeixement i identificació de paraules pronunciades per un locutor, entre un conjunt de paraules possibles, i amb una bona fiabilitat dins d’uns marges preestablerts. El sistema és independent del locutor que pronuncia la paraula, és a dir, aquest locutor no haurà intervingut en el procés d’entrenament del sistema. S’ha dissenyat una interfície que permet l’adquisició del senyal de veu i el seu processament mitjançant xarxes neuronals i altres tècniques. Adaptant una part de control al sistema, es podria utilitzar per donar ordres a un robot com l’Alfa6Uvic o qualsevol altre dispositiu.
Resumo:
Development and environmental issues of small cities in developing countries have largely been overlooked although these settlements are of global demographic importance and often face a "triple challenge"; that is, they have limited financial and human resources to address growing environmental problems that are related to both development (e.g., pollution) and under-development (e.g., inadequate water supply). Neoliberal policy has arguably aggravated this challenge as public investments in infrastructure generally declined while the focus shifted to the metropolitan "economic growth machines". This paper develops a conceptual framework and agenda for the study of small cities in the global south, their environmental dynamics, governance and politics in the current neoliberal context. While small cities are governed in a neoliberal policy context, they are not central to neoliberalism, and their (environmental) governance therefore seems to differ from that of global cities. Furthermore, "actually existing" neoliberal governance of small cities is shaped by the interplay of regional and local politics and environmental situations. The approach of urban political ecology and the concept of rural-urban linkages are used to consider these socio-ecological processes. The conceptual framework and research agenda are illustrated in the case of India, where the agency of small cities in regard to environmental governance seems to remain limited despite formal political decentralization.
Resumo:
During timber exploitation in forest stands harvesting machines pass repeatedly along the same track and can cause soil compaction, which leads to soil erosion and restricted tree root growth. The level of soil compaction depends on the number of passes and weight of the wood load. This paper aimed to evaluate soil compaction and eucalyptus growth as affected by the number of passes and wood load of a forwarder. The study was carried out in Santa Maria de Itabira county, Minas Gerais State - Brazil, on a seven-year-old eucalyptus stand planted on an Oxisol. The trees were felled by chainsaw and manually removed. Plots of 144 m² (four rows 12 m long in a 3 x 2 m spacing) were then marked off for the conduction of two trials. The first tested the traffic intensity of a forwarder which weighed 11,900 kg and carried 12 m³ wood (density of 480 kg m-3) and passed 2, 4, and 8 times along the same track. In the second trial, the forwarder carried loads of 4, 8, and 12 m³ of wood, and the machine was driven four times along the same track. In each plot, the passes affected four rows. Eucalyptus was planted in 30 x 30 x 30 cm holes on the compacted tracks. The soil in the area is clayey (470 clay and 440 g kg-1 sand content) and at depths of 0-5 cm and 5-10 cm, respectively, soil organic carbon was 406 and 272 g kg-1 and the moisture content during the trial 248 and 249 g kg-1. These layers were assessed for soil bulk density and water-stable aggregates. The infiltration rate was measured by a cylinder infiltrometer. After 441 days the measurements were repeated, with additional analyses of: soil organic carbon, total nitrogen, N-NH4+, N-NO3-, porosity, and penetration resistance. Tree height, stem diameter, and stem dry matter were measured. Forwarder traffic increased soil compaction, resistance to penetration and microporosity while it reduced the geometric mean diameter, total porosity, macroporosity and infiltration rate. Stem dry matter yield and tree height were not affected by soil compaction. Two passes of the forwarder were enough to cause the disturbances at the highest levels. The compaction effects were still persistent 441 days after forwarder traffic.
Resumo:
Compaction is one of the most destructive factors of soil quality, however the effects on the microbial community and enzyme activity have not been investigated in detail so far. The objective of this study was to evaluate the effects of soil compaction caused by the traffic of agricultural machines on the soil microbial community and its enzyme activity. Six compaction levels were induced by tractors with different weights driving over a Eutrustox soil and the final density was measured. Soil samples were collected after corn from the layers 0-0.10 and 0.10-0.20 m. The compaction effect on all studied properties was evident. Total bacteria counts were reduced significantly (by 22-30 %) and by 38-41 % of nitrifying bacteria in the soil with highest bulk density compared to the control. On the other hand, fungi populations increased 55-86 % and denitrifying bacteria 49-53 %. Dehydrogenase activity decreased 20-34 %, urease 44-46 % and phosphatase 26-28 %. The organic matter content and soil pH decreased more in the 0-0.10 than in the 0.10-0.20 m layer and possibly influenced the reduction of the microbial counts, except denitrifying bacteria, and all enzyme activities, except urease. Results indicated that soil compaction influences the community of aerobic microorganisms and their activity. This effect can alter nutrient cycling and reduce crop yields.
Resumo:
The research considers the problem of spatial data classification using machine learning algorithms: probabilistic neural networks (PNN) and support vector machines (SVM). As a benchmark model simple k-nearest neighbor algorithm is considered. PNN is a neural network reformulation of well known nonparametric principles of probability density modeling using kernel density estimator and Bayesian optimal or maximum a posteriori decision rules. PNN is well suited to problems where not only predictions but also quantification of accuracy and integration of prior information are necessary. An important property of PNN is that they can be easily used in decision support systems dealing with problems of automatic classification. Support vector machine is an implementation of the principles of statistical learning theory for the classification tasks. Recently they were successfully applied for different environmental topics: classification of soil types and hydro-geological units, optimization of monitoring networks, susceptibility mapping of natural hazards. In the present paper both simulated and real data case studies (low and high dimensional) are considered. The main attention is paid to the detection and learning of spatial patterns by the algorithms applied.
Resumo:
Machine learning has been largely applied to analyze data in various domains, but it is still new to personalized medicine, especially dose individualization. In this paper, we focus on the prediction of drug concentrations using Support Vector Machines (S VM) and the analysis of the influence of each feature to the prediction results. Our study shows that SVM-based approaches achieve similar prediction results compared with pharmacokinetic model. The two proposed example-based SVM methods demonstrate that the individual features help to increase the accuracy in the predictions of drug concentration with a reduced library of training data.
Resumo:
Inadequate usage can degrade natural resources, particularly soils. More attention has been paid to practices aiming at the recovery of degraded soils in the last years, e.g, the use of organic fertilizers, liming and introduction of species adapted to adverse conditions. The purpose of this study was therefore to investigate the recovery of physical properties of a Red Latosol (Oxisol) degraded by the construction of a hydroelectric power station. In the study area, a soil layer about 8m thick had been withdrawn by heavy machines leading not only to soil compaction, but resulting in high-degree degradation. The experiment was arranged in a completely randomized design with nine treatments and four replications. The treatments consisted of: 1- soil mobilization by tilling (to ensure the effect of mechanical mobilization in all treatments) without planting, but growth of spontaneous vegetation; 2- Black velvet bean (Stizolobium aterrimum Piper & Tracy); 3- Pigeonpea (Cajanus cajan (L.) DC); 4- Liming + black velvet bean; 5-Liming + pigeonpea until 1994, when replaced by jack bean (Canavalia ensiformis); 6- Liming + gypsum + black velvet bean; 7- Liming + gypsum + pigeonpea until 1994, when replaced by jack bean; and two controls as reference: 8- Native Cerrado vegetation and 9- bare soil (no tilling and no planting), left under natural conditions and in this situation, without spontaneous vegetation. In treatments 1 through 7, the soil was tilled. Treatments were installed in 1992 and left unmanaged for seven years, until brachiaria (Brachiaria decumbens) was planted in all plots in 1999. Seventeen years after implantation, the properties soil macroporosity, microporosity, total porosity, bulk density and aggregate stability were assessed in the previously described treatments in the soil layers 0.00-0.10; 0.10-0.20 and 0.20-0.40 m, and soil Penetration Resistance and soil moisture in 0.00-0.15 and 0.15-0.30 m. The plants were evaluated for: brachiaria dry matter and spontaneous growth of native tree species in the plots as of 2006. Results were analyzed by variance analysis and Tukey´s test at 5 % for mean comparison. In all treatments, except for the bare soil (no recovery measures), ongoing recovery of the degraded soil physical properties was observed. Macroporosity, soil bulk density and total porosity were good soil quality indicators. The occurrence of spontaneous native species indicated the soil recovery process. The best adapted species was Machaerium acutifolium Vogel, with the largest number of plants and most advanced development; the dry matter production of B. decumbens in recovering soil was similar to normal conditions, evidencing soil recovery.
Resumo:
This article presents an experimental study about the classification ability of several classifiers for multi-classclassification of cannabis seedlings. As the cultivation of drug type cannabis is forbidden in Switzerland lawenforcement authorities regularly ask forensic laboratories to determinate the chemotype of a seized cannabisplant and then to conclude if the plantation is legal or not. This classification is mainly performed when theplant is mature as required by the EU official protocol and then the classification of cannabis seedlings is a timeconsuming and costly procedure. A previous study made by the authors has investigated this problematic [1]and showed that it is possible to differentiate between drug type (illegal) and fibre type (legal) cannabis at anearly stage of growth using gas chromatography interfaced with mass spectrometry (GC-MS) based on therelative proportions of eight major leaf compounds. The aims of the present work are on one hand to continueformer work and to optimize the methodology for the discrimination of drug- and fibre type cannabisdeveloped in the previous study and on the other hand to investigate the possibility to predict illegal cannabisvarieties. Seven classifiers for differentiating between cannabis seedlings are evaluated in this paper, namelyLinear Discriminant Analysis (LDA), Partial Least Squares Discriminant Analysis (PLS-DA), Nearest NeighbourClassification (NNC), Learning Vector Quantization (LVQ), Radial Basis Function Support Vector Machines(RBF SVMs), Random Forest (RF) and Artificial Neural Networks (ANN). The performance of each method wasassessed using the same analytical dataset that consists of 861 samples split into drug- and fibre type cannabiswith drug type cannabis being made up of 12 varieties (i.e. 12 classes). The results show that linear classifiersare not able to manage the distribution of classes in which some overlap areas exist for both classificationproblems. Unlike linear classifiers, NNC and RBF SVMs best differentiate cannabis samples both for 2-class and12-class classifications with average classification results up to 99% and 98%, respectively. Furthermore, RBFSVMs correctly classified into drug type cannabis the independent validation set, which consists of cannabisplants coming from police seizures. In forensic case work this study shows that the discrimination betweencannabis samples at an early stage of growth is possible with fairly high classification performance fordiscriminating between cannabis chemotypes or between drug type cannabis varieties.
Resumo:
THESIS ABSTRACTThis thesis project was aimed at studying the molecular mechanisms underlying learning and memory formation, in particular as they relate to the metabolic coupling between astrocytes and neurons. For that, changes in the metabolic activity of different mice brain regions after 1 or 9 days of training in an eight-arm radial maze were assessed by (14C) 2-deoxyglucose (2DG) autoradiography. Significant differences in the areas engaged during the behavioral task at day 1 (when animals are confronted for the first time to the learning task) and at day 9 (when animals are highly performing) have been identified. These areas include the hippocampus, the fornix, the parietal cortex, the laterodorsal thalamic nucleus and the mammillary bodies at day 1 ; and the anterior cingulate, the retrosplenial cortex and the dorsal striatum at day 9. Two of these cerebral regions (those presenting the greatest changes at day 1 and day 9: the hippocampus and the retrosplenial cortex, respectively) were microdissected by laser capture microscopy and selected genes related to neuron-glia metabolic coupling, glucose metabolism and synaptic plasticity were analyzed by RT-PCR. 2DG and gene expression analysis were performed at three different times: 1) immediately after the end of the behavioral paradigm, 2) 45 minutes and 3) 6 hours after training. The main goal of this study was the identification of the metabolic adaptations following the learning task. Gene expression results demonstrate that the learning task profoundly modulates the pattern of gene expression in time, meaning that these two cerebral regions with high 2DG signal (hippocampus and retrosplenial cortex) have adapted their metabolic molecular machinery in consequence. Almost all studied genes show a higher expression in the hippocampus at day 1 compared to day 9, while an increased expression was found in the retrosplenial cortex at day 9. We can observe these molecular adaptations with a short delay of 45 minutes after the end of the task. However, 6 hours after training a high gene expression was found at day 9 (compared to day 1) in both regions, suggesting that only one day of training is not sufficient to detect transcriptional modifications several hours after the task. Thus, gene expression data match 2DG results indicating a transfer of information in time (from day 1 to day 9) and in space (from the hippocampus to the retrosplenial cortex), and this at a cellular and a molecular level. Moreover, learning seems to modify the neuron-glia metabolic coupling, since several genes involved in this coupling are induced. These results also suggest a role of glia in neuronal plasticity.RESUME DU TRAVAIL DE THESECe projet de thèse a eu pour but l'étude des mécanismes moléculaires qui sont impliqués dans l'apprentissage et la mémoire et, en particulier, à les mettre en rapport avec le couplage métabolique existant entre les astrocytes et les neurones. Pour cela, des changements de l'activité métabolique dans différentes régions du cerveau des souris après 1 ou 9 jours d'entraînement dans un labyrinthe radial à huit-bras ont été évalués par autoradiographie au 2-désoxyglucose (2DG). Des différences significatives dans les régions engagées pendant la tâche comportementale au jour 1 (quand les animaux sont confrontés pour la première fois à la tâche) et au jour 9 (quand les animaux ont déjà appris) ont été identifiés. Ces régions incluent, au jour 1, l'hippocampe, le fornix, le cortex pariétal, le noyau thalamic laterodorsal et les corps mamillaires; et, au jour 9, le cingulaire antérieur, le cortex retrosplenial et le striatum dorsal. Deux de ces régions cérébrales (celles présentant les plus grands changements à jour 1 et à jour 9: l'hippocampe et le cortex retrosplenial, respectivement) ont été découpées par microdissection au laser et quelques gènes liés au couplage métabolique neurone-glie, au métabolisme du glucose et à la plasticité synaptique ont été analysées par RT-PCR. L'étude 2DG et l'analyse de l'expression de gènes ont été exécutés à trois temps différents: 1) juste après entraînement, 2) 45 minutes et 3) 6 heures après la fin de la tâche. L'objectif principal de cette étude était l'identification des adaptations métaboliques suivant la tâche d'apprentissage. Les résultats de l'expression de gènes démontrent que la tâche d'apprentissage module profondément le profile d'expression des gènes dans le temps, signifiant que ces deux régions cérébrales avec un signal 2DG élevé (l'hippocampe et le cortex retrosplenial) ont adapté leurs « machines moléculaires » en conséquence. Presque tous les gènes étudiés montrent une expression plus élevée dans l'hippocampe au jour 1 comparé au jour 9, alors qu'une expression accrue a été trouvée dans le cortex retrosplenial au jour 9. Nous pouvons observer ces adaptations moléculaires avec un retard court de 45 minutes après la fin de la tâche. Cependant, 6 heures après l'entraînement, une expression de gènes élevée a été trouvée au jour 9 (comparé à jour 1) dans les deux régions, suggérant que seulement un jour d'entraînement ne suffit pas pour détecter des modifications transcriptionelles plusieurs heures après la tâche. Ainsi, les données d'expression de gènes corroborent les résultats 2DG indiquant un transfert d'information dans le temps (de jour 1 à jour 9) et dans l'espace (de l'hippocampe au cortex retrosplenial), et ceci à un niveau cellulaire et moléculaire. D'ailleurs, la tâche d'apprentissage semble modifier le couplage métabolique neurone-glie, puisque de nombreux gènes impliqués dans ce couplage sont induits. Ces observations suggèrent un rôle important de la glie dans les mécanismes de plasticité du système nerveux.