1000 resultados para Fonctions cognitives


Relevância:

10.00% 10.00%

Publicador:

Resumo:

De manière générale, l'autonomie des établissements de formation influence positivement la performance scolaire. Une enquête réalisée en Suisse romande auprès de 219 cadres scolaires permet, dans la présente contribution, de mesurer l'écart existant entre le degré d'autonomie souhaitée par les cadres scolaires d'une part et le degré d'autonomie dont ils disent disposer d'autre part. Le traitement descriptif des données de l'enquête démontre que, dans tous les domaines de gestion, les cadres scolaires souhaitent disposer de plus d'autonomie qu'ils n'en perçoivent. Ce constat est valable dans tous les cantons, tous les degrés du système éducatif et toutes les fonctions. Le degré d'autonomie souhaitée ne varie que peu selon les cantons, les degrés ou les fonctions. Sur cette base, il n'est pas possible de conclure à la nécessité ou à la pertinence d'un degré d'autonomie différenciée selon les cantons, les degrés ou les fonctions. Le traitement analytique des données de l'enquête identifie les facteurs expliquant l'écart entre les degrés d'autonomie souhaitée et perçue. Cet écart est plus élevé que la moyenne dans les cantons de Fribourg et de Genève, dans le degré primaire et dans la fonction de directeur. En d'autres termes, l'adéquation entre les degrés d'autonomie souhaitée et perçue est moins bonne dans ces cantons, ce degré et cette fonction. Un rattrapage en matière de délégation d'autonomie est dès lors possible. La reconnaissance, à l'intérieur de l'établissement, d'une faculté de conduite et de pilotage à la direction exerce un effet positif sur le degré d'autonomie souhaitée et un effet positif plus important encore sur le degré perçu. Par conséquent, il apparaît qu'une direction dont la faculté de conduite est avérée souhaite non seulement disposer de plus d'autonomie mais parvienne à obtenir (ou à « gagner ») plus d'autonomie. School autonomy has a positive influence on pupils' performance. This article presents the results of a survey conducted in the French-speaking part of Switzerland on 219 school leaders. The objective of the survey is to measure and to explain the gap between the level of autonomy desired by school leaders, and the level of autonomy that they perceive. Descriptive statistics show that, in every single management area, school leaders wish to have more autonomy than they actually have. This result is valid in all cantons, all levels of the education system and all types of job. The desired level of autonomy varies only slightly depending on the cantons, the levels of the education system and the types of job. On this basis, it is not possible to conclude that it is necessary and relevant to differentiate the level of autonomy depending on the cantons, the levels of the education system and the types of job. Analytical statistics identify the explanatory variables of the gap between the desired level of autonomy and the perceived level of autonomy. This gap is higher than average in the cantons of Fribourg and Geneva, in the primary level of education and in the position of head-teacher. In other words, the adequacy between the desired and the perceived levels of autonomy is worse in these cantons, this level and this position. As a result, a catch-up on the delegation of school autonomy is possible. Results also show that school leaders, whose management competence is recognized by its staff, not only want more autonomy but succeed in securing (or "gaining") more autonomy.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Spatial hearing refers to a set of abilities enabling us to determine the location of sound sources, redirect our attention toward relevant acoustic events, and recognize separate sound sources in noisy environments. Determining the location of sound sources plays a key role in the way in which humans perceive and interact with their environment. Deficits in sound localization abilities are observed after lesions to the neural tissues supporting these functions and can result in serious handicaps in everyday life. These deficits can, however, be remediated (at least to a certain degree) by the surprising capacity of reorganization that the human brain possesses following damage and/or learning, namely, the brain plasticity. In this thesis, our aim was to investigate the functional organization of auditory spatial functions and the learning-induced plasticity of these functions. Overall, we describe the results of three studies. The first study entitled "The role of the right parietal cortex in sound localization: A chronometric single pulse transcranial magnetic stimulation study" (At et al., 2011), study A, investigated the role of the right parietal cortex in spatial functions and its chronometry (i.e. the critical time window of its contribution to sound localizations). We concentrated on the behavioral changes produced by the temporarily inactivation of the parietal cortex with transcranial magnetic stimulation (TMS). We found that the integrity of the right parietal cortex is crucial for localizing sounds in the space and determined a critical time window of its involvement, suggesting a right parietal dominance for auditory spatial discrimination in both hemispaces. In "Distributed coding of the auditory space in man: evidence from training-induced plasticity" (At et al., 2013a), study B, we investigated the neurophysiological correlates and changes of the different sub-parties of the right auditory hemispace induced by a multi-day auditory spatial training in healthy subjects with electroencephalography (EEG). We report a distributed coding for sound locations over numerous auditory regions, particular auditory areas code specifically for precise parts of the auditory space, and this specificity for a distinct region is enhanced with training. In the third study "Training-induced changes in auditory spatial mismatch negativity" (At et al., 2013b), study C, we investigated the pre-attentive neurophysiological changes induced with a training over 4 days in healthy subjects with a passive mismatch negativity (MMN) paradigm. We showed that training changed the mechanisms for the relative representation of sound positions and not the specific lateralization themselves and that it changed the coding in right parahippocampal regions. - L'audition spatiale désigne notre capacité à localiser des sources sonores dans l'espace, de diriger notre attention vers les événements acoustiques pertinents et de reconnaître des sources sonores appartenant à des objets distincts dans un environnement bruyant. La localisation des sources sonores joue un rôle important dans la façon dont les humains perçoivent et interagissent avec leur environnement. Des déficits dans la localisation de sons sont souvent observés quand les réseaux neuronaux impliqués dans cette fonction sont endommagés. Ces déficits peuvent handicaper sévèrement les patients dans leur vie de tous les jours. Cependant, ces déficits peuvent (au moins à un certain degré) être réhabilités grâce à la plasticité cérébrale, la capacité du cerveau humain à se réorganiser après des lésions ou un apprentissage. L'objectif de cette thèse était d'étudier l'organisation fonctionnelle de l'audition spatiale et la plasticité induite par l'apprentissage de ces fonctions. Dans la première étude intitulé « The role of the right parietal cortex in sound localization : A chronometric single pulse study » (At et al., 2011), étude A, nous avons examiné le rôle du cortex pariétal droit dans l'audition spatiale et sa chronométrie, c'est-à- dire le moment critique de son intervention dans la localisation de sons. Nous nous sommes concentrés sur les changements comportementaux induits par l'inactivation temporaire du cortex pariétal droit par le biais de la Stimulation Transcrânienne Magnétique (TMS). Nous avons démontré que l'intégrité du cortex pariétal droit est cruciale pour localiser des sons dans l'espace. Nous avons aussi défini le moment critique de l'intervention de cette structure. Dans « Distributed coding of the auditory space : evidence from training-induced plasticity » (At et al., 2013a), étude B, nous avons examiné la plasticité cérébrale induite par un entraînement des capacités de discrimination auditive spatiale de plusieurs jours. Nous avons montré que le codage des positions spatiales est distribué dans de nombreuses régions auditives, que des aires auditives spécifiques codent pour des parties données de l'espace et que cette spécificité pour des régions distinctes est augmentée par l'entraînement. Dans « Training-induced changes in auditory spatial mismatch negativity » (At et al., 2013b), étude C, nous avons examiné les changements neurophysiologiques pré- attentionnels induits par un entraînement de quatre jours. Nous avons montré que l'entraînement modifie la représentation des positions spatiales entraînées et non-entrainées, et que le codage de ces positions est modifié dans des régions parahippocampales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé large public: Une altération localisée du métabolisme du glucose, le substrat énergétique préférentiellement utilisé dans le cerveau, est un trait caractéristique précoce de la maladie d'Alzheimer (MA). Il est maintenant largement admis que le beta-amyloïde, la neuroinflammation et le stress oxydatif participent au développement de la MA. Cependant les mécanismes cellulaires de la pathogenèse restent à identifier. Le métabolisme cérébral a ceci de remarquable qu'il repose sur la coopération entre deux types cellulaires, ainsi les astrocytes et les neurones constituent une unité métabolique. Les astrocytes sont notamment responsables de fournir aux neurones des substrats énergétiques, ainsi que des précurseurs du glutathion pour la défense contre le stress oxydatif. Ces fonctions astrocytaires sont essentielles au bon fonctionnement et à la survie neuronale; par conséquent, une altération de ces fonctions astrocytaires pourrait participer au développement de certaines maladies cérébrales. Le but de ce travail est, dans un premier temps, d'explorer les effets de médiateurs de la neuroinflammation (les cytokines pro-inflammatoires) et du peptide beta-amyloïde sur le métabolisme des astrocytes corticaux, en se focalisant sur les éléments en lien avec le métabolisme énergétique et le stress oxydatif. Puis, dans un second temps, de caractériser les conséquences pour les neurones des modifications du métabolisme astrocytaire induites par ces substances. Les résultats obtenus ici montrent que les cytokines pro-inflammatoires et le beta-amyloïde induisent une profonde altération du métabolisme astrocytaire, selon deux profils distincts. Les cytokines pro-inflammatoires, particulièrement en combinaison, agissent comme « découpleurs » du métabolisme énergétique du glucose, en diminuant l'apport potentiel de substrats énergétiques aux neurones. En plus de son effet propre, le peptide beta-amyloïde potentialise les effets des cytokines pro-inflammatoires. Or, dans le cerveau de patients atteints de la MA, les astrocytes sont exposés simultanément à ces deux types de substances. Les deux types de substances ont un effet ambivalent en termes de stress oxydatif. Ils induisent à la fois une augmentation de la libération de glutathion (potentiellement protecteur pour les neurones voisins) et la production d'espèces réactives de l'oxygène (potentiellement toxiques). Etant donné l'importance de la coopération entre astrocytes et neurones, ces modulations du métabolisme astrocytaire pourraient donc avoir un retentissement majeur sur les cellules environnantes, et en particulier sur la fonction et la survie neuronale. Résumé Les astrocytes et les neurones constituent une unité métabolique. Les astrocytes sont notamment responsables de fournir aux neurones des substrats énergétiques, tels que le lactate, ainsi que des précurseurs du glutathion pour la défense contre le stress oxydatif. Une altération localisée du métabolisme du glucose, le substrat énergétique préférentiellement utilisé dans le cerveau, est un trait caractéristique, précoce, de la maladie d'Alzheimer (MA). Il est maintenant largement admis que le beta-amyloïde, la neuroinflammation et le stress oxydatif participent au développement de la MA. Cependant, les mécanismes cellulaires de la pathogenèse restent à identifier. Le but de ce travail est d'explorer les effets des cytokines pro-inflammatoires (Il-1 ß et TNFα) et du beta-amyloïde (Aß) sur le métabolisme du glucose des astrocytes corticaux en culture primaire ainsi que de caractériser les conséquences, pour la viabilité des neurones voisins, des modifications du métabolisme astrocytaire induites par ces substances. Les résultats obtenus montrent que les cytokines pro-inflammatoires et le beta-amyloïde induisent une profonde altération du métabolisme astrocytaire, selon deux profils distincts. Les cytokines pro-inflammatoires, particulièrement en combinaison, agissent comme « découpleurs » du métabolisme glycolytique astrocytaire. Après 48 heures, le traitement avec TNFα et Il-lß cause une augmentation de la capture de glucose et de son métabolisme dans la voie des pentoses phosphates et dans le cycle de Krebs. A l'inverse, il cause une diminution de la libération de lactate et des stocks cellulaires de glycogène. En combinaison avec les cytokines tel qu'in vivo dans les cerveaux de patients atteints de MA, le peptide betaamyloïde potentialise les effets décrits ci-dessus. Isolément, le Aß cause une augmentation coordonnée de la capture de glucose et de toutes les voies de son métabolisme (libération de lactate, glycogenèse, voie des pentoses phosphate et cycle de Krebs). Les traitements altèrent peu les taux de glutathion intracellulaires, par contre ils augmentent massivement la libération de glutathion dans le milieu extracellulaire. A l'inverse, les deux types de traitements augmentent la production intracellulaire d'espèces réactives de l'oxygène (ROS). De plus, les cytokines pro-inflammatoires en combinaison augmentent massivement la production des ROS dans l'espace extracellulaire. Afin de caractériser l'impact de ces altérations métaboliques sur la viabilité des neurones environnants, un modèle de co-culture et des milieux conditionnés astrocytaires ont été utilisés. Les résultats montrent qu'en l'absence d'une source exogène d'antioxydants, la présence d'astrocytes favorise la viabilité neuronale ainsi que leur défense contre le stress oxydatif. Cette propriété n'est cependant pas modulée par les différents traitements. D'autre part, la présence d'astrocytes, et non de milieu conditionné, protège les neurones contre l'excitotoxicité due au glutamate. Les astrocytes prétraités (aussi bien avec le beta-amyloïde qu'avec les cytokines pro-inflammatoires) perdent cette propriété. Cet élément suggère que la perturbation du métabolisme astrocytaire causé par les cytokines pro-inflammatoires ou le beta-amyloïde pourrait participer à l'atteinte de la viabilité neuronale associée à certaines pathologies neurodégénératives.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

D'une certaine manière, la rhétorique est un art cognitif. L'art de discourir en situation concrète dans l'espoir de faire adhérer l'auditoire à une thèse suppose une forte aptitude cognitive: celle de se représenter la façon dont l'auditoire lui-même se représente une situation rhétorique. Or, à partir du moment où agir sur les représentations d'autrui est facilité par des techniques rhétoriques ou sophistiques, la question de la tromperie verbale s'est immiscée dans des affaires de régulation sociale et, avec elle, des enjeux tant de crédibilité que de crédulité. Dans le cadre démocratique rendant encore plus aiguë une forme de dépendance à l'information d'autrui, la nécessité de croire tout comme la possibilité d'être leurré mettent à l'épreuve tant le fonctionnement social de la Cité que l'évaluation des informations et de leurs auteurs. Le but des contributions de cet ouvrage n'est pas de dénoncer les effets de certains schèmes argumentatifs que d'aucuns jugeraient fallacieux ni d'ajouter une couche nouvelle aux critiques des sophismes, mais d'étudier leur fonctionnement et leurs effets cognitifs hic et nunc. Quels sont les mécanismes langagiers et cognitifs qui expliquent la «performance» des arguments réputés fallacieux? Comment fonctionnent les stratégies rhétoriques à l'intersection entre cognition, sciences du langage et société? Cet ouvrage, issu du colloque Communication et Cognition: manipulation, persuasion et biais dans le langage, tenu à Neuchâtel du 26 au 28 janvier 2011, propose plusieurs propositions originales ou hypothèses stimulantes dans l'espoir qu'elles inspireront tant les chercheurs spécialisés en rhétorique et sciences du langage à aller voir du côté de la psychologie cognitive que les spécialistes de ce domaine à mettre en évidence la rhétoricité de leurs recherches. English version: In a way, rhetoric is a cognitive art. The art of speaking in concrete situations in the hope of gaining the audience's consent on a given issue requires the operation of a cognitive ability: that of being able to represent the way an audience represents itself a rhetorical situation. Nonetheless, once we consider that rhetorical or sophistic techniques influence people's representations, verbal deception becomes a matter of social regulation, together with issues of credibility and credulity. In a democratic context fostering a form of dependence towards other people's information, the necessity of believing everything and the possibility of being duped are challenges for both the social management of the City and the evaluation of information and of its sources. The contribution of the chapters of this volume is neither to be found in the condemnation of the fallacious effects of specific argument schemes nor in the addition of yet another layer to fallacy criticism, but in the study of how fallacies work, hic et nunc. What are the linguistic and cognitive mechanisms at play behind the "performance" of fallacious arguments? How do rhetorical strategies work at the interface of cognition, language science and society? This book gathers papers that were presented during the international conference Communication & Cognition: manipulation, persuasion and biases in language, held at the University of Neuchâtel in January 2011. A number of original proposals and stimulating hypotheses emerge from them: we hope that these will inspire researchers in the language sciences who specialise in rhetoric to take on board cognitive scientific insights but also researchers in cognitive science to engage with the rhetoricity of their own research.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Suivre le parcours de quelques membres des bureaux de trois associations de quartier à Casablanca, notamment via les qualifications que les acteurs donnent eux-mêmes de leurs actions, révèle les intrications de l'espace associatif et de la sphère politique au Maroc. À travers un jeu de miroir, les frontières entre ces deux univers font l'objet de luttes continuelles. L'action associative se construit tantôt en dissociation avec « la politique », tantôt en connexion avec elle. Elle est alors investie comme « activité sociale », substitut à la participation politique, tribune pour des acteurs marginalisés ou tremplin à l'échelle locale, et peut conduire à une renégociation du rapport au politique. Du fait même des points de jonction entre scènes associative, partisane, électorale, syndicale et protestataire, l'action associative expose les primo-engagés à plusieurs types de participations. Elle les dote de compétences praxiques et cognitives, les projette encore davantage dans un terrain propice aux interactions avec diverses agences de gouvernementalité, favorise dans un va-et-vient la reconversion circulaire de ressources et de savoir-faire. Il peut arriver également qu'elle éveille des appétences pour « la politique », pour la compétition électorale, ou qu'elle produise de l'empowerment. D'une situation à l'autre, elle fait l'objet d'une palette de définitions, d'investissements et de (micro)stratégies aussi vastes que variables, diachroniquement et synchroniquement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé : Le Glucagon-Like Peptide 1 (GLP-1) est synthétisé par les cellules L du tractus gastro-intestinal et est sécrété dans le sang lors du repas. Grâce à ses fonctions d'hormone de satiété et d'incrétine, il joue un rôle important dans le système complexe de l'homéostase énergétique. Dans ce contexte, cette molécule est intéressante dans la thérapie du diabète sucré de type 2 et de l'obésité. Comme tous les peptides, le GLP-1 est rapidement dégradé par l'acidité gastrique et les enzymes digestifs lors de son administration orale ;c'est pourquoi il est administré uniquement par voie intra-veineuse ou sous-cutanée. Le but de cette étude était d'analyser l'absorption intestinale du GLP-1 administré simultanément avec une molécule de type «promoteur de l'absorption». C'était une étude phase 1, ouverte, placébo-contrôlée, avec un «cross-ovér» à 5 bras à des doses croissantes. Le promoteur de l'absorption était une molécule appelée SNAC (sodium N-(8-(2-hydroxybenzoyl)amino) caprylate) qui protège les peptides de la dégradation intestinale et améliore leur absorption. Les valeurs de GLP-1, d'insuline et de glucose mesurées dans les prises de sang ont montré clairement que le peptide a pu être absorbé grâce à la molécule SNAC et a de ce fait stimulé la sécrétion d'insuline. Lors du deuxième dosage, cette sécrétion d'insuline avait déjà atteint un niveau maximal qui n'augmentait plus, même avec des dosages plus élevés. Les concentrations de GLP-1 ont atteint des valeurs pharmacologiques et ont augmenté en fonction de la dose (pour la AUC et pour Cmax). En comparaison avec l'administration veineuse de GLP-1, l'administration orale a démontré une biodisponibilité calculée de 4% en moyenne. L'étude montre que le GLP-1 peut être administré par voie orale grâce à des promoteurs de l'absorption. Dès lors, des études thérapeutiques avec le GLP-1 administré oralement peuvent être entreprises.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The purpose of this article is to treat a currently much debated issue, the effects of age on second language learning. To do so, we contrast data collected by our research team from over one thousand seven hundred young and adult learners with four popular beliefs or generalizations, which, while deeply rooted in this society, are not always corroborated by our data.Two of these generalizations about Second Language Acquisition (languages spoken in the social context) seem to be widely accepted: a) older children, adolescents and adults are quicker and more efficient at the first stages of learning than are younger learners; b) in a natural context children with an early start are more liable to attain higher levels of proficiency. However, in the context of Foreign Language Acquisition, the context in which we collect the data, this second generalization is difficult to verify due to the low number of instructional hours (a maximum of some 800 hours) and the lower levels of language exposure time provided. The design of our research project has allowed us to study differences observed with respect to the age of onset (ranging from 2 to 18+), but in this article we focus on students who began English instruction at the age of 8 (LOGSE Educational System) and those who began at the age of 11 (EGB). We have collected data from both groups after a period of 200 (Time 1) and 416 instructional hours (Time 2), and we are currently collecting data after a period of 726 instructional hours (Time 3). We have designed and administered a variety of tests: tests on English production and reception, both oral and written, and within both academic and communicative oriented approaches, on the learners' L1 (Spanish and Catalan), as well as a questionnaire eliciting personal and sociolinguistic information. The questions we address and the relevant empirical evidence are as follows: 1. "For young children, learning languages is a game. They enjoy it more than adults."Our data demonstrate that the situation is not quite so. Firstly, both at the levels of Primary and Secondary education (ranging from 70.5% in 11-year-olds to 89% in 14-year-olds) students have a positive attitude towards learning English. Secondly, there is a difference between the two groups with respect to the factors they cite as responsible for their motivation to learn English: the younger students cite intrinsic factors, such as the games they play, the methodology used and the teacher, whereas the older students cite extrinsic factors, such as the role of their knowledge of English in the achievement of their future professional goals. 2 ."Young children have more resources to learn languages." Here our data suggest just the opposite. The ability to employ learning strategies (actions or steps used) increases with age. Older learners' strategies are more varied and cognitively more complex. In contrast, younger learners depend more on their interlocutor and external resources and therefore have a lower level of autonomy in their learning. 3. "Young children don't talk much but understand a lot"This third generalization does seem to be confirmed, at least to a certain extent, by our data in relation to the analysis of differences due to the age factor and productive use of the target language. As seen above, the comparably slower progress of the younger learners is confirmed. Our analysis of interpersonal receptive abilities demonstrates as well the advantage of the older learners. Nevertheless, with respect to passive receptive activities (for example, simple recognition of words or sentences) no great differences are observed. Statistical analyses suggest that in this test, in contrast to the others analyzed, the dominance of the subjects' L1s (reflecting a cognitive capacity that grows with age) has no significant influence on the learning process. 4. "The sooner they begin, the better their results will be in written language"This is not either completely confirmed in our research. First of all, we perceive that certain compensatory strategies disappear only with age, but not with the number of instructional hours. Secondly, given an identical number of instructional hours, the older subjects obtain better results. With respect to our analysis of data from subjects of the same age (12 years old) but with a different number of instructional hours (200 and 416 respectively, as they began at the ages of 11 and 8), we observe that those who began earlier excel only in the area of lexical fluency. In conclusion, the superior rate of older learners appears to be due to their higher level of cognitive development, a factor which allows them to benefit more from formal or explicit instruction in the school context. Younger learners, however, do not benefit from the quantity and quality of linguistic exposure typical of a natural acquisition context in which they would be allowed to make use of implicit learning abilities. It seems clear, then, that the initiative in this country to begin foreign language instruction earlier will have positive effects only if it occurs in combination with either higher levels of exposure time to the foreign language, or, alternatively, with its use as the language of instruction in other areas of the curriculum.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The purpose of this article is to treat a currently much debated issue, the effects of age on second language learning. To do so, we contrast data collected by our research team from over one thousand seven hundred young and adult learners with four popular beliefs or generalizations, which, while deeply rooted in this society, are not always corroborated by our data.Two of these generalizations about Second Language Acquisition (languages spoken in the social context) seem to be widely accepted: a) older children, adolescents and adults are quicker and more efficient at the first stages of learning than are younger learners; b) in a natural context children with an early start are more liable to attain higher levels of proficiency. However, in the context of Foreign Language Acquisition, the context in which we collect the data, this second generalization is difficult to verify due to the low number of instructional hours (a maximum of some 800 hours) and the lower levels of language exposure time provided. The design of our research project has allowed us to study differences observed with respect to the age of onset (ranging from 2 to 18+), but in this article we focus on students who began English instruction at the age of 8 (LOGSE Educational System) and those who began at the age of 11 (EGB). We have collected data from both groups after a period of 200 (Time 1) and 416 instructional hours (Time 2), and we are currently collecting data after a period of 726 instructional hours (Time 3). We have designed and administered a variety of tests: tests on English production and reception, both oral and written, and within both academic and communicative oriented approaches, on the learners' L1 (Spanish and Catalan), as well as a questionnaire eliciting personal and sociolinguistic information. The questions we address and the relevant empirical evidence are as follows: 1. "For young children, learning languages is a game. They enjoy it more than adults."Our data demonstrate that the situation is not quite so. Firstly, both at the levels of Primary and Secondary education (ranging from 70.5% in 11-year-olds to 89% in 14-year-olds) students have a positive attitude towards learning English. Secondly, there is a difference between the two groups with respect to the factors they cite as responsible for their motivation to learn English: the younger students cite intrinsic factors, such as the games they play, the methodology used and the teacher, whereas the older students cite extrinsic factors, such as the role of their knowledge of English in the achievement of their future professional goals. 2 ."Young children have more resources to learn languages." Here our data suggest just the opposite. The ability to employ learning strategies (actions or steps used) increases with age. Older learners' strategies are more varied and cognitively more complex. In contrast, younger learners depend more on their interlocutor and external resources and therefore have a lower level of autonomy in their learning. 3. "Young children don't talk much but understand a lot"This third generalization does seem to be confirmed, at least to a certain extent, by our data in relation to the analysis of differences due to the age factor and productive use of the target language. As seen above, the comparably slower progress of the younger learners is confirmed. Our analysis of interpersonal receptive abilities demonstrates as well the advantage of the older learners. Nevertheless, with respect to passive receptive activities (for example, simple recognition of words or sentences) no great differences are observed. Statistical analyses suggest that in this test, in contrast to the others analyzed, the dominance of the subjects' L1s (reflecting a cognitive capacity that grows with age) has no significant influence on the learning process. 4. "The sooner they begin, the better their results will be in written language"This is not either completely confirmed in our research. First of all, we perceive that certain compensatory strategies disappear only with age, but not with the number of instructional hours. Secondly, given an identical number of instructional hours, the older subjects obtain better results. With respect to our analysis of data from subjects of the same age (12 years old) but with a different number of instructional hours (200 and 416 respectively, as they began at the ages of 11 and 8), we observe that those who began earlier excel only in the area of lexical fluency. In conclusion, the superior rate of older learners appears to be due to their higher level of cognitive development, a factor which allows them to benefit more from formal or explicit instruction in the school context. Younger learners, however, do not benefit from the quantity and quality of linguistic exposure typical of a natural acquisition context in which they would be allowed to make use of implicit learning abilities. It seems clear, then, that the initiative in this country to begin foreign language instruction earlier will have positive effects only if it occurs in combination with either higher levels of exposure time to the foreign language, or, alternatively, with its use as the language of instruction in other areas of the curriculum.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Polyphosphate (iPOP) is a linear polymer of orthophosphate units linked together by high energy phosphoanhydride bonds. It is found in all organisms, localized in organelles called acidocalcisomes and ranges from a few to few hundred monomers in length. iPOP has been found to play a vast array of roles in all organisms, including phosphate and energy metabolism, regulation of enzymes, virulence, pathogenicity, bone remodelling and blood clotting, among many others. Recently it was found that iPOP levels were increased in myeloma cells. The growing interest in iPOP in human cell lines makes it an interesting molecule to study. However, not much is known about its metabolism in eukaryotes. Acidocalcisomes are electron dense, acidic organelles that belong to the group of Lysosome Related Organelles (LROs). The conservation of acidocalcisomes among all kingdoms of life is suggestive of their important roles for the organisms. However, they are difficult to analyse because of limited biochemical tools for investigation. Yeast vacuoles present remarkable similarities to acidocalcisomes in terms of their physiological and structural features, including synthesis and storage of iPOP, which make them an ideal candidate to study biological processes which are shared between vacuoles and acidocalcisomes. The availability of tools for genetic manipulation and isolation of vacuoles makes yeast a candidate of choice for the characterization of iPOP synthesis in eukaryotes. Our group has identified the Vacuolar Transporter Chaperone (VTC) complex as iPOP polymerase and identified the catalytic subunit (Vtc4). The goal of my study was to characterize the process of iPOP synthesis by isolated vacuoles and to reconstitute iPOP synthesis in liposomes. The first step was to develop a method for monitoring iPOP by isolated vacuoles over time and comparing it with previously known methods. Next, a detailed characterization was performed to determine the modulators of the process, both for intact as well as solubilized vacuoles. Finally, attempts were made to purify the VTC complex and reconstitute it in liposomes. A parallel line of study was the translocation and storage of synthesized iPOP in the lumen of the vacuoles. As a result of this study, it is possible to determine distinct pools of iPOP- inside and outside the vacuolar lumen. Additionally, I establish that the vacuolar lysate withstands harsh steps during reconstitution on liposomes and retains iPOP synthesizing activity. The next steps will be purification of the intact VTC complex and its structure determination by cryo-electron microscopy. - Les organismes vivants sont composés d'une ou plusieurs cellules responsables des processus biologiques élémentaires tels que la digestion, la respiration, la synthèse et la reproduction. Leur environnement interne est en équilibre et ils réalisent un très grand nombre de réactions chimiques et biochimiques pour maintenir cet équilibre. A différents compartiments cellulaires, ou organelles, sont attribuées des tâches spécifiques pour maintenir les cellules en vie. L'étude de ces fonctions permet une meilleure compréhension de la vie et des organismes vivants. De nombreux processus sont bien connus et caractérisés mais d'autres nécessitent encore des investigations détaillées. L'un de ces processus est le métabolisme des polyphosphates. Ces molécules sont des polymères linéaires de phosphate inorganique dont la taille peut varier de quelques dizaines à quelques centaines d'unités élémentaires. Ils sont présents dans tous les organismes, des bactéries à l'homme. Ils sont localisés principalement dans des compartiments cellulaires appelés acidocalcisomes, des organelles acides observés en microscopie électronique comme des structures denses aux électrons. Les polyphosphates jouent un rôle important dans le stockage et le métabolisme de l'énergie, la réponse au stress, la virulence, la pathogénicité et la résistance aux drogues. Chez l'homme, ils sont impliqués dans la coagulation du sang et le remodelage osseux. De nouvelles fonctions biologiques des polyphosphates sont encore découvertes, ce qui accroît l'intérêt des chercheurs pour ces molécules. Bien que des progrès considérables ont été réalisés afin de comprendre la fonction des polyphosphates chez les bactéries, ce qui concerne la synthèse, le stockage et la dégradation des polyphosphates chez les eucaryotes est mal connu. Les vacuoles de la levure Saccharomyces cerevisiae sont similaires aux acidocalcisomes des organismes supérieurs en termes de structure et de fonction. Les acidocalcisomes sont difficiles à étudier car il n'existe que peu d'outils génétiques et biochimiques qui permettent leur caractérisation. En revanche, les vacuoles peuvent être aisément isolées des cellules vivantes et manipulées génétiquement. Les vacuoles comme les acidocalcisomes synthétisent et stockent les polyphosphates. Ainsi, les découvertes faites grâce aux vacuoles de levures peuvent être extrapolées aux acidocalcisomes des organismes supérieurs. Le but de mon projet était de caractériser la synthèse des polyphosphates par des vacuoles isolées. Au cours de mon travail de thèse, j'ai mis au point une méthode de mesure de la synthèse des polyphosphates par des organelles purifés. Ensuite, j'ai identifié des composés qui modulent la réaction enzymatique lorsque celle-ci a lieu dans la vacuole ou après solubilisation de l'organelle. J'ai ainsi pu mettre en évidence deux groupes distincts de polyphosphates dans le système : ceux au-dehors de la vacuole et ceux en-dedans de l'organelle. Cette observation suggère donc très fortement que les vacuoles non seulement synthétisent les polyphosphates mais aussi transfère les molécules synthétisées de l'extérieur vers l'intérieur de l'organelle. Il est très vraisemblable que les vacuoles régulent le renouvellement des polyphosphates qu'elles conservent, en réponse à des signaux cellulaires. Des essais de purification de l'enzyme synthétisant les polyphosphates ainsi que sa reconstitution dans des liposomes ont également été entrepris. Ainsi, mon travail présente de nouveaux aspects de la synthèse des polyphosphates chez les eucaryotes et les résultats devraient encourager l'élucidation de mécanismes similaires chez les organismes supérieurs. - Les polyphosphates (iPOP) sont des polymères linéaires de phosphates inorganiques liés par des liaisons phosphoanhydres de haute énergie. Ces molécules sont présentes dans tous les organismes et localisées dans des compartiments cellulaires appelés acidocalcisomes. Elles varient en taille de quelques dizaines à quelques centaines d'unités phosphate. Des fonctions nombreuses et variées ont été attribuées aux iPOP dont un rôle dans les métabolismes de l'énergie et du phosphate, dans la régulation d'activités enzymatiques, la virulence, la pathogénicité, le remodelage osseux et la coagulation sanguine. Il a récemment été montré que les cellules de myélome contiennent une grande quantité de iPOP. Il y donc un intérêt croissant pour les iPOP dans les lignées cellulaires humaines. Cependant, très peu d'informations sur le métabolisme des iPOP chez les eucaryotes sont disponibles. Les acidocalcisomes sont des compartiments acides et denses aux électrons. Ils font partie du groupe des organelles similaires aux lysosomes (LROs pour Lysosome Related Organelles). Le fait que les acidocalcisomes soient conservés dans tous les règnes du vivant montrent l'importance de ces compartiments pour les organismes. Cependant, l'analyse de ces organelles est rendue difficile par l'existence d'un nombre limité d'outils biochimiques permettant leur caractérisation. Les vacuoles de levures possèdent des aspects structuraux et physiologiques très similaires à ceux des acidocalcisomes. Par exemple, ils synthétisent et gardent en réserve les iPOP. Ceci fait des vacuoles de levure un modèle idéal pour l'étude de processus biologiques conservés chez les vacuoles et les acidocalcisomes. De plus, la levure est un organisme de choix pour l'étude de la synthèse des iPOP compte-tenu de l'existence de nombreux outils génétiques et la possibilité d'isoler des vacuoles fonctionnelles. Notre groupe a identifié le complexe VTC (Vacuole transporter Chaperone) comme étant responsable de la synthèse des iPOP et la sous-unité Vtc4p comme celle possédant l'activité catalytique. L'objectif de cette étude était de caractériser le processus de synthèse des iPOP en utilisant des vacuoles isolées et de reconstituer la synthèse des iPOP dans des liposomes. La première étape a consisté en la mise au point d'un dosage permettant la mesure de la quantité de iPOP synthétisés par les organelles isolés en fonction du temps. Cette nouvelle méthode a été comparée aux méthodes décrites précédemment dans la littérature. Ensuite, la caractérisation détaillée du processus a permis d'identifier des composés modulateurs de la réaction à la fois pour des vacuoles intactes et des vacuoles solubilisées. Enfin, des essais de purification du complexe VTC et sa reconstitution dans des liposomes ont été entrepris. De façon parallèle, une étude sur la translocation et le stockage des iPOP dans le lumen des vacuoles a été menée. Il a ainsi été possible de mettre en évidence différents groupes de iPOP : les iPOP localisés à l'intérieur et ceux localisés à l'extérieur des vacuoles isolées. De plus, nous avons observé que le lysat vacuolaire n'est pas détérioré par les étapes de reconstitution dans les liposomes et conserve l'activité de synthèse des iPOP. Les prochaines étapes consisteront en la purification du complexe intact et de la détermination de sa structure par cryo-microscopie électronique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La ségrégation professionnelle horizontale et verticale selon le sexe est l'un des traits dominants du marché du travail: les femmes et les hommes exercent rarement le même type d'activité ou la même fonction. L'objectif de la recherche réalisée dans le cadre de mon mémoire de licence est de cerner les mécanismes sociaux qui contribuent au maintien de la division hiérarchique du travail entre les sexes. L'enquête a été menée au sein d'une administration cantonale et combine une étude de la politique de gestion du personnel et de trajectoires d'activité professionnelle d'employé·e·s et de cadres des deux sexes (« employé d'administration » est une fonction féminisée, celle d'« adjoint » est majoritairement occupée par des hommes). Elle met en évidence l'influence des rapports sociaux de sexe dans la production des différences de sexe. L'étude du système de classification des fonctions, de promotion et de formation continue met au jour la manière dont les stéréotypes de sexe et les représentations de rôles de sexe structurent la politique de gestion du personnel. Il ressort que les « employées » interviewées ont un niveau de formation supérieur à celui de leurs homologues masculins. Par ailleurs, la mobilité professionnelle est régie par des logiques différentes : les femmes rapportent avoir demandé une promotion alors que les hommes disent avoir été promus par les supérieurs. L'analyse des trajectoires d'activité montre que les « employé·e·s » n'accomplissent pas le même type de tâches, les femmes sont cantonnées à un travail de secrétariat alors que les hommes assument des tâches diversifiées, ce qui se répercute ensuite sur le type de cours de formation continue suivis. Mais surtout la mobilité spatiale et l'autonomie féminines sont moindres. « Employée» n'est donc pas le féminin d'«employé». La fonction d'« adjoint » comprend l'exercice de responsabilités diverses, notamment la direction et l'encadrement de personnel administratif. Pourtant, les « adjointes » sont exclues des fonctions de direction - où se prennent les décisions - et quasi exclues des fonctions d'encadrement hiérarchique importantes. Par ailleurs, les dossiers en mains masculines concernent davantage des questions économiques, financières ou techniques, ceux des femmes des dimensions juridique et sociale. Enfin, les « adjointes » connaissent un avancement de carrière plus lent que leurs collègues de sexe masculin.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Cette thèse est consacrée à l'analyse, la modélisation et la visualisation de données environnementales à référence spatiale à l'aide d'algorithmes d'apprentissage automatique (Machine Learning). L'apprentissage automatique peut être considéré au sens large comme une sous-catégorie de l'intelligence artificielle qui concerne particulièrement le développement de techniques et d'algorithmes permettant à une machine d'apprendre à partir de données. Dans cette thèse, les algorithmes d'apprentissage automatique sont adaptés pour être appliqués à des données environnementales et à la prédiction spatiale. Pourquoi l'apprentissage automatique ? Parce que la majorité des algorithmes d'apprentissage automatiques sont universels, adaptatifs, non-linéaires, robustes et efficaces pour la modélisation. Ils peuvent résoudre des problèmes de classification, de régression et de modélisation de densité de probabilités dans des espaces à haute dimension, composés de variables informatives spatialisées (« géo-features ») en plus des coordonnées géographiques. De plus, ils sont idéaux pour être implémentés en tant qu'outils d'aide à la décision pour des questions environnementales allant de la reconnaissance de pattern à la modélisation et la prédiction en passant par la cartographie automatique. Leur efficacité est comparable au modèles géostatistiques dans l'espace des coordonnées géographiques, mais ils sont indispensables pour des données à hautes dimensions incluant des géo-features. Les algorithmes d'apprentissage automatique les plus importants et les plus populaires sont présentés théoriquement et implémentés sous forme de logiciels pour les sciences environnementales. Les principaux algorithmes décrits sont le Perceptron multicouches (MultiLayer Perceptron, MLP) - l'algorithme le plus connu dans l'intelligence artificielle, le réseau de neurones de régression généralisée (General Regression Neural Networks, GRNN), le réseau de neurones probabiliste (Probabilistic Neural Networks, PNN), les cartes auto-organisées (SelfOrganized Maps, SOM), les modèles à mixture Gaussiennes (Gaussian Mixture Models, GMM), les réseaux à fonctions de base radiales (Radial Basis Functions Networks, RBF) et les réseaux à mixture de densité (Mixture Density Networks, MDN). Cette gamme d'algorithmes permet de couvrir des tâches variées telle que la classification, la régression ou l'estimation de densité de probabilité. L'analyse exploratoire des données (Exploratory Data Analysis, EDA) est le premier pas de toute analyse de données. Dans cette thèse les concepts d'analyse exploratoire de données spatiales (Exploratory Spatial Data Analysis, ESDA) sont traités selon l'approche traditionnelle de la géostatistique avec la variographie expérimentale et selon les principes de l'apprentissage automatique. La variographie expérimentale, qui étudie les relations entre pairs de points, est un outil de base pour l'analyse géostatistique de corrélations spatiales anisotropiques qui permet de détecter la présence de patterns spatiaux descriptible par une statistique. L'approche de l'apprentissage automatique pour l'ESDA est présentée à travers l'application de la méthode des k plus proches voisins qui est très simple et possède d'excellentes qualités d'interprétation et de visualisation. Une part importante de la thèse traite de sujets d'actualité comme la cartographie automatique de données spatiales. Le réseau de neurones de régression généralisée est proposé pour résoudre cette tâche efficacement. Les performances du GRNN sont démontrées par des données de Comparaison d'Interpolation Spatiale (SIC) de 2004 pour lesquelles le GRNN bat significativement toutes les autres méthodes, particulièrement lors de situations d'urgence. La thèse est composée de quatre chapitres : théorie, applications, outils logiciels et des exemples guidés. Une partie importante du travail consiste en une collection de logiciels : Machine Learning Office. Cette collection de logiciels a été développée durant les 15 dernières années et a été utilisée pour l'enseignement de nombreux cours, dont des workshops internationaux en Chine, France, Italie, Irlande et Suisse ainsi que dans des projets de recherche fondamentaux et appliqués. Les cas d'études considérés couvrent un vaste spectre de problèmes géoenvironnementaux réels à basse et haute dimensionnalité, tels que la pollution de l'air, du sol et de l'eau par des produits radioactifs et des métaux lourds, la classification de types de sols et d'unités hydrogéologiques, la cartographie des incertitudes pour l'aide à la décision et l'estimation de risques naturels (glissements de terrain, avalanches). Des outils complémentaires pour l'analyse exploratoire des données et la visualisation ont également été développés en prenant soin de créer une interface conviviale et facile à l'utilisation. Machine Learning for geospatial data: algorithms, software tools and case studies Abstract The thesis is devoted to the analysis, modeling and visualisation of spatial environmental data using machine learning algorithms. In a broad sense machine learning can be considered as a subfield of artificial intelligence. It mainly concerns with the development of techniques and algorithms that allow computers to learn from data. In this thesis machine learning algorithms are adapted to learn from spatial environmental data and to make spatial predictions. Why machine learning? In few words most of machine learning algorithms are universal, adaptive, nonlinear, robust and efficient modeling tools. They can find solutions for the classification, regression, and probability density modeling problems in high-dimensional geo-feature spaces, composed of geographical space and additional relevant spatially referenced features. They are well-suited to be implemented as predictive engines in decision support systems, for the purposes of environmental data mining including pattern recognition, modeling and predictions as well as automatic data mapping. They have competitive efficiency to the geostatistical models in low dimensional geographical spaces but are indispensable in high-dimensional geo-feature spaces. The most important and popular machine learning algorithms and models interesting for geo- and environmental sciences are presented in details: from theoretical description of the concepts to the software implementation. The main algorithms and models considered are the following: multi-layer perceptron (a workhorse of machine learning), general regression neural networks, probabilistic neural networks, self-organising (Kohonen) maps, Gaussian mixture models, radial basis functions networks, mixture density networks. This set of models covers machine learning tasks such as classification, regression, and density estimation. Exploratory data analysis (EDA) is initial and very important part of data analysis. In this thesis the concepts of exploratory spatial data analysis (ESDA) is considered using both traditional geostatistical approach such as_experimental variography and machine learning. Experimental variography is a basic tool for geostatistical analysis of anisotropic spatial correlations which helps to understand the presence of spatial patterns, at least described by two-point statistics. A machine learning approach for ESDA is presented by applying the k-nearest neighbors (k-NN) method which is simple and has very good interpretation and visualization properties. Important part of the thesis deals with a hot topic of nowadays, namely, an automatic mapping of geospatial data. General regression neural networks (GRNN) is proposed as efficient model to solve this task. Performance of the GRNN model is demonstrated on Spatial Interpolation Comparison (SIC) 2004 data where GRNN model significantly outperformed all other approaches, especially in case of emergency conditions. The thesis consists of four chapters and has the following structure: theory, applications, software tools, and how-to-do-it examples. An important part of the work is a collection of software tools - Machine Learning Office. Machine Learning Office tools were developed during last 15 years and was used both for many teaching courses, including international workshops in China, France, Italy, Ireland, Switzerland and for realizing fundamental and applied research projects. Case studies considered cover wide spectrum of the real-life low and high-dimensional geo- and environmental problems, such as air, soil and water pollution by radionuclides and heavy metals, soil types and hydro-geological units classification, decision-oriented mapping with uncertainties, natural hazards (landslides, avalanches) assessments and susceptibility mapping. Complementary tools useful for the exploratory data analysis and visualisation were developed as well. The software is user friendly and easy to use.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Six ans après la dernière migration, BiBIL - la Bibliographie Biblique Informatisée de Lausanne - accueille ses utilisateurs avec une nouvelle interface conviviale et de nouvelles fonctions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Un retrovirus va contribuir a incrementar les capacitats cognitives dels éssers humans. Va incidir sobre un gen que també està involucrat en algunes malalties mentals

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Chemosensory receptor gene families encode divergent proteins capable of detecting a huge diversity of environmental stimuli that are constantly changing over evolutionary time as organisms adapt to distinct ecological niches. While olfaction is dedicated to the detection of volatile compounds, taste is key to assess food quality for nutritional value and presence of toxic substances. The sense of taste also provides initial signals to mediate endocrine regulation of appetite and food metabolism and plays a role in kin recognition. The fruit fly Drosophila melanogaster is a very good model for studying smell and taste because these senses are very important in insects and because a broad variety of genetic tools are available in Drosophila. Recently, a family of 66 chemosensory receptors, the Ionotropic Receptors (IRs) was described in fruit flies. IRs are distantly related to ionotropic glutamate receptors (iGluRs), but their evolutionary origin from these synaptic receptors is unclear. While 16 IRs are expressed in the olfactory system, nothing is known about the other members of this repertoire. In this thesis, I describe bioinformatic, expression and functional analyses of the IRs aimed at understanding how these receptors have evolved, and at characterising the role of the non-olfactory IRs. I show that these have emerged at the basis of the protostome lineage and probably have acquired their sensory function very early. Moreover, although several IRs are conserved across insects, there are rapid and dramatic changes in the size and divergence of IR repertoires across species. I then performed a comprehensive analysis of IR expression in the larva of Drosophila melanogaster, which is a good model to study taste and feeding mechanisms as it spends most of its time eating or foraging. I found that most of the divergent members of the IR repertoire are expressed in both peripheral and internal gustatory neurons, suggesting that these are involved in taste perception. Finally, through the establishment of a new neurophysiological assay in larvae, I identified for the first time subsets of IR neurons that preferentially detect sugars and amino acids, indicating that IRs might be involved in sensing these compounds. Together, my results indicate that IRs are an evolutionarily dynamic and functionally versatile family of receptors. In contrast to the olfactory IRs that are well-conserved, gustatory IRs are rapidly evolving species-specific receptors that are likely to be involved in detecting a wide variety of tastants. - La plupart des animaux possèdent de grandes familles de récepteurs chimiosensoriels dont la fonction est de détecter l'immense diversité de composés chimiques présents dans l'environnement. Ces récepteurs évoluent en même temps que les organismes s'adaptent à leur écosystème. Il existe deux manières de percevoir ces signaux chimiques : l'olfaction et le goût. Alors que le système olfactif perçoit les composés volatiles, le sens du goût permet d'évaluer, par contact, la qualité de la nourriture, de détecter des substances toxiques et de réguler l'appétit et le métabolisme. L'un des organismes modèles les plus pertinents pour étudier le sens du goût est le stade larvaire de la mouche du vinaigre Drosophila melanogaster. En effet, la principale fonction du stade larvaire est de trouver de la nourriture et de manger. De plus, il est possible d'utiliser tous les outils génétiques développés chez la drosophile. Récemment, une nouvelle famille de 66 récepteurs chimiosensoriels appelés Récepteurs Ionotropiques (IRs) a été découverte chez la drosophile. Bien que leur orogine soit peu claire, ces récepteurs sont similaires aux récepteurs ionotropiques glutamatergiques impliqués dans la transmission synaptique. 16 IRs sont exprimés dans le système olfactif de la mouche adulte, mais pour l'instant on ne connaît rien des autres membres de cette famille. Durant ma thèse, j'ai effectué des recherches sur l'évolution de ces récepteurs ainsi que sur l'expression et la fonction des IRs non olfactifs. Je démontre que les IRs sont apparus chez l'ancêtre commun des protostomiens et ont probablement acquis leur fonction sensorielle très rapidement. De plus, bien qu'un certain nombre d'IRs olfactifs soient conservés chez les insectes, d'importantes variations dans la taille et la divergence des répertoires d'IRs entre les espèces ont été constatées. J'ai également découvert qu'un grand nombre d'IRs non olfactifs sont exprimés dans différents organes gustatifs, ce qui leur confère probablement une fonction dans la perception des goûts. Finalement, pour la première fois, des neurones exprimant des IRs ont été identifiés pour leur fonction dans la perception de sucres et d'acides aminés chez la larve. Mes résultats présentent les IRs comme une famille très dynamique, aux fonctions très variées, qui joue un rôle tant dans l'odorat que dans le goût, et dont la fonction est restée importante tout au long de l'évolution. De plus, l'identification de neurones spécialisés dans la perception de certains composés permettra l'étude des circuits neuronaux impliqués dans le traitement de ces informations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé sous forme de thèses 1. La présente thèse de doctorat traite de la problématique des licences obligatoires en droit communautaire de la concurrence. Plus précisément, il s'agit d'examiner si et sous quelles conditions le refus de licencier un droit de propriété intellectuelle par une entreprise peut constituer un abus d'une position dominante selon l'article 82 du Traité CE. L'étude fait notamment référence aux marchés de haute technologie et ici à la décision Microsoft, qui a été publiée par la Commission européenne en mars 2004 et qui porte, dans sa deuxième partie, sur la possibilité de rendre interopérables différents composants, via des informations appelées interfaces. 2. La question d'une licence obligatoire ne se pose que si l'information recherchée est protégée par un droit de propriété intellectuelle et si cette information ne peut être obtenue par d'autres moyens. C'est pourquoi la première partie de l'étude examine deux sujets importants concernant l'interopérabilité: d'une part la méthode de décompilation permet-elle d'obtenir des interfaces de logiciel, d'autre part, les interfaces sont-elles protégées par le droit d'auteur. 3. En ce qui concerne la décompilation des programmes d'ordinateur, l'étude démontre que cette méthode ne permet pas de rendre interopérables différents programmes d'ordinateur de manière efficace. Le droit européen a légalisé cette méthode, après des débats publics très vifs, par l'article 6 de la directive concernant la protection juridique des programmes d'ordinateur (91/250/CEE). Il semble néanmoins que la lutte pour un tel droit de décompilation a été vaine :Tout d'abord, l'article 6 est rédigé d'une façon très complexe et autorise une décompilation seulement selon des conditions très restrictives. En plus, la décompilation en elle-même est un travail très complexe qui peut durer des années et qui ne garantit pas de trouver les informations recherchées. 4. En outre, une réglementation de décompilation n'existe jusqu'à présent que dans le domaine du droit d'auteur, tandis qu'une règlementation pour la protection juridique des brevets fait défaut. La question concernant la protection juridique des brevets pour les inventions mises en rouvre par ordinateur restera aussi dans le futur sans réponse, étant donné que le Parlement européen a rejeté une telle proposition de directive en juillet 2005. Ceci est regrettable, parce que la proposition de directive prévoyait explicitement un droit de décompilation. La Commission européenne projette, cependant, de réexaminer les dispositions de décompilation relatives au droit d'auteur. Dans ce contexte, il devrait notamment être examiné si les dispositions de décompilation de l'article 6 de la directive des programmes d'ordinateur sont satisfaisantes afin de garantir une (certaine) interopérabilité. 5. Un réexamen de la directive concernant la protection juridique des programmes d'ordinateur pourrait aussi servir à clarifier l'existence et l'étendue de la protection d'interfaces. L'article 1, paragraphe 2, 2ième phrase se réfère dans ce contexte uniquement à un principe reconnu en droit international du droit d'auteur, dénommé «dichotomie d'idée/d'expression» : seul l'expression individuelle est protégée, mais pas l'idée en tant que telle. La rédaction de l'article devrait ainsi préciser qu'une spécification d'une interface constitue toujours une idée, qui ne peut pas être protégée, alors que l'implémentation de l'interface dans un programme d'ordinateur représente son expression et devrait ainsi bénéficier d'une protection selon le droit d'auteur. Or, dans la plupart des cas, la spécification d'une interface est suffisante pour rendre interopérables différents programmes d'ordinateur. 6. La Commission dans sa décision Microsoft a pourtant supposé que les interfaces recherchées par les concurrents de Microsoft pouvaient être protégées par des droits de propriété intellectuelle. En effet, le seul moyen à disposition pour ceux qui veulent rendre interopérables leur programme d'ordinateur et avec celui d'une entreprise dominante est le recours à l'article 82 CE. Ici, la question qui se pose est celle de savoir si le refus de fournir des interfaces constitue un abus d'une position dominante et donc mène à l'octroi d'une licence obligatoire. 7. Dans le contexte des licences obligatoires selon l'article 82 CE, il est courant d'invoquer la relation de conflit entre la propriété intellectuelle et le droit de la concurrence. Or, l'étude démontre que ces deux institutions de droit poursuivent le même but, à savoir l'encouragement au bien-être des consommateurs en stimulant l'innovation. Les objectifs convergent notamment si on définit la concurrence plutôt en tant que concept dynamique. Par conséquent, des restrictions temporaires à la concurrence peuvent être acceptées, si ceci mène à la création de la concurrence à long terme. Pourtant, des conflits potentiels persistent, étant donné qu'on ne peut pas argumenter que chaque restriction à la concurrence effectuée par le titulaire d'un droit de propriété intellectuelle mène à l'incitation de l'innovation à long terme. 8. En réfutant ce dernier argument, l'étude démontre que les droits de propriété intellectuelle ne peuvent pas être généralement exemptés de l'application du droit de la concurrence. Notamment, selon l'état actuel de la jurisprudence, il ne peut être soutenu qu'il existe un noyau dur spécifique du droit de la propriété intellectuelle, qui ne devrait pas être affecté par le droit de la concurrence. L'ordonnance d'une licence obligatoire peut être justifiée sur la base de l'article 82 CE, dans la mesure où la balance d'intérêts démontre un effet positif au bien-être des consommateurs résultant d'une telle licence. En même temps, les droits individuels du propriétaire d'un droit de propriété intellectuelle sont à respecter, surtout la liberté contractuelle et la protection de la propriété. 9. Le droit de la liberté contractuelle et le droit de la propriété sont atteints, si le propriétaire d'un droit, de nature matérielle ou immatérielle, n'a exercé son droit de propriété que pour lui-même, exclusivement, sans jamais avoir démontré la volonté de s'acquitter de ses droits. C'est donc surtout pour protéger ces deux principes de droit que la présente étude fait une distinction majeure entre le refus de contracter et la rupture d'une relation contractuelle. 10. Le premier cas est traité de manière détaillée sous le chapitre de la doctrine des facilités essentielles (EFD). Selon la position prise ici, cette constellation est caractérisée par l'obligation du propriétaire de contracter et ainsi d'établir des relations d'affaires avec ses concurrents. Or, un principe selon lequel les entreprises en position dominante sont obligées d'encourager la concurrence, n'existe pas en droit communautaire. Il est toutefois nécessaire de pouvoir imposer une telle obligation, notamment dans les cas où la concurrence sur un marché ne peut être mise en oeuvre à long terme par un autre moyen et où cette ouverture du marché n'entraîne pas d'obstacles à l'innovation. 11. La constellation particulière des facilités essentielles exige néanmoins un contrôle plus prudent que dans les cas constituant une rupture de relation d'affaires. Cette exigence a été respectée sur base des conditions que l'arrêt Bronner a établit concernant l'essentialité d'une facilité. Même si l'établissement en question remplit toutes les conditions afin d'être qualifié d'essentiel, l'ordonnance d'un accès obligé doit encore passer l'examen d'une balance d'intérêts. Celle-ci mène encore plus rarement à l'octroi d'une licence dans les cas où la facilité est protégée par un droit de propriété intellectuelle. Des exceptions à cette règle existent si le droit de la propriété intellectuelle n'a pas été obtenu par des moyens basés sur le mérite ou si la fonction d'incitation à l'innovation est en doute. 12. L'affaire IMS Health présente un tel cas exceptionnel. La structure recherchée par les concurrents de IMS remplissait, au moment de l'examen de l'affaire par la Commission européenne, tous les critères d'un standard de facto. En outre, au moment du développement de la structure, celle-ci ne bénéficiait pas d'une protection de droit immatérielle. Une telle protection ne lui a été accordée que depuis la transposition de la directive concernant la protection juridique des bases de données en droit d'auteur allemand. Par conséquent, IMS ne pouvait avoir entrepris des investissements dans la construction de la structure, afin de profiter ultérieurement de la protection du droit d'auteur. Ceci affaiblit la présomption selon laquelle l'utilisation exclusive du droit aurait dû être préservée afin de ne pas faire obstacle à l'innovation. 13. Le cas européen de Microsoft se distingue de cette constellation. Les conditions qui ont mené à la décision de la Commission européenne quant à l'attribution d'interopérabilité et ainsi à une licence obligatoire d'interfaces, ont été présenté de manière détaillée dans cette étude. Elles fournissent les meilleures preuves que les «circonstances exceptionnelles », qui ont été déterminantes dans l'affaire Magill de la Cour de justice, à savoir «l'empêchement de la création d'un nouveau produit », le «manque de justification objective » et «l'empêchement de toute concurrence sur un marché en aval distinct », ne peuvent constituer une énumération exhaustive pour l'ordonnance d'une licence obligatoire. 14. En effet, dans l'affaire Microsoft, l'intersection progressive d'interopérabilité entre les systèmes d'exploitation étrangers à Microsoft et des systèmes d'exploitation de Microsoft n'a pas empêché la création de nouveaux produits. Le marché en question, celui des systèmes d'exploitation pour serveur de groupe de travail, avait été créé par l'entreprise Novell. Par conséquent, quand Microsoft a accédé à ce marché, d'autres entreprises en situation d'offre s'y trouvaient déjà avec leurs produits. Il s'en suit que, en 'exigeant de Microsoft des interfaces correspondantes, il s'agissait d'assurer l'interopérabilité avec les produits de Microsoft, et surtout avec l'omniprésent système d'exploitation pour ordinateur PC, afin de maintenir des produits déjà existants sur le marché, et notamment des produits «pionniers »qui avaient pris le risque d'exploiter le marché des systèmes d'exploitation pour serveur de groupe de travail. 15. Une autre circonstance exceptionnelle que celle d'un nouveau produit empêché donne l'impulsion à la thèse qu'une intersection progressive aux interfaces de Microsoft constitue un abus d'une position dominante selon l'article 82 CE : celle du transfert du pouvoir de marché. L'intégration verticale d'une entreprise en position dominante sur un marché qui n'a jusqu'à ce jour été que fourni par celle-ci, et qui rompt des relations contractuelles avec des entreprises agissant sur ce marché, afin d'évincer de la concurrence, constitue un cas de type connu de l'abus, reconnue pour la première fois dans l'arrêt Commercial Solvents de la CJCE: L'entreprise en position dominante utilise son pouvoir sur un marché initial et stratégiquement important et se sert ainsi des avantages, qui ne peuvent être conciliés avec le concept de concurrence par le mérite. 16. Il doit être de même si le bien en question bénéficie d'un droit immatériel, et qu'il s'agit ainsi d'un arrêt d'une licence. En effet, les fonctions, en principe supposées, d'incitation et de mérite, perdent de leur importance si le bien en question a déjà fait objet d'une licence: Il ne peut pas alors être argumenté que le propriétaire d'un droit immatériel doit l'utiliser exclusivement lui-même, afin de profiter des fruits de son mérite. Cet argument particulier de la prise en compte de l'effet d'incitation et de mérite perd d'autant plus de sa pertinence, si l'entreprise en cause ne fournit pas sur le marché dérivé une innovation, mais ne sert juste qu'à vendre un produit déjà préexistant. 17. Dans le domaine de licence de propriété intellectuelle obligatoire selon l'article 82 CE, les juridictions européennes n'ont jusqu'à présent uniquement eu à décider sur des constellations de cas, dans lesquelles le droit n'avait pas été l'objet d'une licence antérieure. Avec le cas Microsoft, le Tribunal de Première Instance a maintenant la possibilité de décider d'une distinction importante à faire en droit de la concurrence entre, d'une part, les cas dans lesquels un droit de propriété intellectuelle n'a pas encore été l'objet d'une licence et de l'autre, ceux dans lesquels il s'agit d'une rupture de licence.