974 resultados para Apprentissage automatique
Resumo:
Résumé Les canaux ioniques ASICs (acid-sensing ion channels) appartiennent à la famille des canaux ENaC/Degenerin. Pour l'instant, quatre gènes (1 à 4) ont été clonés dont certains présentent des variants d'épissage. Leur activation par une acidification rapide du milieu extracellulaire génère un courant entrant transitoire essentiellement sodique accompagné pour certains types d'ASICs d'une phase soutenue. Les ASICs sont exprimés dans le système nerveux, central (SNC) et périphérique (SNP). On leur attribue un rôle dans l'apprentissage, la mémoire et l'ischémie cérébrale au niveau central ainsi que dans la nociception (douleur aiguë et inflammatoire) et la méchanotransduction au niveau périphérique. Toutefois, les données sont parfois contradictoires. Certaines études suggèrent qu'ils sont des senseurs primordiaux impliqués dans la détection de l'acidification et la douleur. D'autres études suggèrent plutôt qu'ils ont un rôle modulateur inhibiteur dans la douleur. De plus, le fait que leur activation génère majoritairement un courant transitoire alors que les fibres nerveuses impliquées dans la douleur répondent à un stimulus nocif avec une adaptation lente suggère que leurs propriétés doivent être modulés par des molécules endogènes. Dans une première partie de ma thèse, nous avons abordé la question de l'expression fonctionnelle des ASICs dans les neurones sensoriels primaires afférents du rat adulte pour clarifier le rôle des ASICs dans les neurones sensoriels. Nous avons caractérisé leurs propriétés biophysiques et pharmacologiques par la technique du patch-clamp en configuration « whole-cell ». Nous avons pu démontrer que près de 60% des neurones sensoriels de petit diamètre expriment des courants ASICs. Nous avons mis en évidence trois types de courant ASIC dans ces neurones. Les types 1 et 3 ont des propriétés compatibles avec un rôle de senseur du pH alors que le type 2 est majoritairement activé par des pH inférieurs à pH6. Le type 1 est médié par des homomers de la sous-unité ASIC1 a qui sont perméables aux Ca2+. Nous avons étudié leur co-expression avec des marqueurs des nocicepteurs ainsi que la possibilité d'induire une activité neuronale suite à une acidification qui soit dépendante des ASICs. Le but était d'associer un type de courant ASIC avec une fonction potentielle dans les neurones sensoriels. Une majorité des neurones exprimant les courants ASIC co-expriment des marqueurs des nocicepteurs. Toutefois, une plus grande proportion des neurones exprimant le type 1 n'est pas associée à la nociception par rapport aux types 2 et 3. Nous avons montré qu'il est possible d'induire des potentiels d'actions suite à une acidification. La probabilité d'induction est proportionnelle à la densité des courants ASIC et à l'acidité de la stimulation. Puis, nous avons utilisé cette classification comme un outil pour appréhender les potentielles modulations fonctionnelles des ASICs dans un model de neuropathie (spared nerve injury). Cette approche fut complétée par des expériences de «quantitative RT-PCR ». En situation de neuropathie, les courants ASIC sont dramatiquement changés au niveau de leur expression fonctionnelle et transcriptionnelle dans les neurones lésés ainsi que non-lésés. Dans une deuxième partie de ma thèse, suite au test de différentes substances sécrétées lors de l'inflammation et l'ischémie sur les propriétés des ASICs, nous avons caractérisé en détail la modulation des propriétés des courants ASICs notamment ASIC1 par les sérines protéases dans des systèmes d'expression recombinants ainsi que dans des neurones d'hippocampe. Nous avons montré que l'exposition aux sérine-protéases décale la dépendance au pH de l'activation ainsi que la « steady-state inactivation »des ASICs -1a et -1b vers des valeurs plus acidiques. Ainsi, l'exposition aux serine protéases conduit à une diminution du courant quand l'acidification a lieu à partir d'un pH7.4 et conduit à une augmentation du courant quand l'acidification alleu à partir d'un pH7. Nous avons aussi montré que cette régulation a lieu des les neurones d'hippocampe. Nos résultats dans les neurones sensoriels suggèrent que certains courants ASICs sont impliqués dans la transduction de l'acidification et de la douleur ainsi que dans une des phases du processus conduisant à la neuropathie. Une partie des courants de type 1 perméables au Ca 2+ peuvent être impliqués dans la neurosécrétion. La modulation par les sérines protéases pourrait expliquer qu'en situation d'acidose les canaux ASICs soient toujours activables. Résumé grand publique Les neurones sont les principales cellules du système nerveux. Le système nerveux est formé par le système nerveux central - principalement le cerveau, le cervelet et la moelle épinière - et le système nerveux périphérique -principalement les nerfs et les neurones sensoriels. Grâce à leur nombreux "bras" (les neurites), les neurones sont connectés entre eux, formant un véritable réseau de communication qui s'étend dans tout le corps. L'information se propage sous forme d'un phénomène électrique, l'influx nerveux (ou potentiels d'actions). A la base des phénomènes électriques dans les neurones il y a ce que l'on appelle les canaux ioniques. Un canal ionique est une sorte de tunnel qui traverse l'enveloppe qui entoure les cellules (la membrane) et par lequel passent les ions. La plupart de ces canaux sont normalement fermés et nécessitent d'être activés pour s'ouvrire et générer un influx nerveux. Les canaux ASICs sont activés par l'acidification et sont exprimés dans tout le système nerveux. Cette acidification a lieu notamment lors d'une attaque cérébrale (ischémie cérébrale) ou lors de l'inflammation. Les expériences sur les animaux ont montré que les canaux ASICs avaient entre autre un rôle dans la mort des neurones lors d'une attaque cérébrale et dans la douleur inflammatoire. Lors de ma thèse je me suis intéressé au rôle des ASICs dans la douleur et à l'influence des substances produites pendant l'inflammation sur leur activation par l'acidification. J'ai ainsi pu montrer chez le rat que la majorité des neurones sensoriels impliqués dans la douleur ont des canaux ASICs et que l'activation de ces canaux induit des potentiels d'action. Nous avons opéré des rats pour qu'ils présentent les symptômes d'une maladie chronique appelée neuropathie. La neuropathie se caractérise par une plus grande sensibilité à la douleur. Les rats neuropathiques présentent des changements de leurs canaux ASICs suggérant que ces canaux ont une peut-être un rôle dans la genèse ou les symptômes de cette maladie. J'ai aussi montré in vitro qu'un type d'enryme produit lors de l'inflammation et l'ischémie change les propriétés des ASICs. Ces résultats confirment un rôle des ASICs dans la douleur suggérant notamment un rôle jusque là encore non étudié dans la douleur neuropathique. De plus, ces résultats mettent en évidence une régulation des ASICs qui pourrait être importante si elle se confirmait in vivo de part les différents rôles des ASICs. Abstract Acid-sensing ion channels (ASICs) are members of the ENaC/Degenerin superfamily of ion channels. Their activation by a rapid extracellular acidification generates a transient and for some ASIC types also a sustained current mainly mediated by Na+. ASICs are expressed in the central (CNS) and in the peripheral (PNS) nervous system. In the CNS, ASICs have a putative role in learning, memory and in neuronal death after cerebral ischemia. In the PNS, ASICs have a putative role in nociception (acute and inflammatory pain) and in mechanotransduction. However, studies on ASIC function are somewhat controversial. Some studies suggest a crucial role of ASICs in transduction of acidification and in pain whereas other studies suggest rather a modulatory inhibitory role of ASICs in pain. Moreover, the basic property of ASICs, that they are activated only transiently is irreconcilable with the well-known property of nociception that the firing of nociceptive fibers demonstrated very little adaptation. Endogenous molecules may exist that can modulate ASIC properties. In a first part of my thesis, we addressed the question of the functional expression of ASICs in adult rat dorsal root ganglion (DRG) neurons. Our goal was to elucidate ASIC roles in DRG neurons. We characterized biophysical and pharmacological properties of ASIC currents using the patch-clamp technique in the whole-cell configuration. We observed that around 60% of small-diameter sensory neurons express ASICs currents. We described in these neurons three ASIC current types. Types 1 and 3 have properties compatible with a role of pH-sensor whereas type 2 is mainly activated by pH lower than pH6. Type 1 is mediated by ASIC1a homomultimers which are permeable to Ca 2+. We studied ASIC co-expression with nociceptor markers. The goal was to associate an ASIC current type with a potential function in sensory neurons. Most neurons expressing ASIC currents co-expressed nociceptor markers. However, a higher proportion of the neurons expressing type 1 was not associated with nociception compared to type 2 and -3. We completed this approach with current-clamp measurements of acidification-induced action potentials (APs). We showed that activation of ASICs in small-diameter neurons can induce APs. The probability of AP induction is positively correlated with the ASIC current density and the acidity of stimulation. Then, we used this classification as a tool to characterize the potential functional modulation of ASICs in the spared nerve injury model of neuropathy. This approach was completed by quantitative RT-PCR experiments. ASICs current expression was dramatically changed at the functional and transcriptional level in injured and non-injured small-diameter DRG neurons. In a second part of my thesis, following an initial screening of the effect of various substances secreted during inflammation and ischemia on ASIC current properties, we characterized in detail the modulation of ASICs, in particular of ASIC1 by serine proteases in a recombinant expression system as well as in hippocampal neurons. We showed that protease exposure shifts the pH dependence of ASIC1 activation and steady-state inactivation to more acidic pH. As a consequence, protease exposure leads to a decrease in the current response if ASIC1 is activated by a pH drop from pH 7.4. If, however, acidification occurs from a basal pH of 7, protease-exposed ASIC1a shows higher activity than untreated ASIC1a. We provided evidence that this bi-directional regulation of ASIC1a function also occurs in hippocampal neurons. Our results in DRG neurons suggest that some ASIC currents are involved in the transduction of peripheral acidification and pain. Furthermore, ASICs may participate to the processes leading to neuropathy. Some Ca 2+-permeable type 1 currents may be involved in neurosecretion. ASIC modulation by serine proteases may be physiologically relevant, allowing ASIC activation under sustained slightly acidic conditions.
Resumo:
Résumé : L'amygdale latérale (AL) joue un .rôle essentiel dans la plasticité synaptique à la base du conditionnement de la peur. Malgré le faite que la majorité des cellules de l'AL reçoivent les afférentes nécessaires, une potentialisation dans seulement une partie d'entre elles est obligatoire afin que l'apprentissage de la peur ait lieu. Il a été montré que ces cellules expriment la forme active de CREB, et celui-ci a été associé aux cellules dites de type 'nonaccomrnodating' (nAC). Très récemment, une étude a impliqué les circuits récurrents de l'AL dans le conditionnement de la peur. Un lien entre ces deux observations n'a toutefois jamais été établi. t Nous avons utilisé un protocole in vitro de forte activation de l'AL, résultant dans l'induction de 'bursts' provenant de l'hippocampe et se propageant jusqu'à l'AL. Dans l'AL ces 'bursts' atteignent toutes les cellules et se propagent à travers plusieurs chemins. Utilisant ce protocole, nous avons, pour la première fois pu associer dans l'AL, des cellules connectées de manière récurrente avec des cellules de type nAC. Aussi bien dans ces dernières que dans les cellules de type 'accommodating' (AC), une diminution dans la transmission inhibitrice, à la fois exprimée de manière pré synaptique mais également indépendant de la synthèse de protéine a pu être observé. Au contraire, une potentialisation induite et exprimée au niveau pré synaptique ainsi que dépendante de la synthèse de protéine a pu être trouvé uniquement dans les cellules de type nAC. De plus, une hyperexcitabilité, dépendante des récepteurs NMDA a pu être observé, avec une sélection préférentielle des cellules du type nAC dans la génération de bursts. Nous avons également pu démontrer que la transformation d'un certain nombre de cellules de type AC en cellules dites nAC accompagnait cette augmentation générale de l'excitabilité de l'AL. Du faite da la grande quantité d'indices suggérant une connexion entre le système noradrénergique et les états de peur/d'anxiété, les effets d'une forte activation de l'AL sur ce dernier ont été investigués et ont révélés une perte de sa capacité de modulation du 'spiking pattern'. Finalement, des changements au niveau de l'expression d'un certain nombre de gènes, incluant celui codant pour le BDNF, a pu être trouvé à la suite d'une forte activation de l'AL. En raison du lien récemment décrit entre l'expression de la forme active de CREB et des cellules de type nAC ainsi que celui de l'implication des cellules de l'AL connectés de manière récurrente dans l'apprentissage de la peur, nos résultats nous permettent de suggérer un modèle expliquant comment la potentialisation des connections récurrentes entre cellules de type nAC pourrait être à la base de leur recrutement sélectif pendant le conditionnement de la peur. De plus, ils peuvent offrir des indices par rapport aux mécanismes à travers lesquels une sous population de neurones peut être réactivée par une stimulation externe précédemment inefficace, et induire ainsi un signal suffisamment fort pour qu'il soit transmit aux structures efférentes de l'AL. Abstract : The lateral nucleus of the amygdala (LA) is critically involved in the plasticity underlying fear-conditioned learning (Sah et al., 2008). Even though the majority of cells in the LA receive the necessary sensory inputs, potentiation in only a subset is required for fear learning to occur (Repa et al., 2001; Rumpel et al., 2005). These cells express active CREB (CAMP-responsive element-binding protein) (Han et al., 200, and this was related to the non-accommodating (nAC) spiking phenotype (Viosca et al., 2009; Zhou et al., 2009). In addition, a very recent study implicated recurrently connected cells of the LA in fear conditioned learning (Johnson et al., 2008). A link between the two observations has however never been made. In rats, we used an in vitro protocol of strong activation of the LA, resulting in bursting activity, which spread from the hippocampus to the LA. Within the LA, this activity reached all cells and spread via a multitude of pathways. Using this model, we were able to link, for the first time, recurrently connected cells in the LA with cells of the nAC phenotype. While we found a presynaptically expressed, protein synthesis independent decrease in inhibitory synaptic transmission in both nAC and accommodating (AC) cells, only nAC cells underwent a presynaptically induced and expressed, protein synthesis dependent potentiation. Moreover we observed an NMDA dependent hyperexcitability of the LA, with a preferential selection of nAC cells into burst generation. The transformation of a subset of AC cells into nAC cells accompanied this general increase in LA excitability. Given the considerable evidence suggesting a relationship between the central noradrenergic (NA) system and fear/anxiety states (Itoi, 2008), the effects of strong activation of the LA on the noradrenergic system were investigated, which revealed a loss of its modulatory actions on cell spiking patterns. Finally, we found changes in the expression levels of a number of genes; among which the one coding for $DNF, to be induced by strong activation of the LA. In view of the recently described link between nAC cells and expression of pCREB (phosphorylated cAMP-responsive element-binding protein) as well as the involvement of recurrently connected cells of the LA in fear-conditioned learning, our findings may provide a model of how potentiation of recurrent connections between nAC neurons underlies their recruitment into the fear memory trace. Additionally, they may offer clues as to the mechanisms through which a selected subset of neurons can be reactivated by smaller, previously ineffective external stimulations to respond with a sufficiently strong signal, which can be transmitted to downstream targets of the LA.
Resumo:
Enfin traduite en français, l'éthique économique d'Arthur Rich est une somme magistrale, une synthèse unique en son genre, due à l'un des représentants éminents de l'éthique sociale contemporaine. Puisant son inspiration dans la théologie, l'éthique contemporaine et les grands travaux de recherche en économie, l'auteur montre que si le système de l'économie de marché a l'avantage d'être foncièrement réformable, au contraire de toute économie planifiée, il exige des régulations équitables et responsables. Ni marxiste, ni sauvagement libéral, l'auteur ne fait pas non plus de concessions à l'écologie qu'il soumet aux normes de l'éthique sociale et de la justice économique. La synthèse puissante qu'il offre au long des 680 pages de son ouvrage est une des références majeures d'un discours économique d'inspiration chrétienne. Né en 1910 en Suisse alémanique, mort en 1992, Arthur Rich a étudié la théologie après un apprentissage en usine. Ses intérêts l'ont mené vers l'éthique sociale et économique dont il est une figure reconnue dans le monde anglo-saxon.
Resumo:
Introduction : La prise en charge des patients critiques nécessite dans la majorité des situations l'obtention rapide d'un accès vasculaire, afin d'administrer des médicaments, des solutés de remplissage, ou des produits sanguins. La mise en place d'un accès vasculaire peut s'avérer difficile chez ces patients. En cas d'échec de pose d'une voie veineuse périphérique, des abords vasculaires alternatifs existent. Il s'agit essentiellement de la pose d'une voie veineuse centrale, la réalisation d'une dénudation veineuse, ou la pose d'une voie intra-osseuse. Depuis le développement de dispositifs d'insertion « semi-automatique » à la fin des années 90, la voie intra-osseuse, traditionnellement réservée aux cas pédiatriques, est de plus en plus fréquemment utilisée chez les patients adultes. Le Service des Urgences du CHUV a introduit en 2009 les dispositifs d'insertion d'aiguilles intra-osseuses de type EZ-IO® (perceuse électrique), en salle de réanimation des urgences vitales (déchoquage), ainsi qu'au sein du secteur préhospitalier pour les interventions du SMUR de Lausanne et de l'hélicoptère REGA de la base de Lausanne. Par cette étude, nous voulions mettre en évidence les aspects épidémiologiques des patients ayant dû être perfusés par cet abord dans un contexte préhospitalier, ainsi que les circonstances cliniques ayant justifié un tel usage, le taux de succès, les éventuelles complications, les médicaments perfusés et la mortalité des patients ayant bénéficié de ce dispositif. Méthode: Chaque patient ayant bénéficié de la mise en place d'une voie intra-osseuse par EZ-IO® du 1er janvier 2009 au 31 décembre 2011 a été inclus. Les données récoltées étaient l'âge, le sexe, l'indication à la mise en place de l'intra-osseuse, la localisation, le taux de succès, les médicaments et fluides administrés, les complications, la mortalité à 48 heures et à la sortie de l'hôpital. Tous les articles mentionnant l'utilisation de ΙΈΖ-ΙΟ® dans des situations cliniques ont également été analysés par une revue de littérature structurée exhaustive, afin de comparer nos résultats avec les données de la littérature. Résultats : Cinquante-huit patients, représentant 60 intra-osseuses EZ-IO®, ont été inclus. Leur âge moyen (47 ans), le taux de succès (90%), les indications, la localisation de l'aiguille (98% au niveau du tibia proximal) et le taux de complications (0%) correspondent aux valeurs trouvées dans la littérature. Le taux de survie de nos patients est de 38% à 48 heures et de 29% à la sortie de l'hôpital. De nombreux médicaments ou solutés de perfusion ont été administrés; l'adrénaline restant le médicament le plus fréquemment administré par cette voie. Dans 7 cas, les patients ont bénéficié d'une induction d'anesthésie par voie intra-osseuse. La revue de littérature a permis de compiler 30 études distinctes, représentant un total de 1603 accès vasculaires de type EZ-IO®. Conclusion : La voie intra-osseuse s'avère fiable et rapide pour obtenir un accès vasculaire, avec un taux de complications très faible et permet l'administration d'un grand nombre de substances. D'autres études sont nécessaires pour évaluer l'impact de la voie intra osseuse, notamment en termes de mortalité, de complications tardives, ainsi que d'analyse coût/bénéfice de ce matériel.
Resumo:
A unified and general vision of different space-time processors is presented. Many popular receivers can beaccomodated, like V-RAKE receivers, weighted V-RAKE, or spatial narrowband beamforming. By makingappropriate assumptions on the space/time characteristic of the interference it is possible to enhance theperformance of the receiver through spatial/temporal pre-processors. These receivers will be tested in the FDDmode of UTRA.
Resumo:
RESUME Les fibres textiles sont des produits de masse utilisés dans la fabrication de nombreux objets de notre quotidien. Le transfert de fibres lors d'une action délictueuse est dès lors extrêmement courant. Du fait de leur omniprésence dans notre environnement, il est capital que l'expert forensique évalue la valeur de l'indice fibres. L'interprétation de l'indice fibres passe par la connaissance d'un certain nombre de paramètres, comme la rareté des fibres, la probabilité de leur présence par hasard sur un certain support, ainsi que les mécanismes de transfert et de persistance des fibres. Les lacunes les plus importantes concernent les mécanismes de transfert des fibres. A ce jour, les nombreux auteurs qui se sont penchés sur le transfert de fibres ne sont pas parvenus à créer un modèle permettant de prédire le nombre de fibres que l'on s'attend à retrouver dans des circonstances de contact données, en fonction des différents paramètres caractérisant ce contact et les textiles mis en jeu. Le but principal de cette recherche est de démontrer que la création d'un modèle prédictif du nombre de fibres transférées lors d'un contact donné est possible. Dans le cadre de ce travail, le cas particulier du transfert de fibres d'un tricot en laine ou en acrylique d'un conducteur vers le dossier du siège de son véhicule a été étudié. Plusieurs caractéristiques des textiles mis en jeu lors de ces expériences ont été mesurées. Des outils statistiques (régression linéaire multiple) ont ensuite été utilisés sur ces données afin d'évaluer l'influence des caractéristiques des textiles donneurs sur le nombre de fibres transférées et d'élaborer un modèle permettant de prédire le nombre de fibres qui vont être transférées à l'aide des caractéristiques influençant significativement le transfert. Afin de faciliter la recherche et le comptage des fibres transférées lors des expériences de transfert, un appareil de recherche automatique des fibres (liber finder) a été utilisé dans le cadre de cette recherche. Les tests d'évaluation de l'efficacité de cet appareil pour la recherche de fibres montrent que la recherche automatique est globalement aussi efficace qu'une recherche visuelle pour les fibres fortement colorées. Par contre la recherche automatique perd de son efficacité pour les fibres très pâles ou très foncées. Une des caractéristiques des textiles donneurs à étudier est la longueur des fibres. Afin de pouvoir évaluer ce paramètre, une séquence d'algorithmes de traitement d'image a été implémentée. Cet outil permet la mesure de la longueur d'une fibre à partir de son image numérique à haute résolution (2'540 dpi). Les tests effectués montrent que les mesures ainsi obtenues présentent une erreur de l'ordre du dixième de millimètre, ce qui est largement suffisant pour son utilisation dans le cadre de cette recherche. Les résultats obtenus suite au traitement statistique des résultats des expériences de transfert ont permis d'aboutir à une modélisation du phénomène du transfert. Deux paramètres sont retenus dans le modèle: l'état de la surface du tissu donneur et la longueur des fibres composant le tissu donneur. L'état de la surface du tissu est un paramètre tenant compte de la quantité de fibres qui se sont détachées de la structure du tissu ou qui sont encore faiblement rattachées à celle-ci. En effet, ces fibres sont les premières à se transférer lors d'un contact, et plus la quantité de ces fibres par unité de surface est importante, plus le nombre de fibres transférées sera élevé. La longueur des fibres du tissu donneur est également un paramètre important : plus les fibres sont longues, mieux elles sont retenues dans la structure du tissu et moins elles se transféreront. SUMMARY Fibres are mass products used to produce numerous objects encountered everyday. The transfer of fibres during a criminal action is then very common. Because fibres are omnipresent in our environment, the forensic expert has to evaluate the value of the fibre evidence. To interpret fibre evidence, the expert has to know some parameters as frequency of fibres,' probability of finding extraneous fibres by chance on a given support, and transfer and persistence mechanisms. Fibre transfer is one of the most complex parameter. Many authors studied fibre transfer mechanisms but no model has been created to predict the number of fibres transferred expected in a given type of contact according to parameters as characteristics of the contact and characteristics of textiles. The main purpose of this research is to demonstrate that it is possible to create a model to predict the number of fibres transferred during a contact. In this work, the particular case of the transfer of fibres from a knitted textile in wool or in acrylic of a driver to the back of a carseat has been studied. Several characteristics of the textiles used for the experiments were measured. The data obtained were then treated with statistical tools (multiple linear regression) to evaluate the influence of the donor textile characteristics on the number of úbers transferred, and to create a model to predict this number of fibres transferred by an equation containing the characteristics having a significant influence on the transfer. To make easier the searching and the counting of fibres, an apparatus of automatic search. of fibers (fiber finder) was used. The tests realised to evaluate the efficiency of the fiber finder shows that the results obtained are generally as efficient as for visual search for well-coloured fibres. However, the efficiency of automatic search decreases for pales and dark fibres. One characteristic of the donor textile studied was the length of the fibres. To measure this parameter, a sequence of image processing algorithms was implemented. This tool allows to measure the length of a fibre from it high-resolution (2'540 dpi) numerical image. The tests done shows that the error of the measures obtained are about some tenths of millimetres. This precision is sufficient for this research. The statistical methods applied on the transfer experiment data allow to create a model of the transfer phenomenon. Two parameters are included in the model: the shedding capacity of the donor textile surface and the length of donor textile fibres. The shedding capacity of the donor textile surface is a parameter estimating the quantity of fibres that are not or slightly attached to the structure of the textile. These fibres are easily transferred during a contact, and the more this quantity of fibres is high, the more the number of fibres transferred during the contact is important. The length of fibres is also an important parameter: the more the fibres are long, the more they are attached in the structure of the textile and the less they are transferred during the contact.
Resumo:
Pour pouvoir naviguer sans encombre dans notre environnement social, il est important d'être en mesure d'identifier correctement les propriétés sociales des personnes avec qui nous sommes amenés à interagir. Au cours de leur socialisation, les enfants doivent donc nécessairement faire l'apprentissage des catégories sociales en usage dans leur univers socio-culturel. Des recherches expérimentales en psychologie du développement permettent de penser qu'un tel apprentissage est tout à la fois rendu possible et contraint par un certain nombre de prédispositions cognitives, déjà à l'oeuvre chez les très jeunes enfants et les bébés. En me basant sur ces recherches, j'avance dans cet article que l'être humain possède une tendance cognitive spontanée à catégoriser socialement ses semblables selon trois axes: une catégorisation horizontale, détectant les relations d'affiliation entre des individus, une catégorisation verticale, identifiant leurs relations de dominance, et une catégorisation transversale, les distinguant selon leur sexe et leur âge. Si ces "pentes cognitives naturelles" préparent les enfants à intégrer les catégories particulières en vigueur au sein de leur société, elles les inclinent malheureusement aussi à les essentialiser.
Resumo:
Cette thèse présente les pratiques sociales et les parcours d'apprentissage d'un corps de spécialistes rituels, qui se donnent le nom générique de « médiums guérisseurs », à partir d'une ethnographie des modes de résolution des crises existentielles et des dispositifs de production de croyance permettant les moyens d'objectivation d'une « autre réalité », proposés par trois configurations en Suisse romande. L'enquête explore d'abord la structuration du champ thérapeutico-religieux en Suisse romande pour en révéler les niches favorisant les inscriptions sociales des médiums guérisseurs. Elle s'est portée ensuite sur la manière dont ces praticiens inscrivent les différents épisodes de leur vie dans un cursus de reconnaissance de compétences particulières. Et comment ces moments de vie s'articulent et s'enchaînent pour construire l'autobiographie de la métamorphose de leur personnalité en celle d'un « médium guérisseur » apaisant les souffrances des vivants et les âmes des « morts ». L'enquête a pris en compte les discours de ces médiums guérisseurs et aussi les modalités de transmissions de ces savoirs en ce qu'elles contribuent à leur construction et à leur développement. Cette recherche participe d'une interrogation plus générale, en contexte de modernité et de globalisation, sur l'« émiettement du religieux », tout en proposant de nuancer cette assertion en regard d'une stratégie d'enquête ethnographique qui met l'accent sur les logiques d'action plutôt que de représentations et privilégie l'apprentissage dialogique et la co-construction des données afin de cerner les modalités d'un travail symbolique et syncrétique.
Resumo:
La thèse essaie de montrer comment il est possible d'offrir une implémentation fonctionnelle d'un agent doté d'une conscience (psychologique). Une première étape étudie les différentes approches, définitions et théories de la conscience proposées par la littérature. Cette étude dégage plus particulièrement un modèle psychologique qui offre une modélisation des fonctionnalités de la conscience, de ses éléments constitutifs et des relations entre ces éléments. Cet effort de formalisation permet d'identifier les corrélations computionnelles du modèle ouvrant ainsi la voie à une implémentation fonctionnelle de la conscience. Une seconde étape réuni les outils et méthodes informatiques existants en vue de procéder à une telle implémentation. En particulier, celle-ci repose sur un modèle de communication permettant d'élaborer une machine virtuelle basée sur des processus concurrents synchronisés. La troisième étape consiste à implémenter les corrélations computationnelles dont l'une est une fonction de délibération qui, après une analyse itérative de son état et de son environnement (machine à état), aboutit à la sélection d'une action. Une deuxième fonction est la formation de contextes, autrement dit l'apprentissage d'automatismes, consistant à compiler la délibération. Cette compilation s'opère grâce à un processus concurrent reflétant le processus de délibération, dotant ainsi l'agent de la capacité d'observer son propre fonctionnement. La thèse se conclut en proposant quelques axes de recherches et d'applications futures susceptibles de prolonger le travail.
Resumo:
Résumé L'arrivée en force de l'imagerie numérique de bonne qualité à un prix abordable m'a fait réfléchir à la meilleure manière de l'intégrer dans la pratique courante de l'enseignement de la dermatologie, spécialité très visuelle. Comment mettre à profit la richesse des images et les nombreuses possibilités pédagogiques que l'informatique offre. J'ai étudié quelques produits existant sur le marché; je constate que les possibilités offertes par l'informatique restent souvent sous exploitées. Les réalisations manquent de liens hypertextes et la facilité d'accès aux images que permet l'informatique n'est pas appliquée. Les images sont trop souvent présentées avec une légende trop brève, ne soulignant pas les points importants pour le diagnostic. Certains outils ne proposent même pas de diagnostics différentiels. Ma réflexion me pousse à croire que l'apprentissage doit se faire par l'image. L'étudiant doit y apprendre les bases du diagnostic morphologique, trouver ce qui lui permet de poser le diagnostic. Compte tenu de mes observations, j'ai développé à Lausanne mon propre atlas interactif de diagnostics différentiels, basé sur la comparaison d'images. Mon projet n'a donc pas pour but de remplacer un livre ou un atlas, mais je souhaite compléter les moyens d'apprentissage basés sur l'image. Sa particularité tient dans la manière dont on a sélectionné les diagnostics différentiels; mon critère principal n'a pas été un choix théorique, mais la ressemblance entre deux images de ma bibliothèque. Cette manière de procéder m'a forcé à résoudre quelques questions fondamentales à propos des diagnostics différentiels. J'ai prêté une attention particulière à ce que l'utilisateur replace aisément les 850 images dans une structure que j'ai voulue claire. Cela m'a poussé à réfléchir sur la manière dont on aborde la dermatologie: par localisation, d'après les lésions, selon l'âge ou d'après des critères de physiopathologie ? Chaque image est accessible par la table des matières originale, soit par un module de recherche multicritère. Mon produit est personnalisable grâce à la présence de plusieurs outils. "Le Petit Rouvé", première version, est maintenant disponible pour une phase de test. Dans un second temps, l'atlas sera distribué aux étudiants de 4ème et 6ème année de la Faculté de médecine de Lausanne pour la rentrée de 2004-2005.
Resumo:
ABSTRACT: Massive synaptic pruning following over-growth is a general feature of mammalian brain maturation. Pruning starts near time of birth and is completed by time of sexual maturation. Trigger signals able to induce synaptic pruning could be related to dynamic functions that depend on the timing of action potentials. Spike-timing-dependent synaptic plasticity (STDP) is a change in the synaptic strength based on the ordering of pre- and postsynaptic spikes. The relation between synaptic efficacy and synaptic pruning suggests that the weak synapses may be modified and removed through competitive "learning" rules. This plasticity rule might produce the strengthening of the connections among neurons that belong to cell assemblies characterized by recurrent patterns of firing. Conversely, the connections that are not recurrently activated might decrease in efficiency and eventually be eliminated. The main goal of our study is to determine whether or not, and under which conditions, such cell assemblies may emerge out of a locally connected random network of integrate-and-fire units distributed on a 2D lattice receiving background noise and content-related input organized in both temporal and spatial dimensions. The originality of our study stands on the relatively large size of the network, 10,000 units, the duration of the experiment, 10E6 time units (one time unit corresponding to the duration of a spike), and the application of an original bio-inspired STDP modification rule compatible with hardware implementation. A first batch of experiments was performed to test that the randomly generated connectivity and the STDP-driven pruning did not show any spurious bias in absence of stimulation. Among other things, a scale factor was approximated to compensate for the network size on the ac¬tivity. Networks were then stimulated with the spatiotemporal patterns. The analysis of the connections remaining at the end of the simulations, as well as the analysis of the time series resulting from the interconnected units activity, suggest that feed-forward circuits emerge from the initially randomly connected networks by pruning. RESUME: L'élagage massif des synapses après une croissance excessive est une phase normale de la ma¬turation du cerveau des mammifères. L'élagage commence peu avant la naissance et est complété avant l'âge de la maturité sexuelle. Les facteurs déclenchants capables d'induire l'élagage des synapses pourraient être liés à des processus dynamiques qui dépendent de la temporalité rela¬tive des potentiels d'actions. La plasticité synaptique à modulation temporelle relative (STDP) correspond à un changement de la force synaptique basé sur l'ordre des décharges pré- et post- synaptiques. La relation entre l'efficacité synaptique et l'élagage des synapses suggère que les synapses les plus faibles pourraient être modifiées et retirées au moyen d'une règle "d'appren¬tissage" faisant intervenir une compétition. Cette règle de plasticité pourrait produire le ren¬forcement des connexions parmi les neurones qui appartiennent à une assemblée de cellules caractérisée par des motifs de décharge récurrents. A l'inverse, les connexions qui ne sont pas activées de façon récurrente pourraient voir leur efficacité diminuée et être finalement éliminées. Le but principal de notre travail est de déterminer s'il serait possible, et dans quelles conditions, que de telles assemblées de cellules émergent d'un réseau d'unités integrate-and¬-fire connectées aléatoirement et distribuées à la surface d'une grille bidimensionnelle recevant à la fois du bruit et des entrées organisées dans les dimensions temporelle et spatiale. L'originalité de notre étude tient dans la taille relativement grande du réseau, 10'000 unités, dans la durée des simulations, 1 million d'unités de temps (une unité de temps correspondant à une milliseconde), et dans l'utilisation d'une règle STDP originale compatible avec une implémentation matérielle. Une première série d'expériences a été effectuée pour tester que la connectivité produite aléatoirement et que l'élagage dirigé par STDP ne produisaient pas de biais en absence de stimu¬lation extérieure. Entre autres choses, un facteur d'échelle a pu être approximé pour compenser l'effet de la variation de la taille du réseau sur son activité. Les réseaux ont ensuite été stimulés avec des motifs spatiotemporels. L'analyse des connexions se maintenant à la fin des simulations, ainsi que l'analyse des séries temporelles résultantes de l'activité des neurones, suggèrent que des circuits feed-forward émergent par l'élagage des réseaux initialement connectés au hasard.
Resumo:
Résumé: L'automatisation du séquençage et de l'annotation des génomes, ainsi que l'application à large échelle de méthodes de mesure de l'expression génique, génèrent une quantité phénoménale de données pour des organismes modèles tels que l'homme ou la souris. Dans ce déluge de données, il devient très difficile d'obtenir des informations spécifiques à un organisme ou à un gène, et une telle recherche aboutit fréquemment à des réponses fragmentées, voir incomplètes. La création d'une base de données capable de gérer et d'intégrer aussi bien les données génomiques que les données transcriptomiques peut grandement améliorer la vitesse de recherche ainsi que la qualité des résultats obtenus, en permettant une comparaison directe de mesures d'expression des gènes provenant d'expériences réalisées grâce à des techniques différentes. L'objectif principal de ce projet, appelé CleanEx, est de fournir un accès direct aux données d'expression publiques par le biais de noms de gènes officiels, et de représenter des données d'expression produites selon des protocoles différents de manière à faciliter une analyse générale et une comparaison entre plusieurs jeux de données. Une mise à jour cohérente et régulière de la nomenclature des gènes est assurée en associant chaque expérience d'expression de gène à un identificateur permanent de la séquence-cible, donnant une description physique de la population d'ARN visée par l'expérience. Ces identificateurs sont ensuite associés à intervalles réguliers aux catalogues, en constante évolution, des gènes d'organismes modèles. Cette procédure automatique de traçage se fonde en partie sur des ressources externes d'information génomique, telles que UniGene et RefSeq. La partie centrale de CleanEx consiste en un index de gènes établi de manière hebdomadaire et qui contient les liens à toutes les données publiques d'expression déjà incorporées au système. En outre, la base de données des séquences-cible fournit un lien sur le gène correspondant ainsi qu'un contrôle de qualité de ce lien pour différents types de ressources expérimentales, telles que des clones ou des sondes Affymetrix. Le système de recherche en ligne de CleanEx offre un accès aux entrées individuelles ainsi qu'à des outils d'analyse croisée de jeux de donnnées. Ces outils se sont avérés très efficaces dans le cadre de la comparaison de l'expression de gènes, ainsi que, dans une certaine mesure, dans la détection d'une variation de cette expression liée au phénomène d'épissage alternatif. Les fichiers et les outils de CleanEx sont accessibles en ligne (http://www.cleanex.isb-sib.ch/). Abstract: The automatic genome sequencing and annotation, as well as the large-scale gene expression measurements methods, generate a massive amount of data for model organisms. Searching for genespecific or organism-specific information througout all the different databases has become a very difficult task, and often results in fragmented and unrelated answers. The generation of a database which will federate and integrate genomic and transcriptomic data together will greatly improve the search speed as well as the quality of the results by allowing a direct comparison of expression results obtained by different techniques. The main goal of this project, called the CleanEx database, is thus to provide access to public gene expression data via unique gene names and to represent heterogeneous expression data produced by different technologies in a way that facilitates joint analysis and crossdataset comparisons. A consistent and uptodate gene nomenclature is achieved by associating each single gene expression experiment with a permanent target identifier consisting of a physical description of the targeted RNA population or the hybridization reagent used. These targets are then mapped at regular intervals to the growing and evolving catalogues of genes from model organisms, such as human and mouse. The completely automatic mapping procedure relies partly on external genome information resources such as UniGene and RefSeq. The central part of CleanEx is a weekly built gene index containing crossreferences to all public expression data already incorporated into the system. In addition, the expression target database of CleanEx provides gene mapping and quality control information for various types of experimental resources, such as cDNA clones or Affymetrix probe sets. The Affymetrix mapping files are accessible as text files, for further use in external applications, and as individual entries, via the webbased interfaces . The CleanEx webbased query interfaces offer access to individual entries via text string searches or quantitative expression criteria, as well as crossdataset analysis tools, and crosschip gene comparison. These tools have proven to be very efficient in expression data comparison and even, to a certain extent, in detection of differentially expressed splice variants. The CleanEx flat files and tools are available online at: http://www.cleanex.isbsib. ch/.
Resumo:
Résumé Le présent travail de thèse a fait face au défi de lier les changements transcriptionnels dans les neurones du système nerveux central au développement de l'addiction aux drogues. I1 est connu que l'apprentissage induit des modifications au niveau de la structure du cerveau, principalement en changeant la manière dont les neurones sont interconnectés par des synapses. De plus en plus d'évidences soutiennent un scénario selon lequel l'activité neuronale déclenche des cascades de signalisation intracellulaire qui ciblent des facteurs de transcription. Ces derniers peuvent activer la transcription de gènes spécifiques qui codent pour des protéines nécessaires au renforcement des synapses mémorisant ainsi la nouvelle information. Puisque l'addiction peut être considérée comme une forme aberrante d'apprentissage, et que les modifications synaptiques sont connues pour être impliquées dans le processus d'addiction, nous essayons de décrire des mécanismes transcriptionels étant à la base des changements synaptiques induits par les drogues. Comme modèle nous utilisons des cultures primaires des neurones de striatum, d'hippocampe et de cortex de souris ainsi que des tranches de cerveau de rat. Une des caractéristiques communes de quasiment toutes les substances addictives est de pouvoir activer le système mésolimbique dopaminergique provoquant la libération de dopamine sur les neurones du striatum (du noyau accumbens). Dans ce travail de thèse nous démontrons que dans des cultures du striatum, la dopamine induit le facteur de transcription C/EBPβ qui, à son tour, provoque l'expression du gène codant pour la substance P. Ce mécanisme pourrait potentiellement contribuer à la tolérance envers les drogues puisqu'il fait partie d'une rétroaction (feed-back) sur les cellules produisant la dopamine. Etant donné que ces résultats montrent l'importance de C/EBPβ dans la psychopathologie de l'addiction, nous avons également décidé d'étudier les mécanismes fondamentaux de l'activation de la transcription par C/EBPβ. Nos expériences démontrent que trois isoformes activatrices de la famille C/EBP recrutent le coactivateur CBP et provoquent en même temps sa phosphorylation. Enfin, nous montrons que les coactivateurs nommés TORC, nouvellement découverts et clonés, sont capables de détecter la coïncidence d'un signal cAMP et d'une entrée de calcium dans des neurones. Par conséquent les TORCs pourraient contribuer à détecter la coïncidence d'un signal glutamate et d'un signal dopamine dans les neurones de striatum, ce qui pourrait être important pour associer les effets hédonistes de la drogue à l'information contextuelle (par exemple à l'environnement où la drogue a été consommée). Nous sommes les premiers à observer que les TORCs sont nécessaires pour la potentiation à long terme dans l'hippocampe. Summary The present thesis work faced the challenge to link the development of drug addiction to transcriptional changes in the neurons of the central nervous system. Experience and learning are known to induce structural modifications in the brain, and these changes are thought to occur mainly in the way neurons are interconnected by synapses. More and more evidences point to a scenario in which neuronal activity would activate signalization cascades that impinge on transcription factors, which, in turn, would activate genes necessary for the reinforcement of synapses coding for new informations. Given that drug addiction can be considered as an aberrant form of learning and is thought to involve synaptic modifications, we try to elucidate some of the transcriptional mechanisms that could underlie drug-induced synaptic changes. As a model system, we use primary cultures of striatal, cortical and hippocampal neurons dissected from mouse embryos as well as brain slices from rats. One of the common features of virtually all drugs of abuse is to activate the mesocorticolimbic dopaminergic system that results in the release of dopamine onto the neurons of the striatum (nucleus accumbens). In this thesis work we show that in striatal cultures, dopamine induces the transcription factor C/EBPβ that in turn drives the expression of the gene coding for substance P. This mechanism is likely to be important for the drug-induced tolerance in the brain since it might be a part of a feedback acting on dopaminergic neurons. Given the suspected importance of C/EBPβ in drug addiction, we also try to elucidate some aspects of the basic mechanisms by which the C/EBP family activates transcription. We show that three activating members of the C/EBP family recruit the coactivator CBP and trigger its phosphorylation. Finally, we demonstrate that the newly discovered and cloned transcriptional coactivators, named TORCs (transducers of regulated CREB activity) are able to detect the coincidence of a calcium and a cAMP signal in the central nervous system. This way, TORCs could contribute to the detection of a coincidence between a glutamate and a dopamine signal in striatal neurons - a process that is suggested to be important for an association between the rewarding effect of a drug and contextual information (such as the environment where the drug had been taken). We demonstrate that TORCs are required for hippocampal LTP.
Resumo:
La théorie de l'autocatégorisation est une théorie de psychologie sociale qui porte sur la relation entre l'individu et le groupe. Elle explique le comportement de groupe par la conception de soi et des autres en tant que membres de catégories sociales, et par l'attribution aux individus des caractéristiques prototypiques de ces catégories. Il s'agit donc d'une théorie de l'individu qui est censée expliquer des phénomènes collectifs. Les situations dans lesquelles un grand nombre d'individus interagissent de manière non triviale génèrent typiquement des comportements collectifs complexes qui sont difficiles à prévoir sur la base des comportements individuels. La simulation informatique de tels systèmes est un moyen fiable d'explorer de manière systématique la dynamique du comportement collectif en fonction des spécifications individuelles. Dans cette thèse, nous présentons un modèle formel d'une partie de la théorie de l'autocatégorisation appelée principe du métacontraste. À partir de la distribution d'un ensemble d'individus sur une ou plusieurs dimensions comparatives, le modèle génère les catégories et les prototypes associés. Nous montrons que le modèle se comporte de manière cohérente par rapport à la théorie et est capable de répliquer des données expérimentales concernant divers phénomènes de groupe, dont par exemple la polarisation. De plus, il permet de décrire systématiquement les prédictions de la théorie dont il dérive, notamment dans des situations nouvelles. Au niveau collectif, plusieurs dynamiques peuvent être observées, dont la convergence vers le consensus, vers une fragmentation ou vers l'émergence d'attitudes extrêmes. Nous étudions également l'effet du réseau social sur la dynamique et montrons qu'à l'exception de la vitesse de convergence, qui augmente lorsque les distances moyennes du réseau diminuent, les types de convergences dépendent peu du réseau choisi. Nous constatons d'autre part que les individus qui se situent à la frontière des groupes (dans le réseau social ou spatialement) ont une influence déterminante sur l'issue de la dynamique. Le modèle peut par ailleurs être utilisé comme un algorithme de classification automatique. Il identifie des prototypes autour desquels sont construits des groupes. Les prototypes sont positionnés de sorte à accentuer les caractéristiques typiques des groupes, et ne sont pas forcément centraux. Enfin, si l'on considère l'ensemble des pixels d'une image comme des individus dans un espace de couleur tridimensionnel, le modèle fournit un filtre qui permet d'atténuer du bruit, d'aider à la détection d'objets et de simuler des biais de perception comme l'induction chromatique. Abstract Self-categorization theory is a social psychology theory dealing with the relation between the individual and the group. It explains group behaviour through self- and others' conception as members of social categories, and through the attribution of the proto-typical categories' characteristics to the individuals. Hence, it is a theory of the individual that intends to explain collective phenomena. Situations involving a large number of non-trivially interacting individuals typically generate complex collective behaviours, which are difficult to anticipate on the basis of individual behaviour. Computer simulation of such systems is a reliable way of systematically exploring the dynamics of the collective behaviour depending on individual specifications. In this thesis, we present a formal model of a part of self-categorization theory named metacontrast principle. Given the distribution of a set of individuals on one or several comparison dimensions, the model generates categories and their associated prototypes. We show that the model behaves coherently with respect to the theory and is able to replicate experimental data concerning various group phenomena, for example polarization. Moreover, it allows to systematically describe the predictions of the theory from which it is derived, specially in unencountered situations. At the collective level, several dynamics can be observed, among which convergence towards consensus, towards frag-mentation or towards the emergence of extreme attitudes. We also study the effect of the social network on the dynamics and show that, except for the convergence speed which raises as the mean distances on the network decrease, the observed convergence types do not depend much on the chosen network. We further note that individuals located at the border of the groups (whether in the social network or spatially) have a decisive influence on the dynamics' issue. In addition, the model can be used as an automatic classification algorithm. It identifies prototypes around which groups are built. Prototypes are positioned such as to accentuate groups' typical characteristics and are not necessarily central. Finally, if we consider the set of pixels of an image as individuals in a three-dimensional color space, the model provides a filter that allows to lessen noise, to help detecting objects and to simulate perception biases such as chromatic induction.
Resumo:
Résumé: Les gouvernements des pays occidentaux ont dépensé des sommes importantes pour faciliter l'intégration des technologies de l'information et de la communication dans l'enseignement espérant trouver une solution économique à l'épineuse équation que l'on pourrait résumer par la célèbre formule " faire plus et mieux avec moins ". Cependant force est de constater que, malgré ces efforts et la très nette amélioration de la qualité de service des infrastructures, cet objectif est loin d'être atteint. Si nous pensons qu'il est illusoire d'attendre et d'espérer que la technologie peut et va, à elle seule, résoudre les problèmes de qualité de l'enseignement, nous croyons néanmoins qu'elle peut contribuer à améliorer les conditions d'apprentissage et participer de la réflexion pédagogique que tout enseignant devrait conduire avant de dispenser ses enseignements. Dans cette optique, et convaincu que la formation à distance offre des avantages non négligeables à condition de penser " autrement " l'enseignement, nous nous sommes intéressé à la problématique du développement de ce type d'applications qui se situent à la frontière entre les sciences didactiques, les sciences cognitives, et l'informatique. Ainsi, et afin de proposer une solution réaliste et simple permettant de faciliter le développement, la mise-à-jour, l'insertion et la pérennisation des applications de formation à distance, nous nous sommes impliqué dans des projets concrets. Au fil de notre expérience de terrain nous avons fait le constat que (i)la qualité des modules de formation flexible et à distance reste encore très décevante, entre autres parce que la valeur ajoutée que peut apporter l'utilisation des technologies n'est, à notre avis, pas suffisamment exploitée et que (ii)pour réussir tout projet doit, outre le fait d'apporter une réponse utile à un besoin réel, être conduit efficacement avec le soutien d'un " champion ". Dans l'idée de proposer une démarche de gestion de projet adaptée aux besoins de la formation flexible et à distance, nous nous sommes tout d'abord penché sur les caractéristiques de ce type de projet. Nous avons ensuite analysé les méthodologies de projet existantes dans l'espoir de pouvoir utiliser l'une, l'autre ou un panachage adéquat de celles qui seraient les plus proches de nos besoins. Nous avons ensuite, de manière empirique et par itérations successives, défini une démarche pragmatique de gestion de projet et contribué à l'élaboration de fiches d'aide à la décision facilitant sa mise en oeuvre. Nous décrivons certains de ses acteurs en insistant particulièrement sur l'ingénieur pédagogique que nous considérons comme l'un des facteurs clé de succès de notre démarche et dont la vocation est de l'orchestrer. Enfin, nous avons validé a posteriori notre démarche en revenant sur le déroulement de quatre projets de FFD auxquels nous avons participé et qui sont représentatifs des projets que l'on peut rencontrer dans le milieu universitaire. En conclusion nous pensons que la mise en oeuvre de notre démarche, accompagnée de la mise à disposition de fiches d'aide à la décision informatisées, constitue un atout important et devrait permettre notamment de mesurer plus aisément les impacts réels des technologies (i) sur l'évolution de la pratique des enseignants, (ii) sur l'organisation et (iii) sur la qualité de l'enseignement. Notre démarche peut aussi servir de tremplin à la mise en place d'une démarche qualité propre à la FFD. D'autres recherches liées à la réelle flexibilisation des apprentissages et aux apports des technologies pour les apprenants pourront alors être conduites sur la base de métriques qui restent à définir. Abstract: Western countries have spent substantial amount of monies to facilitate the integration of the Information and Communication Technologies (ICT) into Education hoping to find a solution to the touchy equation that can be summarized by the famous statement "do more and better with less". Despite these efforts, and notwithstanding the real improvements due to the undeniable betterment of the infrastructure and of the quality of service, this goal is far from reached. Although we think it illusive to expect technology, all by itself, to solve our economical and educational problems, we firmly take the view that it can greatly contribute not only to ameliorate learning conditions but participate to rethinking the pedagogical approach as well. Every member of our community could hence take advantage of this opportunity to reflect upon his or her strategy. In this framework, and convinced that integrating ICT into education opens a number of very interesting avenues provided we think teaching "out of the box", we got ourself interested in courseware development positioned at the intersection of didactics and pedagogical sciences, cognitive sciences and computing. Hence, and hoping to bring a realistic and simple solution that could help develop, update, integrate and sustain courseware we got involved in concrete projects. As ze gained field experience we noticed that (i)The quality of courseware is still disappointing, amongst others, because the added value that the technology can bring is not made the most of, as it could or should be and (ii)A project requires, besides bringing a useful answer to a real problem, to be efficiently managed and be "championed". Having in mind to propose a pragmatic and practical project management approach we first looked into open and distance learning characteristics. We then analyzed existing methodologies in the hope of being able to utilize one or the other or a combination to best fit our needs. In an empiric manner and proceeding by successive iterations and refinements, we defined a simple methodology and contributed to build descriptive "cards" attached to each of its phases to help decision making. We describe the different actors involved in the process insisting specifically on the pedagogical engineer, viewed as an orchestra conductor, whom we consider to be critical to ensure the success of our approach. Last but not least, we have validated a posteriori our methodology by reviewing four of the projects we participated to and that we think emblematic of the university reality. We believe that the implementation of our methodology, along with the availability of computerized cards to help project managers to take decisions, could constitute a great asset and contribute to measure the technologies' real impacts on (i) the evolution of teaching practices (ii) the organization and (iii) the quality of pedagogical approaches. Our methodology could hence be of use to help put in place an open and distance learning quality assessment. Research on the impact of technologies to learning adaptability and flexibilization could rely on adequate metrics.