999 resultados para Apprentissage tout au long de la vie
Resumo:
La tragi-comédie de Corneille, «Le Cid» (1636-7), est davantage une pièce d‘amour qui illustre bien la condition de la femme au XVIIème siècle. Le triangle amoureux constitué par l‘Infante, Chimène et Rodrigue est l‘un des fondements de la pièce. Cependant, comme les personnages sont insérés dans un système féodal basé sur une idéologie aristocratique, l‘amour ne se présente pas comme une jouissance paisible. De cette façon, il y a une lutte acharnée entre l‘amour, le devoir et l‘honneur, ce qui est frappant au niveau lexical. Les personnages les plus jeunes utilisent beaucoup de mots associés au thème de l‘amour et qui ont le radical amour-, tandis que les plus âgés emploient très souvent des mots qui appartiennent au champ lexical de l‘honneur et de la gloire. Selon D. Diègue, l‘honneur a plus de puissance que l‘amour, et il trouve que l‘homme qui s‘endort dans l‘amour oublie ses devoirs. Pour l‘Infante, Chimène et Rodrigue, l‘amour est lié à la souffrance. L‘Infante souffre, mais elle se conforme, parce qu‘étant donné qu‘elle est fille de roi, elle ne peut pas aimer Rodrigue qui appartient à un rang inférieur. Chimène est le revers de l‘Infante, c‘est une femme rebelle qui veut mouler sa destinée. Cependant, tout au long de la pièce, l‘héroïne est assujettie à une force mâle: si parfois l‘amour entre elle et Rodrigue ressemble à l‘amour courtois du Moyen âge quand il se met à la disposition de sa maîtresse et la place au-dessus de lui, la plupart du temps il met la passion en dessous de l‘honneur, parce que c‘est un homme et descend d‘une famille de guerriers vaillants. Selon le code chevaleresque dans lequel il est inséré la femme est inférieure à l‘homme. À la fin de la pièce, il y a une victoire de l‘amour sur l‘honneur et le devoir : Chimène abdique de son honneur en pardonnant et en prenant pour mari l‘assassin de son père. Le monde de l‘élément masculin triomphe et elle devient le prix de la victoire de Rodrigue. Mais si son statut de femme l‘empêche de sortir victorieuse, elle ne se conforme pas et dans sa dernière tirade elle met en question la justice et défie la société féodale.
Resumo:
A universidade no Espaço Europeu de Educação Superior (EEES) assume-se como um espaço aberto e permeável a mudanças no processo de ensino e de aprendizagem, reduzindo os “conhecimentos mortos, a favor de conhecimentos vivos”, diversificando metodologias de trabalho (aulas práticas, workshops, seminários, tutorias conjuntas, e-learning, entre outras) e valorizando a relação pedagógica. A ênfase mais ou menos atribuída às Praticas/Practicum nos diferentes planos de estudo de cada universidade, a sua distribuição e organização ao longo da formação, prescrevem a cientificidade do trajeto de construção, desconstrução, co-construção e reconstrução do perfil, competências e identidade profissionais do estudante em formação. Amplia-se a função e ação do professor tutor/supervisor universitário que, sustentado num enfoque formativo competencial, assume ser mais do que um responsável pela formação integral dos estudantes integrando uma aprendizagem profissional relacionadas com o saber e o saber-fazer, mas também está implicado na aquisição e desenvolvimento de um conjunto de habilidades sociais, éticas e de valores humanos relacionados com o saber-ser e o saber-estar. O objetivo deste estudo é analisar o papel dos tutores/supervisores de Práticas/Practicum nos processos de construção e desenvolvimento de competências e identidade profissional através de processos de mediação e transferência de conhecimento profissional. Neste trabalho apresentamos os resultados parciais de um estudo de caso de carácter descritivo-interpretativo. Analisam-se as entrevistas (n=11) realizadas a professores universitários que em 2012-13 constituíam o corpo de tutores de Practicum dos cursos de Educação de Infância e Ensino do1º ciclo do Ensino Básico da Universidade Autónoma de Barcelona. Os resultados valorizam mais os aspetos organizacionais do que os curriculares. As preocupações com o desenvolvimento de competências conceptuais (saber) e procedimentais (saber-fazer) estão mais presentes nos discursos dos tutores/supervisores do que as competências relacionais intra e interpessoais (saber-ser, saber-estar).
Resumo:
In fear conditioning, an animal learns to associate an unconditioned stimulus (US), such as a shock, and a conditioned stimulus (CS), such as a tone, so that the presentation of the CS alone can trigger conditioned responses. Recent research on the lateral amygdala has shown that following cued fear conditioning, only a subset of higher-excitable neurons are recruited in the memory trace. Their selective deletion after fear conditioning results in a selective erasure of the fearful memory. I hypothesize that the recruitment of highly excitable neurons depends on responsiveness to stimuli, intrinsic excitability and local connectivity. In addition, I hypothesize that neurons recruited for an initial memory also participate in subsequent memories, and that changes in neuronal excitability affect secondary fear learning. To address these hypotheses, I will show that A) a rat can learn to associate two successive short-term fearful memories; B) neuronal populations in the LA are competitively recruited in the memory traces depending on individual neuronal advantages, as well as advantages granted by the local network. By performing two successive cued fear conditioning experiments, I found that rats were able to learn and extinguish the two successive short-term memories, when tested 1 hour after learning for each memory. These rats were equipped with a system of stable extracellular recordings that I developed, which allowed to monitor neuronal activity during fear learning. 233 individual putative pyramidal neurons could modulate their firing rate in response to the conditioned tone (conditioned neurons) and/or non- conditioned tones (generalizing neurons). Out of these recorded putative pyramidal neurons 86 (37%) neurons were conditioned to one or both tones. More precisely, one population of neurons encoded for a shared memory while another group of neurons likely encoded the memories' new features. Notably, in spite of a successful behavioral extinction, the firing rate of those conditioned neurons in response to the conditioned tone remained unchanged throughout memory testing. Furthermore, by analyzing the pre-conditioning characteristics of the conditioned neurons, I determined that it was possible to predict neuronal recruitment based on three factors: 1) initial sensitivity to auditory inputs, with tone-sensitive neurons being more easily recruited than tone- insensitive neurons; 2) baseline excitability levels, with more highly excitable neurons being more likely to become conditioned; and 3) the number of afferent connections received from local neurons, with neurons destined to become conditioned receiving more connections than non-conditioned neurons. - En conditionnement de la peur, un animal apprend à associer un stimulus inconditionnel (SI), tel un choc électrique, et un stimulus conditionné (SC), comme un son, de sorte que la présentation du SC seul suffit pour déclencher des réflexes conditionnés. Des recherches récentes sur l'amygdale latérale (AL) ont montré que, suite au conditionnement à la peur, seul un sous-ensemble de neurones plus excitables sont recrutés pour constituer la trace mnésique. Pour apprendre à associer deux sons au même SI, je fais l'hypothèse que les neurones entrent en compétition afin d'être sélectionnés lors du recrutement pour coder la trace mnésique. Ce recrutement dépendrait d'un part à une activation facilité des neurones ainsi qu'une activation facilité de réseaux de neurones locaux. En outre, je fais l'hypothèse que l'activation de ces réseaux de l'AL, en soi, est suffisante pour induire une mémoire effrayante. Pour répondre à ces hypothèses, je vais montrer que A) selon un processus de mémoire à court terme, un rat peut apprendre à associer deux mémoires effrayantes apprises successivement; B) des populations neuronales dans l'AL sont compétitivement recrutées dans les traces mnésiques en fonction des avantages neuronaux individuels, ainsi que les avantages consentis par le réseau local. En effectuant deux expériences successives de conditionnement à la peur, des rats étaient capables d'apprendre, ainsi que de subir un processus d'extinction, pour les deux souvenirs effrayants. La mesure de l'efficacité du conditionnement à la peur a été effectuée 1 heure après l'apprentissage pour chaque souvenir. Ces rats ont été équipés d'un système d'enregistrements extracellulaires stables que j'ai développé, ce qui a permis de suivre l'activité neuronale pendant l'apprentissage de la peur. 233 neurones pyramidaux individuels pouvaient moduler leur taux d'activité en réponse au son conditionné (neurones conditionnés) et/ou au son non conditionné (neurones généralisant). Sur les 233 neurones pyramidaux putatifs enregistrés 86 (37%) d'entre eux ont été conditionnés à un ou deux tons. Plus précisément, une population de neurones code conjointement pour un souvenir partagé, alors qu'un groupe de neurones différent code pour de nouvelles caractéristiques de nouveaux souvenirs. En particulier, en dépit d'une extinction du comportement réussie, le taux de décharge de ces neurones conditionné en réponse à la tonalité conditionnée est resté inchangée tout au long de la mesure d'apprentissage. En outre, en analysant les caractéristiques de pré-conditionnement des neurones conditionnés, j'ai déterminé qu'il était possible de prévoir le recrutement neuronal basé sur trois facteurs : 1) la sensibilité initiale aux entrées auditives, avec les neurones sensibles aux sons étant plus facilement recrutés que les neurones ne répondant pas aux stimuli auditifs; 2) les niveaux d'excitabilité des neurones, avec les neurones plus facilement excitables étant plus susceptibles d'être conditionnés au son ; et 3) le nombre de connexions reçues, puisque les neurones conditionné reçoivent plus de connexions que les neurones non-conditionnés. Enfin, nous avons constaté qu'il était possible de remplacer de façon satisfaisante le SI lors d'un conditionnement à la peur par des injections bilatérales de bicuculline, un antagoniste des récepteurs de l'acide y-Aminobutirique.
Resumo:
Dans cet article, j'aimerais poursuivre l'interprétation de données sur le croire, plus précisément sur celles relatives aux croyances. Ces données ont été collectées tout au long de la recherche dont nous venons de publier les résultats dans un ouvrage intitulé précisément «Croire en Suisse(s)». En prenant quelque distance par rapport à notre première interprétation des réponses suisses relatives au domaine des croyances, des questions épis-témologiques nouvelles sont apparues, inspirées à la fois par une deuxième lecture moins à chaud et par les remarques de quelques collègues. Je vais donc tenter de formuler ces questions puis de les appliquer aux données mentionnées.
Resumo:
Introduction et But de l'étude. - La transplantation de cellules souches hématopoïétiques est un des traitements proposés dans le cadre de certaines hémopathies malignes. Elle est fréquemment associée à une anorexie, des nausées et des douleurs buccales limitant les ingesta. Chez ces patients, il a été démontré qu'une altération du statut nutritionnel était associée à une durée de séjour hospitalier augmentée. Si l'évolution hospitalière est généralement bien documentée, peu d'informations nutritionnelles sur la période post-greffe sont disponibles. L'objectif de cette étude est de documenter l'évolution pondérale en fonction des différentes phases de traitement.Matériel et Méthodes. - Cette étude rétrospective a porté sur un collectif de patients suivis par la consultation ambulatoire d'onco-hématologie. Ont été inclus tous les dossiers de patients ayant bénéficié d'une autogreffe depuis plus de 100 jours. Les variables démographiques, médicales, nutritionnelles et fonctionnelles ont été recueillies aux périodes suivantes de prise en charge : lors du diagnostic (P1), à l'admission (P2) et à la sortie de l'hôpital lors de l'autogreffe (P3) et au 100e jour post-autogreffe (P4).Résultats. - L'échantillon était composé de 22 hommes et 11 femmes, ayant une moyenne d'âge de 52 ± 11 ans, un BMI moyen de 26,7 ± 4,2 et souffrant de lymphome (49 %), myélome (45 %), maladie de Hodgkin (3 %) ou amyloïdose (3 %). La durée moyenne d'hospitalisation pour l'autogreffe est de 21 ± 4 jours. À P1 et P3, seul 1 patient présentait un BMI < 18,5, et aucun patient aux autres périodes étudiées. Un BMI supérieur à 25 kg/m2 était présent chez 64 % à P1, 67 % à P2, 45 % à P3, 48 % à P4. Trente pour cent des patients perdent plus de 5 % de leur poids entre P1 et P4 dont 80 % sont des hommes. Leur BMI moyen à P1 est de 28,8 ± 3,3 kg/m2 (10 % de normal, 60 % de surpoids et 30 % d'obésité) et à P4 de 26,7 ± 3,1 kg/m2 (30 % de normal, 60 % de surpoids et 10 % d'obésité). Ces patients ont une perte de poids de 2,4 ± 4,5 % entre P1 et P2, de 8,6 ± 4,4 % entre P1 et P3 et de 7,4 ± 1,7 % entre P1 et P4.Durant le séjour hospitalier, les patients perdent en moyenne 5,6 ± 2,9 % de leur poids d'entrée (P2). Les jours qui suivent l'autogreffe50 % des sujets perdent 6 ± 3,5 %, Durant l'hospitalisation, 33 % des patients ont reçu un support nutritionnel. La prescription d'un support nutritionnel est corrélé avec la présence de candidose (r = 0,350 ; p = 0,044).Conclusion. - La majorité de ces patients oncohématologiques traités par autogreffe de cellules souches perdent du poids pendant l'hospitalisation et ceci persiste au 100e jour post-greffe pour 21 % de l'échantillon. Le BMI est élevé au moment du diagnostic et le reste tout au long de la prise en charge. Une étude prospective sur un échantillon plus large pourrait dans le futur permettre de déterminer les facteurs prédictifs d'une perte de poids persistante 3 mois après une autogreffe.
Resumo:
Regular aerobic exercise training, which is touted as a way to ameliorate metabolic diseases, increases aerobic capacity. Aerobic capacity usually declines with advanced age. The decline in aerobic capacity is typically associated by a decrease in the quality of skeletal muscle. At the molecular level, this decreased quality comes in part from perturbations in skeletal muscle mitochondria. Of particular is a decrease in the total amount of mitochondria that occupy the skeletal muscle volume. What is not well established is if this decrease in mitochondrial content is due to inactive lifestyle or the process of aging. Herein, the work of the thesis shows a clear connection between mitochondrial content and aerobic capacity. This indicates that active individuals with higher VChmax levels also contain higher volumes of mitochondria inside their muscle as opposed to sedentary counterparts who have lower levels of mitochondrial content. Upon taking these previously sedentary individuals and entering them into an aerobic exercise intervention, they are able to recover their mitochondrial content as well as function to similar levels of lifelong athletes of the same age. Furthermore, the results of this thesis show that mitochondrial content and function also correlate with exercise efficiency. If one is more efficient, he/she is able to expend less energy for a similar power output. Furthermore, individuals who increase in efficiency also increase in the ability to oxidize and utilize fat during pro-longed exercise. This increased reliance on fat after the intervention is associated with an increased amount of mitochondria, particularly in the intermyofibrillar region of skeletal muscle. Therefore, elderly adults who were once sedentary were able to recover mitochondrial content and function and are able to reap other health benefits from regular aerobic exercise training. Aging per se does not seem to be the culprit that will lead to metabolic diseases but rather it seems to be a lack of physical activity. -- Un entraînement sportif d'endurance, connu pour réduire le risque de développer des maladies métaboliques, augmente notre capacité aérobie. La capacité aérobie diminue généralement avec l'âge. Ce déclin est typiquement associé d'une diminution de la qualité du muscle squelettique. Au niveau moléculaire, cette diminution est due à des perturbations dans les mitochondries du muscle squelettique,, ce qui conduit à une diminution de la quantité totale des mitochondries présentes dans le muscle squelettique. Il n'a pas encore été établi si cette diminution de la teneur mitochondriale est due à un mode de vie sédentaire ou au processus du vieillissement. Ce travail de thèse montre un lien clair entre le contenu mitochondrial et la capacité aérobie. Il indique que des personnes âgées actives, avec des niveaux de V02max plus élevés, possèdent également un volume plus élevé de mitochondries dans leurs muscles en comparaison à leurs homologues sédentaires. En prenant des individus sédentaires et leur faisant pratiquer une activité physique aérobie, il est possible d'accroître leur contenu de même que leur fonction mitochondriale à des niveaux similaires à ceux d'athlètes du même âge ayant pratiqué une activité physique tout au long de leur vie. De plus, les résultats de ce travail démontrent que le contenu et la fonction mitochondriale sont en corrélation avec l'efficiscience lors d'exercice physique. En agumentant l'effiscience, les personnes sont alors capables de dépenser moins d'énergie pour une puissance d'exercice similaire. Donc, un volume mitochondrial accru dans le muscle squelettique, associé à une fonction mitochondriale améliorée, est associté à une augmentation de l'effiscience. En outre, les personnes qui augmentent leur effiscience, augmentent aussi leur capacité à oxyder les graisses durant l'exercice prolongé. Une augmentation du recours au graisses après l'intervention est associée à une quantité accrue de mitochondries, en particulier dans la région inter-myofibrillaire du muscle squelettique. Par conséquent, les personnes âgées autrefois sédentaires sont en mesure de récupérer leur contenu et leur fonction mitochondriale ainsi que d'autres avantages pour la santé grâce à un entraînement aérobie régulier. Le vieillissement en soi ne semble donc pas être le coupable conduisant aux maladies métaboliques qui semblent plutôt être lié à un manque d'activité physique.
Resumo:
La tomodensitométrie (TDM) est une technique d'imagerie pour laquelle l'intérêt n'a cessé de croitre depuis son apparition au début des années 70. De nos jours, l'utilisation de cette technique est devenue incontournable, grâce entre autres à sa capacité à produire des images diagnostiques de haute qualité. Toutefois, et en dépit d'un bénéfice indiscutable sur la prise en charge des patients, l'augmentation importante du nombre d'examens TDM pratiqués soulève des questions sur l'effet potentiellement dangereux des rayonnements ionisants sur la population. Parmi ces effets néfastes, l'induction de cancers liés à l'exposition aux rayonnements ionisants reste l'un des risques majeurs. Afin que le rapport bénéfice-risques reste favorable au patient il est donc nécessaire de s'assurer que la dose délivrée permette de formuler le bon diagnostic tout en évitant d'avoir recours à des images dont la qualité est inutilement élevée. Ce processus d'optimisation, qui est une préoccupation importante pour les patients adultes, doit même devenir une priorité lorsque l'on examine des enfants ou des adolescents, en particulier lors d'études de suivi requérant plusieurs examens tout au long de leur vie. Enfants et jeunes adultes sont en effet beaucoup plus sensibles aux radiations du fait de leur métabolisme plus rapide que celui des adultes. De plus, les probabilités des évènements auxquels ils s'exposent sont également plus grandes du fait de leur plus longue espérance de vie. L'introduction des algorithmes de reconstruction itératifs, conçus pour réduire l'exposition des patients, est certainement l'une des plus grandes avancées en TDM, mais elle s'accompagne de certaines difficultés en ce qui concerne l'évaluation de la qualité des images produites. Le but de ce travail est de mettre en place une stratégie pour investiguer le potentiel des algorithmes itératifs vis-à-vis de la réduction de dose sans pour autant compromettre la qualité du diagnostic. La difficulté de cette tâche réside principalement dans le fait de disposer d'une méthode visant à évaluer la qualité d'image de façon pertinente d'un point de vue clinique. La première étape a consisté à caractériser la qualité d'image lors d'examen musculo-squelettique. Ce travail a été réalisé en étroite collaboration avec des radiologues pour s'assurer un choix pertinent de critères de qualité d'image. Une attention particulière a été portée au bruit et à la résolution des images reconstruites à l'aide d'algorithmes itératifs. L'analyse de ces paramètres a permis aux radiologues d'adapter leurs protocoles grâce à une possible estimation de la perte de qualité d'image liée à la réduction de dose. Notre travail nous a également permis d'investiguer la diminution de la détectabilité à bas contraste associée à une diminution de la dose ; difficulté majeure lorsque l'on pratique un examen dans la région abdominale. Sachant que des alternatives à la façon standard de caractériser la qualité d'image (métriques de l'espace Fourier) devaient être utilisées, nous nous sommes appuyés sur l'utilisation de modèles d'observateurs mathématiques. Nos paramètres expérimentaux ont ensuite permis de déterminer le type de modèle à utiliser. Les modèles idéaux ont été utilisés pour caractériser la qualité d'image lorsque des paramètres purement physiques concernant la détectabilité du signal devaient être estimés alors que les modèles anthropomorphes ont été utilisés dans des contextes cliniques où les résultats devaient être comparés à ceux d'observateurs humain, tirant profit des propriétés de ce type de modèles. Cette étude a confirmé que l'utilisation de modèles d'observateurs permettait d'évaluer la qualité d'image en utilisant une approche basée sur la tâche à effectuer, permettant ainsi d'établir un lien entre les physiciens médicaux et les radiologues. Nous avons également montré que les reconstructions itératives ont le potentiel de réduire la dose sans altérer la qualité du diagnostic. Parmi les différentes reconstructions itératives, celles de type « model-based » sont celles qui offrent le plus grand potentiel d'optimisation, puisque les images produites grâce à cette modalité conduisent à un diagnostic exact même lors d'acquisitions à très basse dose. Ce travail a également permis de clarifier le rôle du physicien médical en TDM: Les métriques standards restent utiles pour évaluer la conformité d'un appareil aux requis légaux, mais l'utilisation de modèles d'observateurs est inévitable pour optimiser les protocoles d'imagerie. -- Computed tomography (CT) is an imaging technique in which interest has been quickly growing since it began to be used in the 1970s. Today, it has become an extensively used modality because of its ability to produce accurate diagnostic images. However, even if a direct benefit to patient healthcare is attributed to CT, the dramatic increase in the number of CT examinations performed has raised concerns about the potential negative effects of ionising radiation on the population. Among those negative effects, one of the major risks remaining is the development of cancers associated with exposure to diagnostic X-ray procedures. In order to ensure that the benefits-risk ratio still remains in favour of the patient, it is necessary to make sure that the delivered dose leads to the proper diagnosis without producing unnecessarily high-quality images. This optimisation scheme is already an important concern for adult patients, but it must become an even greater priority when examinations are performed on children or young adults, in particular with follow-up studies which require several CT procedures over the patient's life. Indeed, children and young adults are more sensitive to radiation due to their faster metabolism. In addition, harmful consequences have a higher probability to occur because of a younger patient's longer life expectancy. The recent introduction of iterative reconstruction algorithms, which were designed to substantially reduce dose, is certainly a major achievement in CT evolution, but it has also created difficulties in the quality assessment of the images produced using those algorithms. The goal of the present work was to propose a strategy to investigate the potential of iterative reconstructions to reduce dose without compromising the ability to answer the diagnostic questions. The major difficulty entails disposing a clinically relevant way to estimate image quality. To ensure the choice of pertinent image quality criteria this work was continuously performed in close collaboration with radiologists. The work began by tackling the way to characterise image quality when dealing with musculo-skeletal examinations. We focused, in particular, on image noise and spatial resolution behaviours when iterative image reconstruction was used. The analyses of the physical parameters allowed radiologists to adapt their image acquisition and reconstruction protocols while knowing what loss of image quality to expect. This work also dealt with the loss of low-contrast detectability associated with dose reduction, something which is a major concern when dealing with patient dose reduction in abdominal investigations. Knowing that alternative ways had to be used to assess image quality rather than classical Fourier-space metrics, we focused on the use of mathematical model observers. Our experimental parameters determined the type of model to use. Ideal model observers were applied to characterise image quality when purely objective results about the signal detectability were researched, whereas anthropomorphic model observers were used in a more clinical context, when the results had to be compared with the eye of a radiologist thus taking advantage of their incorporation of human visual system elements. This work confirmed that the use of model observers makes it possible to assess image quality using a task-based approach, which, in turn, establishes a bridge between medical physicists and radiologists. It also demonstrated that statistical iterative reconstructions have the potential to reduce the delivered dose without impairing the quality of the diagnosis. Among the different types of iterative reconstructions, model-based ones offer the greatest potential, since images produced using this modality can still lead to an accurate diagnosis even when acquired at very low dose. This work has clarified the role of medical physicists when dealing with CT imaging. The use of the standard metrics used in the field of CT imaging remains quite important when dealing with the assessment of unit compliance to legal requirements, but the use of a model observer is the way to go when dealing with the optimisation of the imaging protocols.
Resumo:
Les urodèles amphibiens, dont fait partie l’axolotl (Ambystoma mexicanum), ont la capacité de régénérer leurs organes et membres suite à une amputation, tout au long de leur vie. La patte est l’organe dont le processus de régénération est le mieux caractérisé et ce dernier est divisé en deux phases principales. La première est la phase de préparation et commence immédiatement suite à l’amputation. Elle renferme des étapes essentielles au processus de régénération comme la guérison de la plaie et la formation d’une coiffe apicale ectodermique. Par la suite, les fibroblastes du derme et certaines cellules musculaires vont revenir à un état pluripotent via un processus appelé dédifférenciation cellulaire. Une fois dédifférenciées, ces cellules migrent et s’accumulent sous la coiffe apicale pour former le blastème. Lors de la phase de redéveloppement, les cellules du blastème se divisent puis se redifférencient pour régénérer la partie amputée. Fait intéressant, la régénération d’un membre ou la guérison d’une plaie chez l’axolotl ne mène jamais à la formation d’une cicatrice. Afin d’en apprendre plus sur le contrôle moléculaire de la régénération, les gènes Heat-shock protein-70 (Hsp-70) et Transforming growth factor-β1 (Tgf-β1) ont été sélectionnés. Ces gènes jouent un rôle important dans la réponse au stress et lors de la guérison des plaies chez les mammifères. HSP-70 est une chaperonne moléculaire qui est produite pour maintenir l’intégrité des protéines cellulaires lorsqu’un stress se présente. TGF-β1 est une cytokine produite suite à une blessure qui active la réponse inflammatoire et qui stimule la fermeture de la plaie chez les amniotes. Les résultats présentés dans cette thèse démontrent que Hsp-70 est exprimé et régulé lors du développement et de la régénération du membre chez l’axolotl. D’autre part, nos expériences ont mené à l’isolation de la séquence codante pour Tgf-β1 chez l’axolotl. Nos résultats montrent que Tgf-β1 est exprimé spécifiquement lors de la phase de préparation dans le membre en régénération. De plus, le blocage de la voie des Tgf-β avec l’inhibiteur pharmacologique SB-431542, lors de la régénération, mène à l’inhibition du processus. Ceci démontre que la signalisation via la voie des Tgf-β est essentielle à la régénération du membre chez l’axolotl.
Resumo:
Cette étude qui s’inscrit dans la perspective de l’action située, vise à comprendre le phénomène de (re)construction des communautés de pratique (CoPs) en contexte de fusion hospitalière. La recherche repose sur un devis d’étude de cas longitudinale qui combine plusieurs sources de données : documentaires, d’entretiens semi-directifs et d’observations de terrain. La stratégie d’analyse combine deux méthodes : l’une processuelle, permettant un ordonnancement temporel de récits d’événements et d'activités qui ont contribué à situer l’action dans le temps; l’autre selon l’approche de la théorisation ancrée, a permis la comparaison des données par leur regroupement systématique en catégories et sous catégories, tout au long de la collecte des données. La démarche de recherche processuelle adoptée, nous a conduit à révéler la dynamique de construction d’une communauté de pratique (CoP) à partir des caractéristiques inter reliées, identifiées dans la littérature et qui font référence à un engagement mutuel, une entreprise commune et un répertoire partagé. Ainsi, nos analyses montrent que le domaine d’action qui vient délimiter les points de convergence des participants, constitue le dénominateur commun de la pratique de la communauté qui met à jour des savoirs tacites et explicites qui s’échangent et se développent dans le temps. Cette pratique partagée, éminemment sociale, génère des connaissances et des règles négociées et entretenues par les membres dans le cadre de leurs rencontres. Nos analyses révèlent également que le processus d’évolution d’une communauté de pratique, s’inscrit dans une trajectoire d’apprentissages continue où se combinent de façon dynamique, des temps de participation intense, propices à la construction progressive d’une compréhension commune et négociée du domaine d’action (participation) et des temps de mise en forme de ces représentations (réification). Ici, la dialectique participation/réification qui se donne à voir, révèle un véritable travail d’organisation où la construction du sens à donner à l’action s’instruit à l’aune d’une régulation sociale omniprésente. Toutefois, le résultat de la régulation sociale, n’implique pas de facto, la rencontre d’une régulation conjointe. Plutôt, nos résultats mettent à jour un ensemble de régulations, tantôt concurrentes, tantôt en équilibre en regard du contexte dans lequel sont placés les acteurs. Enfin, nos résultats sur la dynamique de (re)construction des communautés de pratique en contexte de fusion, permettent d’appréhender le changement organisationnel non plus sous ses seuls aspects stratégiques et en direction des équipes dirigeantes, mais également sous l’angle des capacités d’acteurs « ordinaires » à l’initier dans une perspective continue et située.
Resumo:
Les nombreux exemples réussis où l’aménagement du territoire intègre des milieux naturels nous ont amenée à nous questionner sur les techniques d’intégration des milieux naturels et les outils de planification disponibles au Québec. La présente recherche porte sur le volet environnemental du projet résidentiel le Faubourg de la Pointe-aux-Prairies à Montréal (FPP) situé dans l’Arrondissement Pointe-aux-Trembles/Rivière-des-Prairies/Montréal est. Un premier objectif relié aux résultats nous a permis d’analyser le taux de succès du quartier FPP à intégrer efficacement des préoccupations environnementales concernant la mise en valeur des milieux naturels. En nous basant sur le taux de conservation, l’intégrité écologique et les témoignages des intervenants de la Ville de Montréal, nous avons déterminé que le plan d’aménagement du projet présente un bilan environnemental mitigé. Un second objectif relié aux processus nous a permis de déterminer si les outils sollicités pendant la conception et la mise en œuvre du projet ont facilité l’intégration des milieux naturels. En nous basant sur les outils d’encadrement et proactifs utilisés tout au long de la mise en oeuvre, nous avons déterminé que ceux-ci sont inadaptés à certaines situations. La non intégration des milieux protégés dans les outils de planification, la destruction des milieux aquatiques avec l’accord du Ministère de l’environnement (MDDEP), le manque de vérification des ententes lors de l’attribution des certificats d’autorisation, l'absence de protection des milieux naturels terrestres et la difficulté d’évaluer les bénéfices économiques de l’intégration de la nature ont été les défis majeurs observés.
Resumo:
La nature a développé diverses stratégies afin d’assurer le commencement de la vie dans des conditions d’homoplasmie, c’est-à-dire des conditions telles que les cellules sont dotées du même ADN mitochondrial. Toutefois, des nouveaux haplotypes de l’acide désoxyribonucléique mitochondrial (ADNmt) peuvent apparaitre et croître de plusieurs façons tout au long de la durée d’une vie menant à l’hétéroplasmie. Par exemple, l’hétéroplasmie de l’ADNmt peut être créée artificiellement par des technologies reproductives assistées, ainsi que naturellement par le processus de vieillissement. De ce fait, la thèse de ce doctorat fut divisée en deux principaux objectifs. Le premier étant celui d’analyser les changements survenus dans l’hétéroplasmie de l’ADNmt produit par le transfert nucléaire des cellules somatiques (SCNT) lors du développement de l’embryon jusqu’au fœtus et aux tissus adultes de bovins clonés. En ce qui concerne le second objectif, il s’agit d’analyser les changements survenus dans l’hétéroplasmie de l’ADNmt causés par le vieillissement dans une cellule somatique adulte et dans des tissus germinaux durant l’ovogénèse, ainsi qu’au début de l’embryogenèse et dans la procédure de culture in vitro sur des souris. Dans la première série d’expériences sur des bovins, des fibroblastes fœtaux transportant une mutation d’ADNmt (insertion de 66 pb) furent fusionnés avec des ovocytes receveurs transportant l’ADNmt du type sauvage. La présence d’ADNmt venant de la cellule donneuse a été analysée à différents stades de développement, soit sur des embryons âgés de 17 jours (n=17), des fœtus âgés de 40 jours (n=3), des fœtus âgés de 60 jours (n=3), un fœtus âgé de 240 jours et 3 clones post-nataux âgés de 18 à 24 mois. Chaque individu s’est avéré être hétéroplasmique et 99 % (103/104) des échantillons de tissus analysés étaient également hétéroplasmiques. Cependant, l’ovaire venant du fœtus de 240 jours fut le seul à être homoplasmique pour l’ADNmt de l’ovocyte receveur. Dans la plupart des échantillons analysés (95,2 %, soit 99/104) la moyenne d’hétéroplasmie était de 1,46 %. Par contre, un fœtus âgé de 40 jours a présenté un niveau élevé d’hétéroplasmie (20,9 %), indiquant ainsi que des évènements rares d’augmentation de l’ADNmt des cellules donneuses peuvent survenir. Étant donné que la majorité des clones SCNT montrait de l’hétéroplasmie de l’ADNmt à des proportions comparables à celles des cellules donneuses au moment de la reconstruction de l’embryon, on a pu conclure que l’hétéroplasmie produite par des techniques de transfert nucléaire utilisant des cellules somatiques est due à une ségrégation neutre de l’ADNmt. Dans la seconde série d’expériences sur des souris, des femelles de différents âges, c.à.d. jeunes (0 – 8 mois), moyennes (8 – 16 mois) et vieilles (16 – 24 mois), ont été synchronisées (gonadotrophines) et sacrifiées dans le but d’obtenir des ovocytes au stade de vésicule germinal, et des ovocytes au stade métaphase-II produits in vivo et in vitro. De plus, des embryons in vivo et in vitro au stade de deux-cellules et des embryons au stade de blastocystes ont été obtenus de femelles jeunes. Différents tissus somatiques, venant de femelles des trois stades d’âge ont été obtenus : cerveau, foie, muscle et du cumulus ovocytaire. De plus, l’effet du vieillissement a été mesuré selon la fertilité de la femelle. En effet, les effets sur l’hétéroplasmie du vieillissement, du stade de développement et de la culture in vitro ont été mesurés dans des ovocytes et dans des embryons. Les effets du vieillissement sur les mitochondries ont été mesurés par rapport au nombre total de copies de l’ADNmt, au pourcentage des délétions communes et sur l’expression de trois gènes : Ndufs4, Mt-nd2 and Mt-nd4. Il a été possible d’observer que la fertilité des femelles dans la colonie de souris diminuait avec l’âge. En fait, le vieillissement affectait l’ADNmt dans les tissus somatiques, cependant il n’avait pas d’effet sur le cumulus, les ovocytes et les embryons. Le nombre de délétions de l’ADNmt augmentait pendant la reprise de la méiose et celui-ci diminuait au début du développement embryonnaire. La culture in vitro n’affectait pas la quantité d’ADNmt dans la plupart des tissus germinaux. Puisque nous n’avons pas trouvé d’effet de l’âge dans la majorité des paramètres mitochondriaux analysés dans les ovocytes et les embryons, il est suggéré que la délétion commune de l’ADNmt dans les tissus germinaux est davantage reliée au statut cellulaire de la production d’énergie qu’au processus de vieillissement. Deux sources différentes de mutations de l’ADNmt produites dans les ovocytes normaux ou reconstitués ont produit différents résultats d’hétéroplasmie au début de l’embryogénèse. Chez les bovins, l’hétéroplasmie artificielle impliquant une petite insertion (66 pb) dans la région non codante (D-loop) de l’ADNmt a été vraisemblablement non nocive pour l’embryon, tolérant la persistance de l’ADNmt étranger pendant les différents stades du développement des clones. Chez les souris, l’hétéroplasmie naturelle produite par une grande délétion (4974 pb délétion commune) dans la région codante de l’ADNmt a été vraisemblablement nocive pour l’embryon et par conséquent éliminée pour assurer l’homoplasmie au début du développement embryonnaire.
Resumo:
Les logiciels sont en constante évolution, nécessitant une maintenance et un développement continus. Ils subissent des changements tout au long de leur vie, que ce soit pendant l'ajout de nouvelles fonctionnalités ou la correction de bogues dans le code. Lorsque ces logiciels évoluent, leurs architectures ont tendance à se dégrader avec le temps et deviennent moins adaptables aux nouvelles spécifications des utilisateurs. Elles deviennent plus complexes et plus difficiles à maintenir. Dans certains cas, les développeurs préfèrent refaire la conception de ces architectures à partir du zéro plutôt que de prolonger la durée de leurs vies, ce qui engendre une augmentation importante des coûts de développement et de maintenance. Par conséquent, les développeurs doivent comprendre les facteurs qui conduisent à la dégradation des architectures, pour prendre des mesures proactives qui facilitent les futurs changements et ralentissent leur dégradation. La dégradation des architectures se produit lorsque des développeurs qui ne comprennent pas la conception originale du logiciel apportent des changements au logiciel. D'une part, faire des changements sans comprendre leurs impacts peut conduire à l'introduction de bogues et à la retraite prématurée du logiciel. D'autre part, les développeurs qui manquent de connaissances et–ou d'expérience dans la résolution d'un problème de conception peuvent introduire des défauts de conception. Ces défauts ont pour conséquence de rendre les logiciels plus difficiles à maintenir et évoluer. Par conséquent, les développeurs ont besoin de mécanismes pour comprendre l'impact d'un changement sur le reste du logiciel et d'outils pour détecter les défauts de conception afin de les corriger. Dans le cadre de cette thèse, nous proposons trois principales contributions. La première contribution concerne l'évaluation de la dégradation des architectures logicielles. Cette évaluation consiste à utiliser une technique d’appariement de diagrammes, tels que les diagrammes de classes, pour identifier les changements structurels entre plusieurs versions d'une architecture logicielle. Cette étape nécessite l'identification des renommages de classes. Par conséquent, la première étape de notre approche consiste à identifier les renommages de classes durant l'évolution de l'architecture logicielle. Ensuite, la deuxième étape consiste à faire l'appariement de plusieurs versions d'une architecture pour identifier ses parties stables et celles qui sont en dégradation. Nous proposons des algorithmes de bit-vecteur et de clustering pour analyser la correspondance entre plusieurs versions d'une architecture. La troisième étape consiste à mesurer la dégradation de l'architecture durant l'évolution du logiciel. Nous proposons un ensemble de m´etriques sur les parties stables du logiciel, pour évaluer cette dégradation. La deuxième contribution est liée à l'analyse de l'impact des changements dans un logiciel. Dans ce contexte, nous présentons une nouvelle métaphore inspirée de la séismologie pour identifier l'impact des changements. Notre approche considère un changement à une classe comme un tremblement de terre qui se propage dans le logiciel à travers une longue chaîne de classes intermédiaires. Notre approche combine l'analyse de dépendances structurelles des classes et l'analyse de leur historique (les relations de co-changement) afin de mesurer l'ampleur de la propagation du changement dans le logiciel, i.e., comment un changement se propage à partir de la classe modifiée è d'autres classes du logiciel. La troisième contribution concerne la détection des défauts de conception. Nous proposons une métaphore inspirée du système immunitaire naturel. Comme toute créature vivante, la conception de systèmes est exposée aux maladies, qui sont des défauts de conception. Les approches de détection sont des mécanismes de défense pour les conception des systèmes. Un système immunitaire naturel peut détecter des pathogènes similaires avec une bonne précision. Cette bonne précision a inspiré une famille d'algorithmes de classification, appelés systèmes immunitaires artificiels (AIS), que nous utilisions pour détecter les défauts de conception. Les différentes contributions ont été évaluées sur des logiciels libres orientés objets et les résultats obtenus nous permettent de formuler les conclusions suivantes: • Les métriques Tunnel Triplets Metric (TTM) et Common Triplets Metric (CTM), fournissent aux développeurs de bons indices sur la dégradation de l'architecture. La d´ecroissance de TTM indique que la conception originale de l'architecture s’est dégradée. La stabilité de TTM indique la stabilité de la conception originale, ce qui signifie que le système est adapté aux nouvelles spécifications des utilisateurs. • La séismologie est une métaphore intéressante pour l'analyse de l'impact des changements. En effet, les changements se propagent dans les systèmes comme les tremblements de terre. L'impact d'un changement est plus important autour de la classe qui change et diminue progressivement avec la distance à cette classe. Notre approche aide les développeurs à identifier l'impact d'un changement. • Le système immunitaire est une métaphore intéressante pour la détection des défauts de conception. Les résultats des expériences ont montré que la précision et le rappel de notre approche sont comparables ou supérieurs à ceux des approches existantes.
Resumo:
Les systèmes éducatifs dans le monde et particulièrement au Québec visent à préparer les élèves à relever les défis de l’avenir et à continuer à apprendre tout au long de leur vie. À cet égard, la lecture est un volet important dans le développement d'un enfant et dans sa capacité de faire des liens avec le monde qui l'entoure. La lecture est un outil d’apprentissage, de communication et de création, et elle peut être une source de plaisir. La plupart des activités quotidiennes font appel à la lecture. Ainsi, elle est nécessaire pour effectuer une tâche, se renseigner ou se divertir. L’élève apprend à lire pour mieux s’intégrer dans la vie scolaire et sociale et pour apprendre dans différents contextes disciplinaires. Dans le but notamment de consolider les apprentissages et d’installer de bonnes habitudes de travail, les enseignants proposent aux élèves des devoirs de lecture à faire à la maison. Les recherches montrent que la participation des parents dans la vie scolaire des enfants, particulièrement lors de l’encadrement des devoirs, peut avoir une influence positive sur la réussite scolaire. La présente recherche vise à étudier la manière dont les parents d’élèves de première année encadrent leur enfant pendant la période des devoirs, notamment pendant la lecture. Notre échantillon est constitué de dix-sept parents d’élèves de première année. Nous avons privilégié l’entrevue semi-dirigée afin de recueillir les commentaires et les perceptions des parents sur le déroulement de la période des devoirs à la maison. Les résultats ont montré que tous les parents interrogés encadrent leur enfant pendant ses devoirs, les mères plus souvent que les pères, et qu’ils établissent une routine lors de cette période. L’encadrement des devoirs se fait majoritairement dans un climat agréable. La plupart des parents soutiennent leur enfant en restant à proximité de lui, en lui donnant des conseils, en l’encourageant et en s’assurant qu’il termine ses devoirs. La majorité des parents estiment avoir les ressources nécessaires pour encadrer leur enfant lors des devoirs. Durant la lecture, les parents écoutent généralement leur enfant et l’aident ou le corrigent s’il n’arrive pas à lire ou s’il fait une erreur. Par ailleurs, même si les parents sont convaincus de l’habileté de leur enfant en lecture, la plupart vérifient sa compréhension en posant des questions. En ce qui a trait aux effets des devoirs, tous les parents pensent que les devoirs favorisent la réussite scolaire de leur enfant et que leur encadrement a un effet positif sur la lecture. Les résultats obtenus ne peuvent être généralisés. Cependant, il serait intéressant de poursuivre ce travail par une recherche complémentaire qui étudierait les perceptions des enseignants et des élèves sur les devoirs de lecture.
Resumo:
Depuis l’entrée en vigueur du Programme de formation de l’école québécoise en 2001, l’astronomie est à nouveau enseignée dans les classes du Québec. Malheureusement, l’école est mal outillée pour enseigner des concepts astronomiques complexes se déroulant pour la plupart en dehors des heures de classe et sur de longues périodes de temps. Sans compter que bien des phénomènes astronomiques mettent en jeu des astres se déplaçant dans un espace tridimensionnel auquel nous n’avons pas accès depuis notre point de vue géocentrique. Les phases de la Lune, concept prescrit au premier cycle du secondaire, sont de ceux-là. Heureusement, l’école peut compter sur l’appui du planétarium, musée de sciences dédié à la présentation, en accéléré et à toute heure du jour, de simulations ultra réalistes de divers phénomènes astronomiques. Mais quel type de planétarium secondera l’école ? Récemment, les planétariums ont eux aussi subi leur propre révolution : ces institutions sont passées de l’analogique au numérique, remplaçant les projecteurs optomécaniques géocentriques par des projecteurs vidéo qui offrent la possibilité de se déplacer virtuellement dans une simulation de l’Univers tridimensionnel complètement immersive. Bien que la recherche en éducation dans les planétariums se soit peu penchée sur ce nouveau paradigme, certaines de ses conclusions basées sur l’étude des planétariums analogiques peuvent nous aider à concevoir une intervention didactique fructueuse dans ces nouveaux simulateurs numériques. Mais d’autres sources d’inspiration seront invoquées, au premier chef la didactique des sciences, qui conçoit l’apprentissage non plus comme la transmission de connaissances, mais plutôt comme la construction de savoirs par les apprenants eux-mêmes, avec et contre leurs conceptions premières. La conception d’environnements d’apprentissages constructivistes, dont le planétarium numérique est un digne représentant, et l’utilisation des simulations en astronomie, complèteront notre cadre théorique et mèneront à la conception d’une intervention didactique à propos des phases de la Lune dans un planétarium numérique s’adressant à des élèves âgés de 12 à 14 ans. Cette intervention didactique a été mise à l’essai une première fois dans le cadre d’une recherche de développement (ingénierie didactique) visant à l’améliorer, à la fois sur son versant théorique et sur son versant pratique, par le biais de multiples itérations dans le milieu « naturel » où elle se déploie, ici un planétarium numérique gonflable de six mètres de diamètre. Nous présentons les résultats de notre première itération, réalisée en compagnie de six jeunes de 12 à 14 ans (quatre garçons et deux filles) dont nous avons recueilli les conceptions à propos des phases de la Lune avant, pendant et après l’intervention par le biais d’entrevues de groupe, questionnaires, mises en situation et enregistrement des interventions tout au long de l’activité. L'évaluation a été essentiellement qualitative, basée sur les traces obtenues tout au long de la séance, en particulier sous la voûte du planétarium. Ce matériel a ensuite été analysé pour valider les concepts théoriques qui ont mené à la conception de l'intervention didactique, d'une part, mais aussi pour faire émerger des améliorations possibles visant à bonifier l'intervention. Nous avons ainsi constaté que l'intervention provoque effectivement l'évolution des conceptions de la majorité des participants à propos des phases de la Lune, mais nous avons également identifié des façons de rendre l’intervention encore plus efficace à l’avenir.
Resumo:
Les logiciels sont en constante évolution, nécessitant une maintenance et un développement continus. Ils subissent des changements tout au long de leur vie, que ce soit pendant l'ajout de nouvelles fonctionnalités ou la correction de bogues. Lorsque les logiciels évoluent, leurs architectures ont tendance à se dégrader et deviennent moins adaptables aux nouvelles spécifications des utilisateurs. En effet, les architectures de ces logiciels deviennent plus complexes et plus difficiles à maintenir à cause des nombreuses dépendances entre les artefacts. Par conséquent, les développeurs doivent comprendre les dépendances entre les artefacts des logiciels pour prendre des mesures proactives qui facilitent les futurs changements et ralentissent la dégradation des architectures des logiciels. D'une part, le maintien d'un logiciel sans la compréhension des les dépendances entre ses artefacts peut conduire à l'introduction de défauts. D'autre part, lorsque les développeurs manquent de connaissances sur l'impact de leurs activités de maintenance, ils peuvent introduire des défauts de conception, qui ont un impact négatif sur l'évolution du logiciel. Ainsi, les développeurs ont besoin de mécanismes pour comprendre comment le changement d'un artefact impacte le reste du logiciel. Dans cette thèse, nous proposons trois contributions principales : La spécification de deux nouveaux patrons de changement et leurs utilisations pour fournir aux développeurs des informations utiles concernant les dépendances de co-changement. La spécification de la relation entre les patrons d'évolutions des artefacts et les fautes. La découverte de la relation entre les dépendances des anti-patrons et la prédisposition des différentes composantes d'un logiciel aux fautes.