410 resultados para sentiment d’auto-efficacité
Resumo:
Résumé Introduction: La perfusion isolée cytostatique du poumon est une technique attractive qui permet l'administration des doses élevées d'un agent cytostatique tout en épargnant dans la mesure du possible la circulation systémique. Cependant, la perfusion de l'artère pulmonaire risque d'épargner le territoire pulmonaire vascularisé par l'intermédiaire des artères bronchiques, ce qui pourrait diminuer l'efficacité de ce traitement au cas où la lésion ciblée est vascularisée par les artères bronchiques. Ce travail est destiné au développement d'un modèle tumoral au niveau des poumons de rongeur (rat) porteur d'un sarcome pulmonaire afin de déterminer si la voie d'injection des cellules tumorales (intraveineuse, versus intratumorale) influencera la vascularisation des tumeurs (provenant du système artères pulmonaires ou artères bronchiques). Méthod: Des tumeurs de sarcomes pulmonaires ont été générées par injection d'une suspension cellulaire de sarcome, soit par injection intraveineuse, soit directement dans le parenchyme pulmonaire par thoracotomie. Ensuite, une perfusion isolée du poumon porteur de la tumeur à l'aide de l'encre a été effectuée, soit par l'artère pulmonaire, soit par le système des artères bronchiques. La distribution de l'encre dans les vaisseaux tumoraux ainsi que dans les vaisseaux non tumoraux du poumon adjacent a été investiguée à l'aide d'une analyse histologique des poumons perfusés. Résultat: L'administration intraveineuse et intratumorale de la suspension de cellules tumorales résulte en des tumeurs similaires sur le plan histologique. Néanmoins, l'injection intra-parenchymateuse démontre des tumeurs plus homogènes et avec un développement plus prédictible, était associée à une survie plus longue qu'après injection intraveineuse. Les analyses histologiques après perfusion isolée à l'aide de l'encre démontre que les tumeurs résultant de l'injection intraveineuse ont développé une vascularisation se basant sur le système d'artères pulmonaires tandis que les tumeurs émergeant après injection intraparenchymateuse ont développé une vascularisation provenant du système des artères bronchiques. Conclusion: Ce travail démontre pour la première fois l'importance du mode de génération de tumeurs pulmonaires en ce qui concerne leur future vascularisation, ce qui pourrait avoir un impact sur leur traitement par perfusion isolée du poumon. Abstract Isolated cytostatic lung perfusion (ILP) is an attractive technique allowing delivery of a high-dose of cytostatic agents to the lungs while limiting systemic toxicity. In developing a rat model of ILP, we have analysed the effect of the route of tumour cell injection on the source of tumour vessels. Pulmonary sarcomas were estab¬lished by injecting a sarcoma cell suspension either by the intravenous (i.v.) route or directly into the lung paren¬chyma. Ink perfusion through either pulmonary artery (PA) or bronchial arteries (BA) was performed and the characteristics of the tumour deposits defined. i.v. and direct injection methods induced pulmonary sarcoma nodules, with similar histological features. The intraparenchymal injection of tumour cells resulted in more reli¬able and reproducible tumour growth and was associat¬ed with a longer survival of the animals. i.v. injected tumours developed a PA-derived vascular tree whereas directly injected tumours developed a BA-derived vasculature.
Resumo:
Le mycophénolate mofétil est un immunosuppresseur, utilisé en transplantation d'organes solides depuis 1993. Il agit par inhibition de la synthèse de novo des bases puriques, voie essentielle permettant la prolifération des lymphocytes B et T. Des mécanismes immunologiques impliquant les lymphocytes interviennent dans un bon nombre de glomérulopathies primitives ou associées à des maladies auto-immunes systémiques. il a paru ainsi logique de prescrire ce médicament dans ces maladies où les traitements immunosuppresseurs classiques se caractérisent par une efficacité imprévisible et une toxicité souvent importante. Les résultats thérapeutiques les plus convaincants ont été obtenus dans les néphrites lupiques prolifératives et les vasculites pauci-immunes.
Resumo:
In fear conditioning, an animal learns to associate an unconditioned stimulus (US), such as a shock, and a conditioned stimulus (CS), such as a tone, so that the presentation of the CS alone can trigger conditioned responses. Recent research on the lateral amygdala has shown that following cued fear conditioning, only a subset of higher-excitable neurons are recruited in the memory trace. Their selective deletion after fear conditioning results in a selective erasure of the fearful memory. I hypothesize that the recruitment of highly excitable neurons depends on responsiveness to stimuli, intrinsic excitability and local connectivity. In addition, I hypothesize that neurons recruited for an initial memory also participate in subsequent memories, and that changes in neuronal excitability affect secondary fear learning. To address these hypotheses, I will show that A) a rat can learn to associate two successive short-term fearful memories; B) neuronal populations in the LA are competitively recruited in the memory traces depending on individual neuronal advantages, as well as advantages granted by the local network. By performing two successive cued fear conditioning experiments, I found that rats were able to learn and extinguish the two successive short-term memories, when tested 1 hour after learning for each memory. These rats were equipped with a system of stable extracellular recordings that I developed, which allowed to monitor neuronal activity during fear learning. 233 individual putative pyramidal neurons could modulate their firing rate in response to the conditioned tone (conditioned neurons) and/or non- conditioned tones (generalizing neurons). Out of these recorded putative pyramidal neurons 86 (37%) neurons were conditioned to one or both tones. More precisely, one population of neurons encoded for a shared memory while another group of neurons likely encoded the memories' new features. Notably, in spite of a successful behavioral extinction, the firing rate of those conditioned neurons in response to the conditioned tone remained unchanged throughout memory testing. Furthermore, by analyzing the pre-conditioning characteristics of the conditioned neurons, I determined that it was possible to predict neuronal recruitment based on three factors: 1) initial sensitivity to auditory inputs, with tone-sensitive neurons being more easily recruited than tone- insensitive neurons; 2) baseline excitability levels, with more highly excitable neurons being more likely to become conditioned; and 3) the number of afferent connections received from local neurons, with neurons destined to become conditioned receiving more connections than non-conditioned neurons. - En conditionnement de la peur, un animal apprend à associer un stimulus inconditionnel (SI), tel un choc électrique, et un stimulus conditionné (SC), comme un son, de sorte que la présentation du SC seul suffit pour déclencher des réflexes conditionnés. Des recherches récentes sur l'amygdale latérale (AL) ont montré que, suite au conditionnement à la peur, seul un sous-ensemble de neurones plus excitables sont recrutés pour constituer la trace mnésique. Pour apprendre à associer deux sons au même SI, je fais l'hypothèse que les neurones entrent en compétition afin d'être sélectionnés lors du recrutement pour coder la trace mnésique. Ce recrutement dépendrait d'un part à une activation facilité des neurones ainsi qu'une activation facilité de réseaux de neurones locaux. En outre, je fais l'hypothèse que l'activation de ces réseaux de l'AL, en soi, est suffisante pour induire une mémoire effrayante. Pour répondre à ces hypothèses, je vais montrer que A) selon un processus de mémoire à court terme, un rat peut apprendre à associer deux mémoires effrayantes apprises successivement; B) des populations neuronales dans l'AL sont compétitivement recrutées dans les traces mnésiques en fonction des avantages neuronaux individuels, ainsi que les avantages consentis par le réseau local. En effectuant deux expériences successives de conditionnement à la peur, des rats étaient capables d'apprendre, ainsi que de subir un processus d'extinction, pour les deux souvenirs effrayants. La mesure de l'efficacité du conditionnement à la peur a été effectuée 1 heure après l'apprentissage pour chaque souvenir. Ces rats ont été équipés d'un système d'enregistrements extracellulaires stables que j'ai développé, ce qui a permis de suivre l'activité neuronale pendant l'apprentissage de la peur. 233 neurones pyramidaux individuels pouvaient moduler leur taux d'activité en réponse au son conditionné (neurones conditionnés) et/ou au son non conditionné (neurones généralisant). Sur les 233 neurones pyramidaux putatifs enregistrés 86 (37%) d'entre eux ont été conditionnés à un ou deux tons. Plus précisément, une population de neurones code conjointement pour un souvenir partagé, alors qu'un groupe de neurones différent code pour de nouvelles caractéristiques de nouveaux souvenirs. En particulier, en dépit d'une extinction du comportement réussie, le taux de décharge de ces neurones conditionné en réponse à la tonalité conditionnée est resté inchangée tout au long de la mesure d'apprentissage. En outre, en analysant les caractéristiques de pré-conditionnement des neurones conditionnés, j'ai déterminé qu'il était possible de prévoir le recrutement neuronal basé sur trois facteurs : 1) la sensibilité initiale aux entrées auditives, avec les neurones sensibles aux sons étant plus facilement recrutés que les neurones ne répondant pas aux stimuli auditifs; 2) les niveaux d'excitabilité des neurones, avec les neurones plus facilement excitables étant plus susceptibles d'être conditionnés au son ; et 3) le nombre de connexions reçues, puisque les neurones conditionné reçoivent plus de connexions que les neurones non-conditionnés. Enfin, nous avons constaté qu'il était possible de remplacer de façon satisfaisante le SI lors d'un conditionnement à la peur par des injections bilatérales de bicuculline, un antagoniste des récepteurs de l'acide y-Aminobutirique.
Resumo:
Résumé grand public :Le cerveau se compose de cellules nerveuses appelées neurones et de cellules gliales dont font partie les astrocytes. Les neurones communiquent entre eux par signaux électriques et en libérant des molécules de signalisation comme le glutamate. Les astrocytes ont eux pour charge de capter le glucose depuis le sang circulant dans les vaisseaux sanguins, de le transformer et de le transmettre aux neurones pour qu'ils puissent l'utiliser comme source d'énergie. L'astrocyte peut ensuite utiliser ce glucose de deux façons différentes pour produire de l'énergie : la première s'opère dans des structures appelées mitochondries qui sont capables de produire plus de trente molécules riches en énergie (ATP) à partir d'une seule molécule de glucose ; la seconde possibilité appelée glycolyse peut produire deux molécules d'ATP et un dérivé du glucose appelé lactate. Une théorie couramment débattue propose que lorsque les astrocytes capturent le glutamate libéré par les neurones, ils libèrent en réponse du lactate qui servirait de base énergétique aux neurones. Cependant, ce mécanisme n'envisage pas une augmentation de l'activité des mitochondries des astrocytes, ce qui serait pourtant bien plus efficace pour produire de l'énergie.En utilisant la microscopie par fluorescence, nous avons pu mesurer les changements de concentrations ioniques dans les mitochondries d'astrocytes soumis à une stimulation glutamatergique. Nous avons démontré que les mitochondries des astrocytes manifestent des augmentations spontanées et transitoires de leur concentrations ioniques, dont la fréquence était diminuée au cours d'une stimulation avec du glutamate. Nous avons ensuite montré que la capture de glutamate augmentait la concentration en sodium et acidifiait les mitochondries des astrocytes. En approfondissant ces mécanismes, plusieurs éléments ont suggéré que l'acidification induite diminuerait le potentiel de synthèse d'énergie d'origine mitochondriale et la consommation d'oxygène dans les astrocytes. En résumé, l'ensemble de ces travaux suggère que la signalisation neuronale impliquant le glutamate dicte aux astrocytes de sacrifier temporairement l'efficacité de leur métabolisme énergétique, en diminuant l'activité de leurs mitochondries, afin d'augmenter la disponibilité des ressources énergétiques utiles aux neurones.Résumé :La remarquable efficacité du cerveau à compiler et propager des informations coûte au corps humain 20% de son budget énergétique total. Par conséquent, les mécanismes cellulaires responsables du métabolisme énergétique cérébral se sont adéquatement développés pour répondre aux besoins énergétiques du cerveau. Les dernières découvertes en neuroénergétique tendent à démontrer que le site principal de consommation d'énergie dans le cerveau est situé dans les processus astrocytaires qui entourent les synapses excitatrices. Un nombre croissant de preuves scientifiques a maintenant montré que le transport astrocytaire de glutamate est responsable d'un coût métabolique important qui est majoritairement pris en charge par une augmentation de l'activité glycolytique. Cependant, les astrocytes possèdent également un important métabolisme énergétique de type mitochondrial. Par conséquent, la localisation spatiale des mitochondries à proximité des transporteurs de glutamate suggère l'existence d'un mécanisme régulant le métabolisme énergétique astrocytaire, en particulier le métabolisme mitochondrial.Afin de fournir une explication à ce paradoxe énergétique, nous avons utilisé des techniques d'imagerie par fluorescence pour mesurer les modifications de concentrations ioniques spontanées et évoquées par une stimulation glutamatergique dans des astrocytes corticaux de souris. Nous avons montré que les mitochondries d'astrocytes au repos manifestaient des changements individuels, spontanés et sélectifs de leur potentiel électrique, de leur pH et de leur concentration en sodium. Nous avons trouvé que le glutamate diminuait la fréquence des augmentations spontanées de sodium en diminuant le niveau cellulaire d'ATP. Nous avons ensuite étudié la possibilité d'une régulation du métabolisme mitochondrial astrocytaire par le glutamate. Nous avons montré que le glutamate initie dans la population mitochondriale une augmentation rapide de la concentration en sodium due à l'augmentation cytosolique de sodium. Nous avons également montré que le relâchement neuronal de glutamate induit une acidification mitochondriale dans les astrocytes. Nos résultats ont indiqué que l'acidification induite par le glutamate induit une diminution de la production de radicaux libres et de la consommation d'oxygène par les astrocytes. Ces études ont montré que les mitochondries des astrocytes sont régulées individuellement et adaptent leur activité selon l'environnement intracellulaire. L'adaptation dynamique du métabolisme énergétique mitochondrial opéré par le glutamate permet d'augmenter la quantité d'oxygène disponible et amène au relâchement de lactate, tous deux bénéfiques pour les neurones.Abstract :The remarkable efficiency of the brain to compute and communicate information costs the body 20% of its total energy budget. Therefore, the cellular mechanisms responsible for brain energy metabolism developed adequately to face the energy needs. Recent advances in neuroenergetics tend to indicate that the main site of energy consumption in the brain is the astroglial process ensheating activated excitatory synapses. A large body of evidence has now shown that glutamate uptake by astrocytes surrounding synapses is responsible for a significant metabolic cost, whose metabolic response is apparently mainly glycolytic. However, astrocytes have also a significant mitochondrial oxidative metabolism. Therefore, the location of mitochondria close to glutamate transporters raises the question of the existence of mechanisms for tuning their energy metabolism, in particular their mitochondrial metabolism.To tackle these issues, we used real time imaging techniques to study mitochondrial ionic alterations occurring at resting state and during glutamatergic stimulation of mouse cortical astrocytes. We showed that mitochondria of intact resting astrocytes exhibited individual spontaneous and selective alterations of their electrical potential, pH and Na+ concentration. We found that glutamate decreased the frequency of mitochondrial Na+ transient activity by decreasing the cellular level of ATP. We then investigated a possible link between glutamatergic transmission and mitochondrial metabolism in astrocytes. We showed that glutamate triggered a rapid Na+ concentration increase in the mitochondrial population as a result of plasma-membrane Na+-dependent uptake. We then demonstrated that neuronally released glutamate also induced a mitochondrial acidification in astrocytes. Glutamate induced a pH-mediated and cytoprotective decrease of mitochondrial metabolism that diminished oxygen consumption. Taken together, these studies showed that astrocytes contain mitochondria that are individually regulated and sense the intracellular environment to modulate their own activity. The dynamic regulation of astrocyte mitochondrial energy output operated by glutamate allows increasing oxygen availability and lactate production both being beneficial for neurons.
Resumo:
Cette revue évoque principalement les nouveautés dans le traitement de l'hépatite B chronique, les problèmes de résistance qui émergent et les recommandations internationales pour le suivi du patient. Sont également discutées la prophylaxie postexposition de l'hépatite A, la durée de traitement des hépatites C chroniques, la vaccination contre l'hépatite E, ainsi qu'une étude contrôlée qui a évalué l'efficacité de la pioglitazone dans la stéatohépatite non alcoolique. Des études utiles pour la pratique clinique concernant l'hépatite alcoolique, les effets secondaires hépatiques du paracétamol à dose thérapeutique et la révision des critères diagnostiques et de la prise en charge du syndrome hépato-rénal sont également discutés. This review highlights new treatment options in chronic hepatitis B, issues related to antiviral resistance and current recommendations for the monitoring of patients on treatment. We also discuss post-exposure prophylaxis of hepatitis A, treatment duration in chronic hepatitis C and recent studies exploring vaccination against hepatitis E and pioglitazone for nonalcoholic steatohepatitis. Finally, we will briefly comment new findings in alcoholic hepatitis as well as acetaminophen hepatotoxicity and summarize revised criteria for the diagnosis and management of hepatorenal syndrome
Resumo:
RÉSUMÉ L'exercice est utilisé dans le traitement de la lombalgie depuis plus de cent ans. La recherche dans ce domaine a commencé au milieu du XXème siècle puis s'est développée exponentiellement jusqu'à nos jours. La première étude de cette thèse a eu pour but de passer en revue cette abondante littérature scientifique. Il en est ressorti que l'exercice est un moyen efficace de prévention primaire et secondaire de la lombalgie. En tant que modalité de traitement, l'exercice permet de diminuer l'incapacité et la douleur et d'améliorer la condition physique et le statut professionnel des patients lombalgiques subaigus et chroniques. Parmi les caractéristiques de l'exercice, la supervision est essentielle. Des investigations ultérieures sont nécessaires afin d'identifier des sous-groupes de patients répondant favorablement à d'autres caractéristiques de l'exercice. L'exercice est souvent utilisé dans l'optique de maintenir les résultats obtenus à la suite d'un traitement, bien que peu d'études s'y soient penchées. La deuxième partie de cette thèse a eu pour objectifs d'évaluer l'efficacité d'un programme d'exercice (PE) suivi par des patients lombalgiques chroniques ayant complété une restauration fonctionnelle multidisciplinaire (RFM), en comparaison avec le suivi classique (SC) consistant simplement à encourager les patients à adopter un quotidien aussi actif que possible par la suite. Les résultats ont montré que les améliorations obtenues au terme de RFM étaient maintenues par les deux groupes à un an de suivi. Bien qu'aucune différence n'ait été obtenue entre les deux groupes, seul le groupe PE améliorait significativement l'incapacité et l'endurance isométrique des muscles du tronc. Une analyse économique a ensuite été réalisée afin d'évaluer la rentabilité de PE. L'évaluation de la qualité de vie des patients au terme de RFM et à un an de suivi permettait d'estimer les années de vie ajustées par leur qualité (QALYs) gagnées par chaque groupe. Les coûts directs (visites chez le médecin, spécialiste, physio, autres) et indirects (jours d'absence au travail) étaient estimés avant RFM et à un an de suivi à l'aide d'un agenda. Aucune différence significative n'était obtenue entre les groupes. Une mince différence de QALYs en faveur de PE ne se traduisait néanmoins pas en bénéfices mesurables. La recherche future devrait s'attacher à identifier un ou des sous-groupe(s) de patients pour lesquels SC ne permet pas de maintenir à long terme les améliorations obtenues au terme de RFM, et pour lesquels l'efficacité thérapeutique et la rentabilité économique de PE pourraient être accrues. ABSTRACT Exercise is used to treat low back pain for over a hundred years. Research in this area began in the mid-twentieth century and then grew exponentially until nowadays. The first study of this thesis was aimed to review this abundant scientific literature. It showed that exercise is effective in the primary and secondary prevention of low back pain. As a modality of treatment, exercise can reduce disability and pain and improve physical fitness and professional status of patients with subacute and chronic low back pain. Among different exercise characteristics, supervision is essential. Further investigations are needed to identify subgroups of patients responding positively to other characteristics of exercise. Exercise is often used as a post-treatment modality in order to maintain results over time, although only a few studies addressed this issue directly. The purpose of the second part of this thesis was to evaluate the effectiveness of an exercise program (EP) for patients with chronic low back pain who completed a functional multidisciplinary rehabilitation (FMR), compared to the routine follow-up (RF) which simply consisted of encouraging patients to adopt an active daily life thereafter. The results showed that improvements obtained at the end of FMR were maintained by both groups at one year follow-up. Although no difference was obtained between both groups, only the EP group significantly improved disability and isometric endurance of trunk muscles. An economic analysis was then carried out to assess the cost-effectiveness of EP. Based on the evaluation of patients' quality of life after FMR and at one year follow-up, an estimation of adjusted life years for their quality (QALYs) gained by each group was done. Direct costs (physician, specialist, physiotherapist, other therapists visits) and indirect costs (days off work) were measured before FMR and at one year follow-up using a cost diary. No significant difference was obtained between both groups. A slight difference in QALYs in favour of EP did yet not translate into measurable benefits. Future research should focus on identifying subgroups of patients for which RF is insufficient to reach long-term improvements after FMR, and for which the therapeutic effectiveness and cost-effectiveness of EP could be increased.
Resumo:
Rapport de synthèse: Les rendez-vous manqués représentent un problème important, tant du point de vue de la santé des patients que du point de vue économique. Pourtant peu d'études se sont penchées sur le sujet, particulièrement dans une population d'adolescents. Les buts de cette étude étaient de caractériser les adolescents qui sont à risque de manquer ou d'annuler leurs rendez-vous dans une clinique ambulatoire de santé pour adolescents, de comparer les taux des rendez-vous manqués et annulés entre les différents intervenants et d'estimer l'efficacité d'une politique de taxation des rendez-vous manqués non excusés. Finalement, un modèle multi-niveau markovien a été utilisé afin de prédire le risque de manquer un rendez-vous. Ce modèle tient compte du passé de l'adolescent en matière de rendez-vous manqués et d'autres covariables et permet de grouper les individus ayant un comportement semblable. On peut ensuite prédire pour chaque groupe le risque de manquer ou annuler et les covariables influençant significativement ce risque. Entre 1999 et 2006, 32816 rendez-vous fixés pour 3577 patients âgés de 12 à 20 ans ont été analysés. Le taux de rendez-vous manqués était de 11.8%, alors que 10.9% avaient été annulés. Soixante pour cent des patients n'ont pas manqué un seul de leur rendezvous et 14% en ont manqué plus de 25%. Nous avons pu mettre en évidence plusieurs variables associées de manière statistiquement significative avec les taux de rendez-vous manqués et d'annulations (genre, âge, heure, jour de la semaine, intervenant thérapeutique). Le comportement des filles peut être catégorisé en 2 groupes. Le premier groupe inclut les diagnostiques psychiatriques et de trouble du comportement alimentaire, le risque de manquer dans ce groupe étant faible et associé au fait d'avoir précédemment manqué un rendez-vous et au délai du rendez-vous. Les autres diagnostiques chez les filles sont associés à un second groupe qui montre un risque plus élevé de manquer un rendez-vous et qui est associé à l'intervenant, au fait d'avoir précédemment manqué ou annulé le dernier rendez-vous et au délai du rendez-vous. Les garçons ont tous globalement un comportement similaire concernant les rendez-vous manqués. Le diagnostic au sein de ce groupe influence le risque de manquer, tout comme le fait d'avoir précédemment manqué ou annulé un rendez-vous, le délai du rendez-vous et l'âge du patient. L'introduction de la politique de taxation des rendez-vous non excusés n'a pas montré de différence significative des tàux de rendez-vous manqués, cependant cette mesure a permis une augmentation du taux d'annulations. En conclusion, les taux de présence des adolescents à leurs rendez-vous sont dépendants de facteurs divers. Et, même si les adolescents sont une population à risque concernant les rendez-vous manqués, la majorité d'entre eux ne manquent aucun de leurs rendez-vous, ceci étant vrai pour les deux sexes. Etudier les rendez-vous manqués et les adolescents qui sont à risque de rater leur rendez-vous est un pas nécessaire vers le contrôle de ce phénomène. Par ailleurs, les moyens de contrôle concernant les rendez-vous manqués devraient cibler les patients ayant déjà manqué un rendez-vous. La taxation des rendez-vous manqués permet d'augmenter les rendez-vous annulés, ce qui a l'avantage de permettre de fixer un nouveau rendez-vous et, de ce fait, d'améliorer la continuité des soins.
Resumo:
RESUME L'anévrysme de l'aorte abdominale est une dilatation permanente et localisée de l'aorte abdominale d'un diamètre transverse supérieur à 30 mm. Il s'agit d'une maladie dégénérative et inflammatoire fréquente de l'aorte, présente chez environ 5% des hommes de 65 à 74 ans de la population générale, et chez 10% des hommes hospitalisés pour une revascularisation coronarienne chirurgicale. En effet, bien que la pathogenèse de l'anévrysme de l'aorte abdominale diffère de celle du processus d'athérosclérose, les deux maladies partagent de nombreux facteurs de risque, en particulier l'âge, l'hypertension artérielle et le tabagisme. L'anévrysme de l'aorte abdominale est une maladie silencieuse, et dans 20% des cas, sa première manifestation clinique est la rupture aiguë avec choc hémorragique. La mortalité totale d'une telle complication dépasse 90% et sa mortalité strictement opératoire est d'environ 50%. Ces chiffres contrastent étonnamment avec une mortalité inférieure à 5% en cas de cure chirurgicale élective de l'anévrysme, justifiant un programme de dépistage systématique de cette maladie par ultrasonographie abdominale. Plusieurs études ont actuellement prouvé l'efficience de tels programmes, tant du point de vue de leur impact sur la mortalité que de leur rapport coût-efficacité. La question d'un dépistage systématique de la population générale ou de celui de souspopulations sélectionnées en fonction de leurs facteurs de risque reste toutefois débattue. La prise en charge de l'anévrysme de l'aorte abdominale est en principe conservatrice pour les anévrysmes de faibles diamètres, la mortalité d'une telle approche étant comparable à celle d'une attitude d'emblée chirurgicale. L'indication opératoire est par contre posée pour les anévrysmes d'un diamètre supérieur à 55 mm en raison du risque inacceptable de rupture, la valeur du diamètre transverse de l'aorte représentant le facteur prédictif de rupture le plus fréquemment utilisé en pratique quotidienne. La cure chirurgicale ouverte est le traitement de référence de l'anévrysme de l'aorte abdominale, mais la cure minimale invasive par endoprothèse, disponible depuis le début des années 1990, représente une alternative attrayante. Le choix de l'approche thérapeutique dépend fortement des caractéristiques anatomiques de l'aorte, ainsi que des comorbidités et de la préférence du patient.
Resumo:
La comparaison des fécondités entre reines de sociétés expérimentales monogynes et polygynes de la fourmi d'Argentine (lridomyrmex humilis) nous a permis de montrer que les reines des sociétés monogynes pondent significativement plus d'oeufs que les reines des sociétés polygynes. Dans ce contexte nous n'avons pas pu mettre en évidence de dominance ou de hiérarchie stricte entre les reines. Deux hypothèses ont été émises pour expliquer la diminution de la fécondité qui affecte toutes les reines en sociétés polygynes: -. inhibition mutuelle entre reines, -. coordination et efficacité plus faible en sociétés polygynes. Afin d'intégrer la polygynie dans un cadre évolutif l'hypothèse du "mutualisme" est proposée comme alternative à l'hypothèse de la sélection de parentèle (kin selection).
Resumo:
Summary : Division of labour is one of the most fascinating aspects of social insects. The efficient allocation of individuals to a multitude of different tasks requires a dynamic adjustment in response to the demands of a changing environment. A considerable number of theoretical models have focussed on identifying the mechanisms allowing colonies to perform efficient task allocation. The large majority of these models are built on the observation that individuals in a colony vary in their propensity (response threshold) to perform different tasks. Since individuals with a low threshold for a given task stimulus are more likely to perform that task than individuals with a high threshold, infra-colony variation in individual thresholds results in colony division of labour. These theoretical models suggest that variation in individual thresholds is affected by the within-colony genetic diversity. However, the models have not considered the genetic architecture underlying the individual response thresholds. This is important because a better understanding of division of labour requires determining how genotypic variation relates to differences in infra-colony response threshold distributions. In this thesis, we investigated the combined influence on task allocation efficiency of both, the within-colony genetic variability (stemming from variation in the number of matings by queens) and the number of genes underlying the response thresholds. We used an agent-based simulator to model a situation where workers in a colony had to perform either a regulatory task (where the amount of a given food item in the colony had to be maintained within predefined bounds) or a foraging task (where the quantity of a second type of food item collected had to be the highest possible). The performance of colonies was a function of workers being able to perform both tasks efficiently. To study the effect of within-colony genetic diversity, we compared the performance of colonies with queens mated with varying number of males. On the other hand, the influence of genetic architecture was investigated by varying the number of loci underlying the response threshold of the foraging and regulatory tasks. Artificial evolution was used to evolve the allelic values underlying the tasks thresholds. The results revealed that multiple matings always translated into higher colony performance, whatever the number of loci encoding the thresholds of the regulatory and foraging tasks. However, the beneficial effect of additional matings was particularly important when the genetic architecture of queens comprised one or few genes for the foraging task's threshold. By contrast, higher number of genes encoding the foraging task reduced colony performance with the detrimental effect being stronger when queens had mated with several males. Finally, the number of genes determining the threshold for the regulatory task only had a minor but incremental effect on colony performance. Overall, our numerical experiments indicate the importance of considering the effects of queen mating frequency, genetic architecture underlying task thresholds and the type of task performed when investigating the factors regulating the efficiency of division of labour in social insects. In this thesis we also investigate the task allocation efficiency of response threshold models and compare them with neural networks. While response threshold models are widely used amongst theoretical biologists interested in division of labour in social insects, our simulation reveals that they perform poorly compared to a neural network model. A major shortcoming of response thresholds is that they fail at one of the most crucial requirement of division of labour, the ability of individuals in a colony to efficiently switch between tasks under varying environmental conditions. Moreover, the intrinsic properties of the threshold models are that they lead to a large proportion of idle workers. Our results highlight these limitations of the response threshold models and provide an adequate substitute. Altogether, the experiments presented in this thesis provide novel contributions to the understanding of how division of labour in social insects is influenced by queen mating frequency and genetic architecture underlying worker task thresholds. Moreover, the thesis also provides a novel model of the mechanisms underlying worker task allocation that maybe more generally applicable than the widely used response threshold models. Resumé : La répartition du travail est l'un des aspects les plus fascinants des insectes vivant en société. Une allocation efficace de la multitude de différentes tâches entre individus demande un ajustement dynamique afin de répondre aux exigences d'un environnement en constant changement. Un nombre considérable de modèles théoriques se sont attachés à identifier les mécanismes permettant aux colonies d'effectuer une allocation efficace des tâches. La grande majorité des ces modèles sont basés sur le constat que les individus d'une même colonie diffèrent dans leur propension (inclination à répondre) à effectuer différentes tâches. Etant donné que les individus possédant un faible seuil de réponse à un stimulus associé à une tâche donnée sont plus disposés à effectuer cette dernière que les individus possédant un seuil élevé, les différences de seuils parmi les individus vivant au sein d'une même colonie mènent à une certaine répartition du travail. Ces modèles théoriques suggèrent que la variation des seuils des individus est affectée par la diversité génétique propre à la colonie. Cependant, ces modèles ne considèrent pas la structure génétique qui est à la base des seuils de réponse individuels. Ceci est très important car une meilleure compréhension de la répartition du travail requière de déterminer de quelle manière les variations génotypiques sont associées aux différentes distributions de seuils de réponse à l'intérieur d'une même colonie. Dans le cadre de cette thèse, nous étudions l'influence combinée de la variabilité génétique d'une colonie (qui prend son origine dans la variation du nombre d'accouplements des reines) avec le nombre de gènes supportant les seuils de réponse, vis-à-vis de la performance de l'allocation des tâches. Nous avons utilisé un simulateur basé sur des agents pour modéliser une situation où les travailleurs d'une colonie devaient accomplir une tâche de régulation (1a quantité d'une nourriture donnée doit être maintenue à l'intérieur d'un certain intervalle) ou une tâche de recherche de nourriture (la quantité d'une certaine nourriture doit être accumulée autant que possible). Dans ce contexte, 'efficacité des colonies tient en partie des travailleurs qui sont capable d'effectuer les deux tâches de manière efficace. Pour étudier l'effet de la diversité génétique d'une colonie, nous comparons l'efficacité des colonies possédant des reines qui s'accouplent avec un nombre variant de mâles. D'autre part, l'influence de la structure génétique a été étudiée en variant le nombre de loci à la base du seuil de réponse des deux tâches de régulation et de recherche de nourriture. Une évolution artificielle a été réalisée pour évoluer les valeurs alléliques qui sont à l'origine de ces seuils de réponse. Les résultats ont révélé que de nombreux accouplements se traduisaient toujours en une plus grande performance de la colonie, quelque soit le nombre de loci encodant les seuils des tâches de régulation et de recherche de nourriture. Cependant, les effets bénéfiques d'accouplements additionnels ont été particulièrement important lorsque la structure génétique des reines comprenait un ou quelques gènes pour le seuil de réponse pour la tâche de recherche de nourriture. D'autre part, un nombre plus élevé de gènes encodant la tâche de recherche de nourriture a diminué la performance de la colonie avec un effet nuisible d'autant plus fort lorsque les reines s'accouplent avec plusieurs mâles. Finalement, le nombre de gènes déterminant le seuil pour la tâche de régulation eu seulement un effet mineur mais incrémental sur la performance de la colonie. Pour conclure, nos expériences numériques révèlent l'importance de considérer les effets associés à la fréquence d'accouplement des reines, à la structure génétique qui est à l'origine des seuils de réponse pour les tâches ainsi qu'au type de tâche effectué au moment d'étudier les facteurs qui régulent l'efficacité de la répartition du travail chez les insectes vivant en communauté. Dans cette thèse, nous étudions l'efficacité de l'allocation des tâches des modèles prenant en compte des seuils de réponses, et les comparons à des réseaux de neurones. Alors que les modèles basés sur des seuils de réponse sont couramment utilisés parmi les biologistes intéressés par la répartition des tâches chez les insectes vivant en société, notre simulation montre qu'ils se révèlent peu efficace comparé à un modèle faisant usage de réseaux de neurones. Un point faible majeur des seuils de réponse est qu'ils échouent sur un point crucial nécessaire à la répartition des tâches, la capacité des individus d'une colonie à commuter efficacement entre des tâches soumises à des conditions environnementales changeantes. De plus, les propriétés intrinsèques des modèles basés sur l'utilisation de seuils conduisent à de larges populations de travailleurs inactifs. Nos résultats mettent en évidence les limites de ces modèles basés sur l'utilisation de seuils et fournissent un substitut adéquat. Ensemble, les expériences présentées dans cette thèse fournissent de nouvelles contributions pour comprendre comment la répartition du travail chez les insectes vivant en société est influencée par la fréquence d'accouplements des reines ainsi que par la structure génétique qui est à l'origine, pour un travailleur, du seuil de réponse pour une tâche. De plus, cette thèse fournit également un nouveau modèle décrivant les mécanismes qui sont à l'origine de l'allocation des tâches entre travailleurs, mécanismes qui peuvent être appliqué de manière plus générale que ceux couramment utilisés et basés sur des seuils de réponse.
Resumo:
L'approche décisionnelle met l'accent sur la manière dont l'individu aborde et négocie les décisions à différents moments de son parcours. Le modèle PIC propose un outil qui permet d'accompagner le processus décisionnel systématiquement. Souvent les conseillers ont tendance à le suivre de manière intuitive. Cependant, un suivi structuré pourrait améliorer l'efficacité de leurs interventions.
Resumo:
Résumé de la thèse en français Titre : Différence entre hommes et femmes dans la réponse à un inhibiteur de l'enzyme de conversion de l'angiotensine et un diurétique chez des patients hypertendus d'origine Africaine. Introduction: L'efficacité des inhibiteurs de l'enzyme de conversion de l'angiotensine (ACEI) dans le traitement de l'hypertension artérielle chez les patients africains est controversée. Objectif: Nous avons examiné la baisse de la tension artérielle ambulatoire (ABP) en réponse à un diurétique et un ACEI chez des patients hypertendus d'origine africaine et nous avons évalué les différentes caractéristiques déterminant l'efficacité du traitement. Méthodes: Etude en simple-aveugle randomisée, en crossover AB/BA. Arrangement Familles hypertendues d'origine africaine de la population générale des Seychelles. Participants : 52 patients (29 hommes et 23 femmes) sur 62 patients hypertendus éligibles ont été inclus. Le principal résultat était la mesure de la réponse de l'ABP à 20 mg de lisinopril (LIS) ou 25 mg d'hydrochlorothiazide (HCT) quotidiennement pendant quatre semaines. Résultats: Le jour, la réponse systolique/diastolique de l'ABP sous HCT était de 4.9 (95% intervalle de confiance (IC) 1.2-8.6)/3.6 (1.0-6.2) mm Hg pour les hommes et 12.9 (9.216.6)/6.3 (3.7-8.8) mm Hg pour les femmes. Sous LIS, la réponse était de 18.8 (15.022.5)/14.6 (12.0-17.1) mm Hg pour les hommes et de 12.4 (8.7-16.2)/7.7 (5.1-10.2) mm Hg pour les femmes. La nuit, la réponse systolique/diastolique sous HCT était de 5.0 (0.6-9.4)/2.7 ((-0.4)-5.7) mm Hg pour les hommes et de 11.5 (7.1-16.0)/5.7 (2.6-8.8) mm Hg pour les femmes, et sous LIS était de 18.7 (14.2-22.1)/15.4 (12.4-18.5) mm Hg pour les hommes et de 3.5 ((-1.0)-7.9)/2.3 ((-0.8)-5.4) mm Hg pour les femmes. L'analyse de régression linéaire multiple a montré que le sexe est un prédicteur indépendant de la réponse tensionnelle à l'HCT et au LIS. Conclusions : Les patients hypertendus d'origine africaine ont présenté une baisse tensionnelle plus grande en réponse au LIS qu'à l'HCT. Les hommes ont mieux répondu au LIS qu'à l'HCT alors que les femmes ont répondu de manière similaire aux deux traitements.
Resumo:
Methods like Event History Analysis can show the existence of diffusion and part of its nature, but do not study the process itself. Nowadays, thanks to the increasing performance of computers, processes can be studied using computational modeling. This thesis presents an agent-based model of policy diffusion mainly inspired from the model developed by Braun and Gilardi (2006). I first start by developing a theoretical framework of policy diffusion that presents the main internal drivers of policy diffusion - such as the preference for the policy, the effectiveness of the policy, the institutional constraints, and the ideology - and its main mechanisms, namely learning, competition, emulation, and coercion. Therefore diffusion, expressed by these interdependencies, is a complex process that needs to be studied with computational agent-based modeling. In a second step, computational agent-based modeling is defined along with its most significant concepts: complexity and emergence. Using computational agent-based modeling implies the development of an algorithm and its programming. When this latter has been developed, we let the different agents interact. Consequently, a phenomenon of diffusion, derived from learning, emerges, meaning that the choice made by an agent is conditional to that made by its neighbors. As a result, learning follows an inverted S-curve, which leads to partial convergence - global divergence and local convergence - that triggers the emergence of political clusters; i.e. the creation of regions with the same policy. Furthermore, the average effectiveness in this computational world tends to follow a J-shaped curve, meaning that not only time is needed for a policy to deploy its effects, but that it also takes time for a country to find the best-suited policy. To conclude, diffusion is an emergent phenomenon from complex interactions and its outcomes as ensued from my model are in line with the theoretical expectations and the empirical evidence.Les méthodes d'analyse de biographie (event history analysis) permettent de mettre en évidence l'existence de phénomènes de diffusion et de les décrire, mais ne permettent pas d'en étudier le processus. Les simulations informatiques, grâce aux performances croissantes des ordinateurs, rendent possible l'étude des processus en tant que tels. Cette thèse, basée sur le modèle théorique développé par Braun et Gilardi (2006), présente une simulation centrée sur les agents des phénomènes de diffusion des politiques. Le point de départ de ce travail met en lumière, au niveau théorique, les principaux facteurs de changement internes à un pays : la préférence pour une politique donnée, l'efficacité de cette dernière, les contraintes institutionnelles, l'idéologie, et les principaux mécanismes de diffusion que sont l'apprentissage, la compétition, l'émulation et la coercition. La diffusion, définie par l'interdépendance des différents acteurs, est un système complexe dont l'étude est rendue possible par les simulations centrées sur les agents. Au niveau méthodologique, nous présenterons également les principaux concepts sous-jacents aux simulations, notamment la complexité et l'émergence. De plus, l'utilisation de simulations informatiques implique le développement d'un algorithme et sa programmation. Cette dernière réalisée, les agents peuvent interagir, avec comme résultat l'émergence d'un phénomène de diffusion, dérivé de l'apprentissage, où le choix d'un agent dépend en grande partie de ceux faits par ses voisins. De plus, ce phénomène suit une courbe en S caractéristique, poussant à la création de régions politiquement identiques, mais divergentes au niveau globale. Enfin, l'efficacité moyenne, dans ce monde simulé, suit une courbe en J, ce qui signifie qu'il faut du temps, non seulement pour que la politique montre ses effets, mais également pour qu'un pays introduise la politique la plus efficace. En conclusion, la diffusion est un phénomène émergent résultant d'interactions complexes dont les résultats du processus tel que développé dans ce modèle correspondent tant aux attentes théoriques qu'aux résultats pratiques.
Resumo:
Introduction L'écriture manuelle fluide et automatisée constitue, avec la lecture, les fondements au développement des compétences scolaires. En effet, l'enfant peut développer le langage écrit avec l'acquisition de l'écriture, il a besoin d'une écriture manuelle automatisée lors d'évaluations scolaires écrites. De plus, la sollicitation de l'écriture manuelle augmente au cours de la scolarité, que ce soit au niveau de l'endurance, de la vitesse ou de la qualité. L'acquisition de l'écriture requiert des processus cognitifs, linguistiques et perceptivomoteurs, définis en tant que facteurs internes ou endogènes (Beeson et al., 2003) et résulte d'une démarche d'enseignement et d'un processus d'apprentissage constituant des facteurs externes ou exogènes. Les perturbations de l'acquisition de l'écriture sont nommées de différentes manières dans la littérature scientifique. Les chercheurs anglo-saxons convoquent la notion de faible écriture manuelle (poor handwriting), de troubles grapho-moteurs ou de difficultés d'écriture (Weintraub & Graham, 2000 ; Jongmans, Smits-Engelsman, & Schoemaker, 2003 ; Volman, van Schendel, &Jongmans, 2006) qui se caractérisent par une absence de régularité du tracé et/ ou de l'espace entre les mots, par des lettres ambiguës (Rosenblum, Weiss, & Parush, 2006). Les auteurs francophones, le plus souvent de formation médicale (Gubbay & de Klerk, 1995 ; Mazeau, 2005), utilisent plus fréquemment le diagnostic de dysgraphie qui renvoie à des difficultés d'assemblage de ronds et de traits pour former une lettre perturbant ainsi l'apprentissage de l'écriture (Mazeau, 2005). Selon Mazeau, la dysgraphie fait partie des troubles d'apprentissage. Les conséquences d'une faible écriture manuelle sont multiples. Si l'écriture n'est pas automatisée, l'enfant est placé dans une situation de double tâche nécessitant une attention focalisée à la fois sur l'acte d'écrire et sur le raisonnement nécessaire pour réaliser les exigences d'une tâche scolaire (Berningér et al., 1997). Si l'enfant se concentre sur la formation des lettres et le contrôle des mouvements, le raisonnement nécessaire à l'application de règles de grammaire et d'orthographe est perturbé tout comme la qualité des idées lors d'une composition. L'enfant présentant une écriture lente ne parviendra pas à finaliser son travail dans les situations de tests. Les difficultés d'écriture manuelle constituent un facteur de prédiction des troubles d'apprentissage (Harvey & Henderson, 1997 ; Simner, 1982) et elles sont fréquemment citées parmi les causes de la littératie. Car, comme le relèvent Berninger, Mizokawa et Bragg (1991), l'enfant présentant des difficultés d'écriture manuelle aura tendance à éviter toute activité d'écriture renforçant ainsi l'écart avec ses pairs dans ce domaine. Si ces comportements d'évitement se situent dans la période d'apprentissage de l'écriture, ils perturberont la mémorisation des lettres. En effet, la mémorisation des lettres est meilleure lorsque l'apprentissage se fait en situation d'écriture manuelle qu'en situation de lecture uniquement (Longcamp, Boucard, Guilhodes, & Velay, 2006). Par ailleurs, les épreuves dont la qualité de l'écriture est faible font l'objet d'évaluation moins favorable que celles dont l'écriture est plus facilement lisible. Les enseignants/es seraient alors moins persévérants/es dans leur lecture et plus sévères lors de la notation d'une rédaction. Ils, elles développeraient une faible perception des compétences en composition lorsqu'ils, elles sont confrontés/es à une épreuve dont la qualité est peu fluide et peu lisible (Alston & Taylor, 1987). L'identification des difficultés d'écriture peut se fairé de différentes manières (Kozatiek & Powell, 2002 ; Simons & Thijs, 2006 ). D'une part, l'appréciation de la qualité et de la vitesse d'écriture manuelle peut être subjective avec l'avis de l'enseignant et, d'autre part, objective avec l'utilisation de tests standardisés comportant des critères permettant de mesurer la vitesse et la qualité de l'écriture. Les conditions de passation des évaluations peuvent varier (copie, dictée ou composition) et influencer la vitesse et la qualité de l'écriture. La vitesse est moindre et la taille des lettres est inférieure en situation de composition qu'en situation de copie tandis que la régularité du tracé est plus stable en situation de copie que lors d'une composition. Si le dépistage et l'identification des difficultés d'écriture contribuent à la prévention de risques ultérieurs tels que de faibles compétence en littératie, la compréhension des causes de ces difficultés permettra le développement de moyens de remédiation de ces difficultés. Dans la littérature scientifique traitant de cette problématique, des facteurs endogènes ou exogènes peuvent être identifiés. Les facteurs endogènes regroupent autant la maturation développementale et le genre que les fonctions sensorimotrices telles que les dextérités manuelle et digitale, l'intégration visuomotrice, la visuoperception, l'attention visuelle et les fonctions cognitives. En outre, les troubles du développement tels qu'un trouble du langage, un déficit de l'attention ou un Trouble de l'acquisition de la coordination (TAC) (DSM-IV) (American Psychiatric Association, 2003) peuvent perturber l'acquisition de l'écriture. Les facteurs exogènes correspondent soit aux facteurs environnementaux tels que la position de l'enfant ou l'outil scripteur utilisé, soit aux modalités et à la durée de l'enseignement de l'écriture. En effet, la durée de l'enseignement de l'écriture et les modalités pédagogiques contribuent à marquer les différences interindividuelles pour la qualité et pour la vitesse de l'écriture. Actuellement, l'enseignement de l'écriture est, dans la plupart des programmes scolaires, intégré dans le cadre d'autres cours et ne fait pas l'objet d'un enseignement spécifique. Cette pratique entraîné un auto-apprentissage de la part de l'enfant et, par conséquent, un apprentissage implicite de l'écriture alors que les bénéfices d'un enseignement explicite ont été largement mis en évidence par Willingham et Goedert-Eschmann (1999). En effet, ces auteurs ont montré qu'un enseignement explicite favorise l'acquisition, la performance et le transfert d'apprentissage de manière plus importante que l'apprentissage implicite. Paradoxalement, alors que l'enseignement de l'écriture tend à être délaissé dans les programmes scolaires, les études mettant en évidence l'efficacité de l'enseignement de l'écriture (Berninger et al., 1997 ; Jongmans, Linthorst-Bakker, Westenberg & SmitsEngelsman et al., 2003 ; Schoemaker, Niemeijer, Reynders, & Smits-Engelsman , 2003) sont nombreuses. Leurs résultats montrent que l'enseignement d'une seule catégorie d'écriture (liée ou scripte) est plus efficace que l'enseignement de deux catégories d'écriture scripte en début d'apprentissage et écriture liée dans un second temps. Un enseignement régulier et intensif consacré à l'écriture au début de la scolarité va permettre une acquisition plus rapide de l'écriture et de la lecture (Graham & Weintraub, 1996 ; Denton, Cope & Moser, 2006). Selon Berninger, Abbot, Abbot, Graham et Richards (2002), la lecture et l'écriture devraient faire l'objet d'un enseignement coordonné et harmonisé. L'enseignement de l'écriture favorisant les liens avec les contextes d'utilisation de l'écriture montre une efficacité plus grande que lorsqu'il est déconnecté de son contexte (Denton, Cope, & Moser, 2006). L'enjeu d'une automatisation de l'écriture de qualité est important et relève d'une priorité afin de permettre aux enfants de développer de manière optimale leurs compétences académiques. Lorsque des troubles d'écriture sont constatés, l'identification des causes liées à ces difficultés tout comme une prise en charge spécifique faciliteront l'acquisition de cette compétence fondamentale (Berninger et al., 1997). Dans ces perspectives, cette thèse vise à identifier les facteurs endogènes et les facteurs exogènes intervenant dans l'écriture manuelle, que ce soit au niveau de la qualité ou de la vitesse de l'écriture. Au niveau théorique, elle développe l'étai des connaissances dans le domaine de l'écriture en neuropsychologie, en neurosciences et en sciences du mouvement humain. Elle présente, dans une perspective développementale, les modèles de l'apprentissage de l'écriture ainsi que les étapes d'acquisition de l'écriture tout en considérant les différences liées au genre. Ensuite, la description des difficultés d'écriture manuelle précède les moyens d'évaluation de l'écriture. Un chapitre est consacré aux fonctions perceptivomotrices et cognitives influençant l'écriture. Puis, comme les difficultés d'acquisition de l'écriture manuelle font partie du TAC, ce trouble est développé dans le chapitre 5. Enfin, les facteurs exogènes sont présentés dans le chapitre 6, ils comprennent les conditions environnementales (position de l'enfant, types de papiers, types d'outils scripteurs) ainsi que les dimensions d'un programme d'enseignement de l'écriture manuelle. Les effets des programmes de remédiation ou d'enseignement intensif de l'écriture sont traités en dernière partie du chapitre 6. Cette thèse est composée d'une partie de recherche fondamentale et d'une partie de recherche appliquée. La recherche fondamentale, qui comprend deux étapes d'investigation (Etudes 1 et 2), a pour objectifs d'identifier les facteurs endogènes prédictifs d'une écriture manuelle non performante (dextérités digitale et manuelle, intégration visuomotrice ou visuoperception) et d'investiguer les relations entre la lecture, l'attention visuelle, la mémoire audtive et l'écriture manuelle. De plus, elle déterminera la prévalence du TAC parmi les enfants présentant une faible écriture manuelle. La recherche appliquée comporte deux expérimentations. La première expérience a pour but de mesurer les effets d'un programme d'enseignement de l'écriture introduit en fin de deuxième année primaire visant à permettre aux enfants les plus faibles dans le domaine de l'écriture d'améliorer leurs performances. La seconde expérience analyse les effets d'un programme d'enseignement intensif de l'écriture manuelle qui s'est déroulé au début de la première année de scolarité obligatoire. L'acquisition de l'écriture est complexe tant au niveau du contróle moteur que du codage phonème -graphème ou de l'attention. L'écriture manuelle, en tant que compétence de base dans le développement des acquisitions scolaires, demeure tout au long de la scolarité et de la vie professionnelle, une compétence incontournable malgré le développement des nouvelles technologies. Remplir un formulaire, prendre des notes dans une séance ou à un cours, signer des documents, consigner des notes dans des dossiers, utiliser des écrans tactiles constituent des activités nécessitant une écriture manuelle fonctionnelle.
Resumo:
Le modèle de l'agence et le phénomène d'agentification du service public correspondant au cours de ces deux dernières décennies s'inscrit à l'origine dans les réformes associées à la Nouvelle Gestion Publique, dans une visée d'amélioration de la performance du secteur public, par une plus grande efficacité managériale (eg Pollitt et al., 2001). Le modèle est basé sur une logique contractuelle: l'autorité politique attribue un mandat à l'agence, l'agence délivre les prestations attendues ; celle-ci est ensuite contrôlée sur ses résultats. Afin de délivrer les prestations de manière efficiente et efficace, l'agence doit bénéficier d'une latitude et flexibilité substantielle dans l'utilisation de ces ressources, c'est-à-dire d'un affranchissement (partiel) des règles et procédures bureaucratiques (eg Bouckaert, 2003).