981 resultados para activité physique
Resumo:
Le travail des chefs d’établissement (ChE) a évolué au gré des politiques éducatives. Ces derniers deviennent des agents du changement ou managers dans des établissements autonomes soumis à l'obligation de résultats. En France en 2006, les ChE rencontrent de nouveaux défis avec les réseaux ambition réussite (RAR) au collège. Une situation inédite qui pose une question nouvelle aux ChE : comment piloter des équipes composites dans un collège en RAR ? Le parti pris dans cette thèse est celui de l’ergonomie de l’activité qui questionne un paradoxe : d’un côté, la focale est mise sur le développement du travail collectif dans les établissements et son impact sur les performances, d’un autre côté sont négligés l'organisation du travail à laquelle se livrent les cadres pédagogiques comme le travail d'organisation des professeurs pour faire vivre ces collectifs. Le but ici est de montrer l’importance du travail réel pour comprendre les conditions et difficultés des cadres pédagogiques pour organiser le travail des professeurs.
Resumo:
Le contrôle des mouvements du bras fait intervenir plusieurs voies provenant du cerveau. Cette thèse, composée principalement de deux études, tente d’éclaircir les contributions des voies tirant leur origine du système vestibulaire et du cortex moteur. Dans la première étude (Raptis et al 2007), impliquant des mouvements d’atteinte, nous avons cerné l’importance des voies descendantes partant du système vestibulaire pour l’équivalence motrice, i.e. la capacité du système moteur à atteindre un but moteur donné lorsque le nombre de degrés de liberté articulaires varie. L’hypothèse émise était que le système vestibulaire joue un rôle essentiel dans l’équivalence motrice. Nous avons comparé la capacité d’équivalence motrice de sujets sains et de patients vestibulodéficients chroniques lors de mouvements nécessitant un contrôle des positions du bras et du tronc. Pendant que leur vision était temporairement bloquée, les sujets devaient soit maintenir une position de l’index pendant une flexion du tronc, soit atteindre une cible dans l’espace péri-personnel en combinant le mouvement du bras avec une flexion du tronc. Lors d’essais déterminés aléatoirement et imprévus par les participants, leur tronc était retenu par un mécanisme électromagnétique s’activant en même temps que le signal de départ. Les sujets sains ont pu préserver la position ou la trajectoire de l’index dans les deux conditions du tronc (libre, bloqué) en adaptant avec une courte latence (60-180 ms) les mouvements articulaires au niveau du coude et de l’épaule. En comparaison, six des sept patients vestibulodéficients chroniques ont présenté des déficits au plan des adaptations angulaires compensatoires. Pour ces patients, entre 30 % et 100 % du mouvement du tronc n’a pas été compensé et a été transmis à la position ou trajectoire de l’index. Ces résultats indiqueraient que les influences vestibulaires évoquées par le mouvement de la tête pendant la flexion du tronc jouent un rôle majeur pour garantir l’équivalence motrice dans ces tâches d’atteinte lorsque le nombre de degrés de liberté articulaires varie. Également, ils démontrent que la plasticité de long terme survenant spontanément après une lésion vestibulaire unilatérale complète ne serait pas suffisante pour permettre au SNC de retrouver un niveau d’équivalence motrice normal dans les actions combinant un déplacement du bras et du tronc. Ces tâches de coordination bras-tronc constituent ainsi une approche inédite et sensible pour l’évaluation clinique des déficits vestibulaires. Elles permettent de sonder une dimension fonctionnelle des influences vestibulaires qui n’était pas prise en compte dans les tests cliniques usuels, dont la sensibilité relativement limitée empêche souvent la détection d’insuffisances vestibulaires six mois après une lésion de ces voies. Avec cette première étude, nous avons donc exploré comment le cerveau et les voies descendantes intègrent des degrés de liberté articulaires supplémentaires dans le contrôle du bras. Dans la seconde étude (Raptis et al 2010), notre but était de clarifier la nature des variables spécifiées par les voies descendantes pour le contrôle d’actions motrices réalisées avec ce membre. Nous avons testé l’hypothèse selon laquelle les voies corticospinales contrôlent la position et les mouvements des bras en modulant la position-seuil (position de référence à partir de laquelle les muscles commencent à être activés en réponse à une déviation de cette référence). Selon ce principe, les voies corticospinales ne spécifieraient pas directement les patrons d’activité EMG, ce qui se refléterait par une dissociation entre l’EMG et l’excitabilité corticospinale pour des positions-seuils différentes. Dans un manipulandum, des participants (n=16) ont modifié leur angle du poignet, d’une position de flexion (45°) à une position d’extension (-25°), et vice-versa. Les forces élastiques passives des muscles ont été compensées avec un moteur couple afin que les sujets puissent égaliser leur activité EMG de base dans les deux positions. L’excitabilité motoneuronale dans ces positions a été comparée à travers l’analyse des réponses EMG évoquées à la suite d’étirements brefs. Dans les deux positions, le niveau d’EMG et l’excitabilité motoneuronale étaient semblables. De plus, ces tests ont permis de montrer que le repositionnement du poignet était associé à une translation de la position-seuil. Par contre, malgré la similitude de l’excitabilité motoneuronale dans ces positions, l’excitabilité corticospinale des muscles du poignet était significativement différente : les impulsions de stimulation magnétique transcrânienne (TMS; à 1.2 MT, sur l’aire du poignet de M1) ont provoqué des potentiels moteurs évoqués (MEP) de plus grande amplitude en flexion pour les fléchisseurs comparativement à la position d’extension et vice-versa pour les extenseurs (p<0.005 pour le groupe). Lorsque les mêmes positions étaient établies après une relaxation profonde, les réponses réflexes et les amplitudes des MEPs ont drastiquement diminué. La relation caractéristique observée entre position physique et amplitude des MEPs dans le positionnement actif s’est aussi estompée lorsque les muscles étaient relâchés. Cette étude suggère que la voie corticospinale, en association avec les autres voies descendantes, participerait au contrôle de la position-seuil, un processus qui prédéterminerait le référentiel spatial dans lequel l’activité EMG émerge. Ce contrôle de la « référence » constituerait un principe commun s’appliquant à la fois au contrôle de la force musculaire, de la position, du mouvement et de la relaxation. Nous avons aussi mis en évidence qu’il est nécessaire, dans les prochaines recherches ou applications utilisant la TMS, de prendre en compte la configuration-seuil des articulations, afin de bien interpréter les réponses musculaires (ou leurs changements) évoquées par cette technique; en effet, la configuration-seuil influencerait de manière notable l’excitabilité corticomotrice, qui peut être considérée comme un indicateur non seulement lors d’activités musculaires, mais aussi cognitives, après apprentissages moteurs ou lésions neurologiques causant des déficits moteurs (ex. spasticité, faiblesse). Considérées dans leur ensemble, ces deux études apportent un éclairage inédit sur des principes fondamentaux du contrôle moteur : nous y illustrons de manière plus large le rôle du système vestibulaire dans les tâches d’atteinte exigeant une coordination entre le bras et son « support » (le tronc) et clarifions l’implication des voies corticomotrices dans la spécification de paramètres élémentaires du contrôle moteur du bras. De plus amples recherches sont cependant nécessaires afin de mieux comprendre comment les systèmes sensoriels et descendants (e.g. vestibulo-, réticulo-, rubro-, propriospinal) participent et interagissent avec les signaux corticofugaux afin de spécifier les seuils neuromusculaires dans le contrôle de la posture et du mouvement.
Resumo:
Plusieurs études ont démontré que la consommation d’un repas à indice glycémique bas (LGI) avant un exercice physique favorisait l’oxydation des lipides, diminuait les épisodes d’hypoglycémie et améliorait la performance. Par contre, d’autres recherches n’ont pas observé ces bénéfices. Le but de cette étude consiste à démontrer l’impact de l’ingestion de déjeuners avec différents indices glycémiques (IG) sur la performance en endurance de cyclistes de haut niveau. Dix cyclistes masculins ont complété trois protocoles attribués de façon aléatoire, séparés par un intervalle minimal de sept jours. Les trois protocoles consistaient en une épreuve contre la montre, soit trois heures après avoir consommé un déjeuner à indice glycémique bas ou élevé contenant 3 grammes de glucides par kg de poids corporel, soit à compléter l’exercice à jeun. Les résultats obtenus pour le temps de course montrent qu’il n’y pas de différence significative entre les protocoles. Par contre, on observe que le nombre de révolutions par minute (RPM) est significativement plus élevé avec le protocole à indice glycémique élevé (HGI) (94,3 ± 9,9 RPM) comparativement au protocole à jeun (87,7 ± 8,9 RPM) (p<0,005). Au niveau de la glycémie capillaire, on observe que durant l’exercice, au temps 30 minutes, la glycémie est significativement supérieure avec le protocole à jeun (5,47 ± 0,76 mmol/L) comparé à HGI (4,99 ± 0,91 mmol/L) (p<0,002). Notre étude n’a pas permis de confirmer que la consommation d’un repas LGI avant un exercice physique améliorait la performance physique de façon significative. Cependant, notre recherche a démontré que la diversité des protocoles utilisés pour évaluer l’impact de l’indice glycémique sur la performance physique pouvait occasionner des variations positives dans les temps de courses. Par conséquent, il s’avère nécessaire de faire d’autres recherches qui reproduisent les situations de compétition de l’athlète soit la course contre la montre.
Resumo:
Cette thèse présente des reconstructions de l'irradiance totale et spectrale durant les 400 dernières années à l'aide des modèles pour l'irradiance totale et l'irradiance spectrale dans l'ultraviolet développés à l'Université de Montréal. Tous deux sont basés sur la simulation de l'émergence, de la fragmentation et de l'érosion des taches solaires, qui permet d'obtenir une distribution de l'aire des taches sombres et des facules brillantes en fonction du temps. Ces deux composantes sont principalement responsables de la variation de l'irradiance sur l'échelle de temps de la décennie, qui peut être calculée en sommant leur émissivité à celle de la photosphère inactive. La version améliorée du modèle d'irradiance solaire spectrale MOCASSIM inclut une extension de son domaine spectral entre 150 et 400 nm ainsi que de son domaine temporel, débutant originalement en 1874 et couvrant maintenant la période débutant en 1610 jusqu'au présent. Cela permet de reconstruire le spectre ultraviolet durant le minimum de Maunder et de le comparer à celui du minimum de 2009. Les conclusions tirées de cette étude spécifient que l'émissivité dans l'ultraviolet était plus élevée en 2009 que durant le minimum de Maunder, que le niveau de base de la photosphère non magnétisée contribuait pour environ les deux tiers de cette différence et que les structures magnétiques restantes étaient responsables pour le tiers restant. Le modèle d'irradiance totale a vu son domaine temporel étendu sur la même période et une composante représentant le réseau magnétique de façon réaliste y a été ajoutée. Il a été démontré que les observations des 30 dernières années ne sont bien reproduites qu'en incluant la composante du Soleil non magnétisé variable à long terme. Le processus d'optimisation des paramètres libres du modèle a été effectué en minimisant le carré de la somme de l'écart journalier entre les résultats des calculs et les données observées. Les trois composites disponibles, soit celui du PMOD (Physikalisch Meteorologisches Observatorium Davos), d'ACRIM (ACtive Radiometer Irradiance Monitor) et du IRMB (Institut Royal Météorologique de Belgique), ne sont pas en accord entre eux, en particulier au niveau des minima du cycle d'activité, et le modèle permet seulement de reproduire celui du PMOD avec exactitude lorsque la composante variable à long terme est proportionnelle au flux radio à 10.7 cm. Toutefois, en utilisant des polynômes de Lagrange pour représenter la variation du Soleil inactif, l'accord est amélioré pour les trois composites durant les minima, bien que les relations entre le niveau minimal de l'irradiance et la longueur du cycle précédent varient d'un cas à l'autre. Les résultats obtenus avec le modèle d'irradiance spectrale ont été utilisés dans une étude d'intercomparaison de la réponse de la photochimie stratosphérique à différentes représentations du spectre solaire. Les simulations en mode transitoire d'une durée de 10 jours ont été effectuées avec un spectre solaire constant correspondant soit à une période d'activité minimale ou à une période d'activité maximale. Ceci a permis d'évaluer la réponse de la concentration d'ozone à la variabilité solaire au cours d'un cycle et la différence entre deux minima. En plus de ceux de MOCASSIM, les spectres produits par deux modèles ont été utilisés (NRLSSI et MGNM) ainsi que les données de SIM et SOLSTICE/SORCE. La variabilité spectrale de chacun a été extraite et multipliée à un spectre de base représentant le minimum d'activité afin de simuler le spectre au maximum d'activité. Cela a été effectué dans le but d'isoler l'effet de la variabilité seule et d'exclure celui de la valeur absolue du spectre. La variabilité spectrale d'amplitude relativement élevée des observations de SORCE n'a pas provoqué l'inversion de la réponse de l'ozone à hautes altitudes obtenues par d'autres études, ce qui peut être expliqué par la nature même du modèle utilisé ainsi que par sa limite supérieure en altitude. Finalement, la réponse de l'ozone semble être à peu près proportionnelle à la variabilité de l'intégrale du flux pour lambda<241 nm. La comparaison des concentrations d'ozone obtenues avec les spectres originaux au minimum d'activité démontre que leur différence est du même ordre de grandeur que la variabilité entre le minimum et le maximum d'un cycle typique. Le problème du choix de la reconstruction de l'irradiance à utiliser pour les simulations climatiques dans le passé demeure non résolu.
Resumo:
Le réovirus de mammifères se multiplie et détruit préférentiellement les cellules cancéreuses. Il est d’ailleurs actuellement à l’étude pour traiter divers types de cancers chez l’humain. L’objectif de cette étude était de mieux comprendre les diverses composantes impliquées dans le cycle viral de réovirus qui pourraient potentiellement être importantes dans le contexte d’optimisation de son potentiel oncolytique, ceci en utilisant une combinaison d’approches classiques ainsi que de génétique inverse.L’approche par persistance virale est classiquement utilisée pour identifier de nouveaux mutants de réovirus. Celle-ci a surtout mené à la sélection de mutants de décapsidation chez les cellules L929. Ici, des virus adaptés furent récupérés de cellules Vero (VeroAV) et contrairement aux autres mutants de persistance, ce virus possède des substitutions d’acides aminés sur les protéines mu1 et sigma1. L’approche par génétique inverse a permis de démontrer que la fixation de VeroAV sur les acides sialiques des cellules Vero était favorisée. Les substitutions sur sigma1 seraient principalement responsables de ce phénotype quoique le contexte de la substitution de mu1 puisse affecter l’infectivité du virus. Dans un deuxième volet, il a été remarqué que le virus de type sauvage utilisé pour la génétique inverse (T3DK) était plus sensible à l’interféron comparativement au virus de type sauvage de notre laboratoire (T3DS). Après séquençage complet du virus T3DS nous avons reconstruit, par génétique inverse, le virus T3DS. Nous avons donc pu poursuivre nos études sur le virus P4L-12 précédemment isolé au laboratoire par mutagenèse chimique. Il a été préalablement démontré que P4L-12 possède une meilleure réplication chez les cellules transformées et un blocage plus complet chez les cellules parentales, phénotype relié à une sensibilité accrue à l’interféron. Dans cette étude, des substitutions d’acides aminés sur les protéines sigma3, mu1, muNS et lambda2 furent identifiés. Nous avons démontré, par génétique inverse, que la substitution sur la protéine lambda2 était principalement responsable du phénotype de sensibilité à l’interféron. Ces approches de persistance ou de sélection de mutants sensibles à l’interféron, suivies d’une caractérisation par génétique inverse seront certainement utiles à une meilleure compréhension de réovirus et pourraient contribuer à améliorer son potentiel oncolytique.
Resumo:
La mise à jour des connaissances par les infirmières et leur engagement dans un processus continu d’apprentissage est garant de soins de qualité à la population (Nesbitt, 2013; OIIQ, 2011b; Raelin, 2008; Wilson et al., 2015). Au Québec depuis 2012, les infirmières doivent être inscrites à un minimum de 20 heures de formation annuellement (OIIQ, 2011a). Les milieux de soins offrent de la formation souvent ponctuelle. Garcia, Meek, et Wilson (2011) soulignent que l’implantation d’activités pérennes de développement professionnel en milieu de travail demeure un défi. La présente étude avait pour but de documenter les caractéristiques, le contexte et les processus d’implantation et de pérennisation d’une activité de développement professionnel par une équipe d’infirmières. Il s’agissait d’un club de lecture dans un centre hospitalier universitaire (CHU) d’une grande métropole québécoise. Fondée sur le modèle de Pettigrew et Whipp (1991) Content, Context, and Process model of strategic change adapté par Stetler, Ritchie, Rycroft-Malone, Schultz, et Charns (2007), la méthode d’étude de cas a été choisie. Des entrevues individuelles (n=7), des focus groups (n=2) et des périodes d’observation (n=2) ont été réalisés afin de décrire les éléments de succès de l’implantation et de la pérennisation de cette activité. Il résulte comme caractéristique qu’une activité où les infirmières sont engagées et actives est une stratégie gagnante. Le contexte, une équipe de gestionnaires qui valorise la pratique clinique et la pratique fondée sur les résultats probants, soutient la pérennité. Une trajectoire avec des retombées concrètes pour la pratique, les soins aux patients et l’identité professionnelle des participantes est l’élément principal du processus qui contribue à ce que l’activité soit pérenne.
Resumo:
La voie de signalisation Notch est conservée au cours de l'évolution. Elle joue un rôle clé dans le développement, et elle est impliquée dans de nombreuses décisions de destin cellulaire, dans le maintien des cellules souches, et dans le contrôle de la prolifération et de la différenciation cellulaires. Une dérégulation de la signalisation Notch est impliquée dans diverses maladies et cancers, y compris les tumeurs solides, comme les cancers du sein et du col de l'utérus, et les leucémies, comme la Leucémie Aiguë Lymphoblastique des cellules T (LAL-T). Notch est un récepteur transmembranaire activé par des ligands transmembranaires de la famille DSL (Delta/Serrate/Lag-2). Bien que plusieurs mutations oncogéniques ont été identifiées au niveau du récepteur Notch, de nombreux cancers modulés par Notch demeurent ligand-dépendants. Étonnamment, les mécanismes moléculaires régulant l'activation du ligand sont encore relativement peu caractérisés par rapport à ceux qui régissent le récepteur Notch lui-même. Utilisant un essai de co-culture avec un rapporteur luciférase de Notch, nous avons effectué le premier crible d'ARNi pan-génomique visant spécifiquement à identifier des régulateurs des ligands de Notch dans la cellule émettrice du signal. Nous avons ainsi pu découvrir de nouvelles classes de régulateurs communs pour les ligands Delta-like1 et 4. Ces régulateurs comprennent des inhibiteurs de protéases, des facteurs de transcription, et des gènes divers à fonction inconnue, tels que Tmem128 « Transmembrane protein 128 », ou à fonction préalablement caractérisée tels que la co-chaperonne moléculaire Cdc37 « Cell division cycle 37 homolog ». Par la suite, nous avons développé des cribles secondaires fonctionnels où nous avons démontré l'importance de ces régulateurs pour des événements Notch-dépendants, comme la différenciation des cellules T normales, et la survie des cellules souches pré-leucémiques isolées à partir d'un modèle murin de LAL-T. En outre, nous avons prouvé que les régulateurs les plus forts du crible de survie sont également nécessaires pour l'activité d'auto-renouvellement des cellules souches pré-leucémiques. Finalement, nous avons entamé une caractérisation moléculaire préliminaire de deux régulateurs nouvellement identifiés; Tmem128 et Cdc37 afin d'étudier leur mécanisme d'action sur les ligands. En conclusion, cette étude nous a permis d'identifier de nouveaux régulateurs de la voie Notch qui pourraient servir de cibles thérapeutiques potentielles dans les cancers; tel qu'illustré par le modèle LAL-T. La compréhension des détails moléculaires sous-jacents aux fonctions de ces régulateurs sera essentielle afin de développer des inhibiteurs pharmacologiques pour bloquer leur action et entraver la signalisation Notch dans le cancer.
Resumo:
La violence conjugale peut prendre différentes formes et évoluer à travers le temps. On ne peut écarter la possibilité que les différentes trajectoires soient influencées par le contexte de vie dans lequel la victime se présente. Dans cet ordre d’idée, la perspective des parcours de vie se présente comme un cadre théorique approprié pour comprendre les différents changements temporels qui s’opèrent dans les trajectoires de victimisation en contexte conjugal. Toutefois, le soutien empirique sur les facteurs derrière le nombre d’épisodes de la violence et ses variations au fil du temps est mince; notamment en raison de la rareté des données longitudinales ou rétrospectives requises pour ce type de recherche. Cette étude propose de combler ces lacunes dans l’analyse des trajectoires individuelles des femmes qui ont été victimes de violence conjugale. Plus spécifiquement, elle analyse l’évolution de l’occurrence et de l’intensité de la violence physique à travers le temps. L’échantillon est composé de 53 femmes, toutes victimes de violence conjugale au courant des 36 derniers mois référées par plusieurs milieux (par exemple : maisons d’hébergement, Cour municipale, centres d’aide aux victimes d’acte criminel, centres de thérapie, maisons de transition). Cette recherche est basée sur des données rétrospectives des circonstances entourant la vie de ces femmes au cours des 36 derniers mois. Les trajectoires individuelles ont été reconstruites en utilisant la méthode des calendriers d’histoire de la vie. Cette méthode qui a fait ses preuves dans l’étude des carrières criminelles et de la victimisation permet de situer les trajectoires dans leur contexte de vie et de reconstruire la dynamique derrière les victimisations. L’utilisation de la modélisation de type multiniveaux comme stratégie d’analyse est privilégiée dans cette étude. Combiné avec le calendrier d’histoire de vie, ce type de modèle permet d’examiner les changements dans la chronicité et l’intensité de la violence au sein des trajectoires individuelles des victimes. Les résultats permettent une meilleure compréhension des éléments statiques et dynamiques dernières trajectoires des femmes victimes. Cette recherche se veut avant tout exploratoire et ouvre la porte à une multitude de possibilités à de futures recherches.
Resumo:
Les antibiotiques sont fréquemment utilisés dans l’alimentation de la volaille afin de prévenir certaines maladies, dont l’entérite nécrotique, ce qui occasionne l’émergence de souches bactériennes résistantes aux antibiotiques. Une alternative prometteuse est l’utilisation de peptides antimicrobiens (AMPs) comme suppléments alimentaires, tels les AMPs provenant des produits laitiers. L’objectif du projet était de développer une méthode de production d’extraits peptidiques à partir de coproduits de la transformation alimentaire (babeurre, lactoferrine, isolat de protéines de pois), afin de tester si ces extraits peptidiques possédaient une activité antimicrobienne sur les pathogènes spécifiques aviaires suivants : Salmonella Enteritidis, Salmonella Typhimurium, Escherichia coli et Staphylococcus aureus. Les protéines ont été mises en suspension dans l’eau (5% p/p) et hydrolysées par la pepsine, 6 heures, pH de 2.5. Les peptides furent récupérés par ultrafiltration (< 10 kDa), puis fractionnés selon leur charge nette : totaux, cationiques, anioniques et non liés. L’effet antimicrobien a été évalué surmicroplaques, par la survie bactérienne en présence de concentrations croissantes d’extraits peptidiques. Les extraits cationiques de babeurre ont démontré une efficacité à une concentration inférieure ou égale à 5 mg/mL; perte de 3 log pour Escherichia coli O78 :H80. En comparaison, la lactoferrine cationique a été efficace à une concentration inférieure ou égale à 0.6 mg/mL; perte de 6 log pour E. coli O78 :H80. Les extraits peptidiques du pois ont démontré une efficacité faible. Cette méthode s’avère prometteuse pour le développement d’une alternative ou d’un complément pour la réduction de l’utilisation des antibiotiques dans l’alimentation de la volaille.
Resumo:
L'objectif du présent texte est de discuter de la portée épistémique de la méthode axiomatique. Tout d'abord, il sera question du contexte à partir duquel la méthode axiomatique a émergé, ce qui sera suivi d'une discussion des motivations du programme de Hilbert et de ses objectifs. Ensuite, nous exposerons la méthode axiomatique dans un cadre plus moderne afin de mettre en lumière son utilité et sa portée théorique. Finalement, il s'agira d'explorer l'influence de la méthode axiomatique en physique, surtout en ce qui a trait à l'application de la méthode par Hilbert. Nous discuterons de ses objectifs et de l'épistémologie qui accompagnait sa vision du 6 e problème, ce qui nous amènera à discuter des limites épistémiques de la méthode axiomatique et de l'entreprise scientifique en général.
Resumo:
Dans un contexte de crise écologique mondiale, la justice sociale ne peut plus être pensée sans la justice environnementale. L'environnementalisme libertarien pose problème dès l'articulation de ses prémisses, car le droit à l'intégrité de sa personne et de sa propriété semble être incompatible avec un droit minimal de polluer : une seule personne pourrait paralyser l'ensemble de l'activité économique en invoquant son droit à l'intégrité physique. La pollution est pourtant conçue comme un mal nécessaire – ce qui constitue un écart conséquentialiste dans le raisonnement libertarien. Le problème de l'arbitrage entre droits concurrents est contourné par le recours au marché, qui doit permettre de définir un niveau minimal de pollution. Si cela semble fonctionner relativement bien pour la catégorie des biens environnementaux directement utiles, un dilemme se pose dans le cas de la biodiversité, un bien environnemental indirectement utile : soit on assure la protection de l'environnement, soit on respecte l'autonomie des personnes. Il est impossible de parvenir à satisfaire ces deux objectifs fondamentaux en même temps.
La Géographie française et le risque d'inondation: de la géographie physique à la géographie humaine
Resumo:
Les inondations, comme tous les risques naturels, ont été un thème qui est revenu souvent au long de l'histoire de la géographie française, mais toujours — et contrairement à ce qui se passe dans la géographie anglo-saxonne —, en relation à la géographie physique. Dans cet article, nous voulons expliquer les raisons de la présence de la géographie physique dans le traitement du risque d'inondation : nous mettons en relation les différents moments de la géographie française avec l'analyse du risque d'inondation et révisons le contenu des références aux inondations entre les géographes ou écoles géographiques les plus représentatifs
Resumo:
Préparer la classe constitue une des tâches professionnelles afférentes à chaque enseignant. Cette tâche, dont l’action d’enseignement menée auprès des élèves résulte, s’effectue dans un espacetemps distinct de celui de la classe. Comment les enseignants du premier degré qui, à l’inverse des enseignants du second degré, doivent enseigner toutes les disciplines réalisent-ils cette tâche? Quelles ressources utilisent-ils? Les manuels qui représentent une grande part des supports proposés et commercialisés par les éditeurs constituent une ressource
Resumo:
Les travaux ici présentés se définissent explicitement comme des recherches sur des situations de formation d’enseignants non spécialistes aux problématiques des Enseignements Artistiques et Culturels1 [EAC]. Cela ne signifie pas que ces travaux relèvent de ce qui serait une «recherche appliquée»; bien au contraire, nous postulons que ces situations professionnelles renvoient à la recherche «fondamentale» en sciences des arts des questions originales et difficiles. Une des difficultés de la formation d’enseignants polyvalents est justement de leur apporter, dans des délais forcément réduits, des connaissances solides, alors qu’elles portent sur des champs disciplinaires multiples, et sur des noeuds théoriques qui se révèlent complexes
Resumo:
L’une des principales difficultés que rencontrent les enseignants auprès de publics «scolairement fragilisés»1 est d’obtenir une réelle activité cognitive de leurs élèves en situation de résolution de problèmes mathématiques. On observe le plus souvent la mise en oeuvre d’un faux-semblant d’activité qui consiste, pour les élèves, à appliquer un algorithme de résolution sans prendre le risque d’être confronté à leur propre ignorance (Lemoyne & Conne, 1999). Notons en préambule que si la réflexion menée jusqu’à présent s’ancre de manière privilégiée dans le champ des apprentissages mathématiques, elle alimente néanmoins une problématique plus générale qui vise une étude approfondie des gestes de médiation mis en oeuvre par les professeurs pour pallier le manque d’engagement de certains élèves dans les tâches scolaires qu’ils leur proposent