1000 resultados para Activites diriges vers la description, la narration et l’argumentation.


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Si la théologie lucanienne de la résurrection a largement été étudiée dans le livre des Actes des Apôtres, Jésus n’a jamais été considéré comme personnage principal, à l’inverse des apôtres, de l’Esprit saint ou même de Dieu. Pourtant, le premier verset des Actes laisse entendre que Jésus va continuer de faire et d’enseigner ce qu’il avait commencé dans l’évangile, même si, peu de temps après l’ouverture du récit, il quitte la scène. Pour chercher à comprendre ce paradoxe, une analyse approfondie de la mise en récit du personnage Jésus dans les Actes était nécessaire. Le premier chapitre de cette thèse introduit le sujet, l’état de la question et deux approches méthodologiques empruntées aux experts de la caractérisation narrative. Au chapitre deux, après avoir introduit la difficulté d’identification du personnage qui se trouve derrière le titre Seigneur des Actes, le cadre épistémologique d’Elizabeth Struthers Malbon permet d’observer le comment en classant toutes les péricopes qui participent à la rhétorique de la caractérisation christologique en cinq catégories : (1) la christologie représentée qui montre ce que Jésus fait, (2) la christologie détournée qui permet d’entendre ce que Jésus dit en réponse aux autres personnages, (3) la christologie projetée qui laisse entendre ce que les autres personnages ou le narrateur disent à Jésus et à son sujet, (4) la christologie réfléchie qui montre ce que les autres personnages font en reflétant ce que Jésus a dit et (5) la christologie reflétée qui montre ce que les autres personnages font en reflétant ce que Jésus a fait. Ensuite, avec le chapitre trois, l’approche de John Darr donne à comprendre le pourquoi de la caractérisation par l’observation de quatre activités cognitives du lecteur : (1) l’anticipation et la rétrospection, (2) la recherche de cohérence, (3) l’identification et/ou l’implication et (4) la défamiliarisation. Enfin, au chapitre quatre, les résultats des deux méthodes sont comparés pour proposer une solution au cas de l’ouverture paradoxale des Actes. D’abord les différentes observations de la thèse montrent que le personnage Jésus n’est pas si absent du récit; puis la rhétorique narrative de la caractérisation conduit le lecteur à comprendre que c’est essentiellement au travers des personnages du récit que Jésus est présent en actes et en paroles.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Afin d’étudier l’historique de formation stellaire et d’enrichissement chimique des galaxies spirales barrées, j’ai simulé l’évolution de 27 galaxies spirales, barrées et non barrées, de diverses masses stellaires et fractions de gaz. Alors que les galaxies non barrées présentent une évolution lente et continue sur les deux milliards d’années que durent nos simulations, les galaxies barrées ont une évolution bien plus explosive, et ce particulièrement pour les galaxies les plus massives. Dans un premier temps, je montre que la présence de la barre entraine un flot important de gaz des régions périphériques vers le centre de la galaxie barrée, causant un sursaut de formation stellaire et une croissance importante de l’abondance chimique centrale, et que l’amplitude et la vitesse à laquelle ce sursaut arrive augmentent avec la masse de la galaxie. Cet épisode de sursaut stellaire entraine alors une diminution importante de la masse de gaz, entrainant à son tour une décroissance de la formation stellaire et une stagnation de l’enrichissement chimique pour le reste de l’évolution de la galaxie. Dans un deuxième temps, je montre qu’à cause de la dynamique en deux périodes très différentes des galaxies barrées, deux galaxies de masse très semblable peuvent avoir des taux de formation stellaire et des métallicités complètement différentes en fonction de leur stade évolutif, stade qu’on ne peut déterminer aisément. Cette difficulté est tout aussi importante lorsqu’on compare le coeur des galaxies barrées et non barrées entre elles, étant donné que des coeurs comparables sont situés dans les galaxies très différentes, et que des galaxies semblables ont des coeurs très différents.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

De nombreuses populations migratrices sont actuellement en déclin. Les changements climatiques entrainent des modifications dans les habitats des espèces migratrices et la phénologie des processus naturels, lesquels se répercutent sur la migration, une période critique pour ces espèces. Comprendre comment les variables environnementales et climatiques affectent la phénologie et les patrons de migration est donc crucial. Ma thèse s’intéresse à l’impact du climat, des ressources alimentaires et de la compétition sur les migrations printanières et automnales des caribous migrateurs, Rangifer tarandus, des troupeaux Rivière-George (TRG) et Rivière-aux-Feuilles (TRF) du Nord-du-Québec et du Labrador. Le premier volet de ma thèse propose une approche objective, basée sur la détection des changements dans la structure des déplacements saisonniers, pour identifier les dates de départ et arrivée en migration. Validée à l’aide de trajets simulés, elle a été appliquée aux migrations printanières et automnales de femelles caribous. Le second volet porte sur l’impact des conditions environnementales sur la phénologie des migrations de printemps et d’automne. Il montre que la phénologie de la migration est principalement affectée par les conditions climatiques rencontrées lors de la migration, les conditions d’enneigement affectant notamment les coûts des déplacements. Au printemps, les caribous subissent des conditions défavorables lorsque la fonte des neiges est précoce. À l’automne, ils semblent ajuster leurs déplacements et migrent plus vite quand la neige débute tôt pour limiter les coûts de déplacement dans une neige profonde. Le troisième volet porte sur les patrons de migration à l’automne et montre que ceux-ci sont affectés essentiellement par une compétition intra- et inter-troupeaux pour les aires d’hivernages. Les caribous du TRG répondent à une augmentation de la compétition sur les aires les plus proches de l’aire de mise bas, liée à une taille de population élevée, en migrant préférentiellement vers les aires les plus éloignées. L’utilisation des aires hivernales par les caribous du TRF est, quant à elle, contrainte par la présence et l’abondance du TRG, cette contrainte diminuant à mesure que le TRG décline et abandonne les migrations vers les aires d’hivernages communes aux deux troupeaux. Cette thèse améliore notre compréhension de l’influence des facteurs environnementaux sur la phénologie et les patrons de migration du caribou migrateur. Ces connaissances sont très utiles pour comprendre l’impact des changements climatiques et établir les plans de conservation pour les espèces migratrices.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les protéines existent sous différents états fonctionnels régulés de façon précise par leur environnement afin de maintenir l‘homéostasie de la cellule et de l‘organisme vivant. La prévalence de ces états protéiques est dictée par leur énergie libre de Gibbs alors que la vitesse de transition entre ces états biologiquement pertinents est déterminée par le paysage d‘énergie libre. Ces paramètres sont particulièrement intéressants dans un contexte thérapeutique et biotechnologique, où leur perturbation par la modulation de la séquence protéique par des mutations affecte leur fonction. Bien que des nouvelles approches expérimentales permettent d‘étudier l‘effet de mutations en haut débit pour une protéine, ces méthodes sont laborieuses et ne couvrent qu‘une fraction de l‘ensemble des structures primaires d‘intérêt. L‘utilisation de modèles bio-informatiques permet de tester et générer in silico différentes hypothèses afin d‘orienter les approches expérimentales. Cependant, ces méthodes basées sur la structure se concentrent principalement sur la prédiction de l‘enthalpie d‘un état, alors que plusieurs évidences expérimentales ont démontré l‘importance de la contribution de l‘entropie. De plus, ces approches ignorent l‘importance de l‘espace conformationnel protéique dicté par le paysage énergétique cruciale à son fonctionnement. Une analyse des modes normaux peut être effectuée afin d‘explorer cet espace par l‘approximation que la protéine est dans une conformation d‘équilibre où chaque acide aminé est représenté par une masse régie par un potentiel harmonique. Les approches actuelles ignorent l‘identité des résidus et ne peuvent prédire l‘effet de mutations sur les propriétés dynamiques. Nous avons développé un nouveau modèle appelé ENCoM qui pallie à cette lacune en intégrant de l‘information physique et spécifique sur les contacts entre les atomes des chaînes latérales. Cet ajout permet une meilleure description de changements conformationnels d‘enzymes, la prédiction de l‘effet d‘une mutation allostérique dans la protéine DHFR et également la prédiction de l‘effet de mutations sur la stabilité protéique par une valeur entropique. Comparativement à des approches spécifiquement développées pour cette application, ENCoM est plus constant et prédit mieux l‘effet de mutations stabilisantes. Notre approche a également été en mesure de capturer la pression évolutive qui confère aux protéines d‘organismes thermophiles une thermorésistance accrue.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La nanomédecine est porteuse de nombreuses promesses et bienfaits pour l’humanité. Or, l’opposition massive à l’introduction des organismes génétiquement modifiés (OGM) a montré que les promesses attendues des innovations technologiques ne sont pas garantes de leur acceptabilité. L’absence d’une démarche axée sur les impacts possibles, l’acceptation et l’acceptabilité de l’utilisation des nanotechnologies en médecine pourrait toutefois conduire à un manque d’adéquation entre les applications développées et les besoins et valeurs des acteurs sociaux. À partir d’un cadre conceptuel interdisciplinaire et du contexte clinique de la prévention et du traitement des plaies de pression chez les personnes diabétiques, les variables de perception d’impacts, d’acceptation et d’acceptabilité ont été opérationnalisées et étudiées afin d’explorer la relation entre ces variables, mais surtout de mieux comprendre l’influence des types de profil des répondants sur ces variables. L’exploration des impacts perçus, mobilisés et pondérés sur un ensemble d’enjeux a permis d’établir un premier portrait de l’acceptabilité de dispositifs à base de nanotubes de carbones utilisés dans le contexte clinique de soins des plaies de pression. Une approche descriptive-exploratoire fondée sur un devis mixte avec triangulation séquentielle des données a été employée. Un questionnaire a été développé et prétesté à l’aide d’entrevues cognitives (n = 35). Les données ont ensuite été recueillies en deux phases, d’abord par le biais d’un questionnaire en ligne (n = 270), puis par des entrevues individuelles semi-dirigées (n = 23). L’échantillon final se compose de trois types de profil, soit des professionnels de la santé, des personnes diabétiques et non-diabétiques. L’opérationnalisation du cadre de référence a permis de distinguer les dimensions individuelle/ sociale des concepts d’acceptation et d’acceptabilité. Plus encore, l’importance des types de profil dans l’étude de ces variables complémentaires à la perception des impacts a été démontrée, notamment par la mise en lumière du paradoxe des professionnels de la santé dans le jugement d’acceptabilité. Ces distinctions invitent à dépasser les approches traditionnelles d’acceptation technologique en axant davantage sur les impacts perçus et valorisés/priorisés dans la formation du jugement d’acceptabilité. Le développement d’applications en nanomédecine bénéficierait d’une meilleure compréhension de la formation du jugement d'acceptabilité et l'influence du type de profil sur celui-ci.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The present note contains over 230 pages with black and white illustrations. It deals with the morphology of turtles and a description of more than 40 species, providing notes on habitat and distribution. It contains a note on sea turtles in the Gulf of Siam by F. Le Poulain.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La conchyliculture, et principalement l’élevage de l’huître creuse, Crassostrea gigas, constitue la principale activité aquacole française. Cette activité repose, en grande partie, sur le recrutement naturel de l’espèce qui assure 60 à 70% des besoins en jeunes huîtres (naissain) : cette activité de collecte s’appelle le captage. Les deux principaux centres de captage en France sont les bassins d’Arcachon et de Marennes-Oléron. Or, depuis une dizaine d'années, sur le bassin d'Arcachon, le captage devient très variable: à des années de captage nul (par exemple 2002, 2005, 2007) ou faible (2009, 2010, 2011) succèdent des années excellentes voire pléthoriques (2003, 2006, 2008, 2012, 2014). A Marennes-Oléron, cette variabilité existe, mais s’avère beaucoup moins marquée. En outre, à la faveur du lent réchauffement des eaux, le captage peut désormais se pratiquer de plus en plus vers le nord. Ainsi, la baie de Bourgneuf, mais aussi la rade de Brest sont devenues, depuis quelques années, des secteurs où un nombre croissant d’ostréiculteurs pratiquent le captage avec succès, mais avec, là aussi, des irrégularités dans le recrutement qu’il convient de comprendre. Enfin, depuis la crise des mortalités de 2008, il se développe aussi sur la lagune de Thau une volonté de pratiquer le captage. Afin de mieux comprendre les facteurs de variations du captage, l’Ifremer a mis en place, à la demande du Comité National de la Conchyliculture, un réseau national de suivi de la reproduction : le Réseau Velyger. Créé en 2008 sur financements européens et financé désormais par la Direction des Pêches Maritimes et de l’Aquaculture, ce réseau apporte, chaque année, sur les écosystèmes cités précédemment, une série d’indicateurs biologiques (maturation, fécondité, date de ponte, abondance et survie larvaire, intensité du recrutement, survie du naissain) dont l’analyse croisée avec des indicateurs hydrologiques et climatiques permet progressivement de mieux appréhender les causes de variabilité du recrutement de l’huître creuse en France, modèle biologique et espèce clé de la conchyliculture française. Ce rapport présente donc les résultats 2015 de ce réseau d’observation et fait appel, pour la partie hydro-climatique, à des données acquises par d’autres réseaux régionaux et nationaux. Il détaille et analyse par site toutes les caractéristiques du cycle de reproduction de l’huître creuse : maturation et fécondité des adultes, période de ponte, abondance et survie des larves, intensité du captage et mortalités précoces. Il fournit ensuite une interprétation et une synthèse des résultats 2015 à la lueur des résultats des années antérieures. Ainsi, pour l’année 2015, on retient les faits majeurs suivants : • Sur le plan hydro-climatique, cette année se caractérise par un hiver doux et un printemps dans les normales, suivis d’un été là aussi très proches des normales à quelques exceptions près : l’étang de Thau affiche tout au long de l’été des températures largement excédentaires. Compte tenu d’une pluviométrie là aussi proche des normales, les concentrations en phytoplancton sont restées à un niveau moyen de la rade de Brest aux pertuis charentais et plutôt déficitaires dans le bassin d’Arcachon et la lagune de Thau. • En termes de biologie, ces conditions hydro-climatiques se sont traduites, chez les populations d’huîtres adultes, par des indices de condition, proxy de la fécondité, généralement proches des moyennes, avec toujours l’existence d’un gradient nord-sud observé chaque année, corrélativement à la concentration en phytoplancton. En outre, l’absence d’excédent thermique au printemps et en début d’été n’a pas permis de ponte précoce (à l’exception de la lagune de Thau), elle a même été plutôt tardive surtout dans le bassin d’Arcachon. • Sur la façade atlantique, les températures de l’eau lors du développement larvaire des principales cohortes ont été plutôt basses (inférieures à 20°C en rade de Brest et inférieures à 21°C ailleurs) et donc la vitesse de croissance larvaire a été ralentie et la survie amoindrie. Les rendements larvaires ont été effectivement très bas (e.g. 0,002 % à Arcachon). In fine, il y a eu peu de larves grosses dans l’eau, ce qui s’est traduit par un captage faible à modéré. Une exception tout de même : dans la lagune de Thau, les températures caniculaires tout au long de l’été ont permis une concentration moyenne de larves ‘grosses’ modérée (80 larves/1,5m3). Cependant, les méthodes et les techniques de captage sont encore en cours d’optimisation sur ce secteur et cette année, malgré cette présence de larves grosses, le captage est resté faible (< 10 naissains par coupelle à l’automne). • En conséquence, l’année 2015, se caractérise par un captage globalement « faible à modéré » dans tous les secteurs s’échelonnant autour de 10 naissains/coupelle dans la lagune de Thau et en baie de Bourgneuf à plus de 200 naissains/coupelle dans les pertuis charentais. Enfin, à partir de l’ensemble des résultats acquis depuis 2008, ce rapport fournit en conclusion une série de recommandations à prendre en compte pour préserver le captage dans les années à venir.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Si la théologie lucanienne de la résurrection a largement été étudiée dans le livre des Actes des Apôtres, Jésus n’a jamais été considéré comme personnage principal, à l’inverse des apôtres, de l’Esprit saint ou même de Dieu. Pourtant, le premier verset des Actes laisse entendre que Jésus va continuer de faire et d’enseigner ce qu’il avait commencé dans l’évangile, même si, peu de temps après l’ouverture du récit, il quitte la scène. Pour chercher à comprendre ce paradoxe, une analyse approfondie de la mise en récit du personnage Jésus dans les Actes était nécessaire. Le premier chapitre de cette thèse introduit le sujet, l’état de la question et deux approches méthodologiques empruntées aux experts de la caractérisation narrative. Au chapitre deux, après avoir introduit la difficulté d’identification du personnage qui se trouve derrière le titre Seigneur des Actes, le cadre épistémologique d’Elizabeth Struthers Malbon permet d’observer le comment en classant toutes les péricopes qui participent à la rhétorique de la caractérisation christologique en cinq catégories : (1) la christologie représentée qui montre ce que Jésus fait, (2) la christologie détournée qui permet d’entendre ce que Jésus dit en réponse aux autres personnages, (3) la christologie projetée qui laisse entendre ce que les autres personnages ou le narrateur disent à Jésus et à son sujet, (4) la christologie réfléchie qui montre ce que les autres personnages font en reflétant ce que Jésus a dit et (5) la christologie reflétée qui montre ce que les autres personnages font en reflétant ce que Jésus a fait. Ensuite, avec le chapitre trois, l’approche de John Darr donne à comprendre le pourquoi de la caractérisation par l’observation de quatre activités cognitives du lecteur : (1) l’anticipation et la rétrospection, (2) la recherche de cohérence, (3) l’identification et/ou l’implication et (4) la défamiliarisation. Enfin, au chapitre quatre, les résultats des deux méthodes sont comparés pour proposer une solution au cas de l’ouverture paradoxale des Actes. D’abord les différentes observations de la thèse montrent que le personnage Jésus n’est pas si absent du récit; puis la rhétorique narrative de la caractérisation conduit le lecteur à comprendre que c’est essentiellement au travers des personnages du récit que Jésus est présent en actes et en paroles.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

1. Un premier apport de notre travail consiste à proposer un cadre théorique, analytique et conceptuel original, permettant d'approcher la notion de qualité des publications en SHS (sciences humaines et sociales) et en sciences de la communication de façon à la fois holistique et dynamique, en tant qu'elle fait l'objet de descriptions et de jugements multiples, émis par une diversité de parties prenantes, au sein et en dehors des milieux académiques. Pour ce faire, il s'agira de considérer la qualité dans ses différentes dimensions constitutives (approche holistique) tout en l'inscrivant dans le cadre d'évolutions tendancielles en matière de publication scientifique (approche dynamique) et en tenant compte de la qualité telle qu'elle est prescrite, souhaitée et mise en oeuvre par les différentes parties prenantes (chercheurs et entités prescriptrices, aux niveaux politique et managérial). En croisant de façon systématique ces trois approches - approche multidimensionnelle, rapport aux prescrits et aux souhaits, et étude des évolutions tendancielles -, il s’avérera possible d'évaluer l'incidence des différentes tendances en matière de publication scientifique – i.e. tendances à la massification, à l'internationalisation, à l' « exotérisation » (i.e. à l'ouverture vers le monde extérieur, au-delà des pairs), à la « gestionnarisation » (i.e. à l'usage des publications dans la gestion dela recherche et des chercheurs, en particulier en situation d'évaluation), à la commercialisation et à l' « enlignement » (i.e. à la mise en ligne, sur Internet) – ainsi que des prescriptions managériales et politiques qui les initient, les stimulent ou les prolongent à des degrés divers, sur la qualité de l'activité même de publier, et sur celle des différents types génériques et spécifiques d'objets publiés.2. En appliquant cette triple approche aux SHS et, plus particulièrement, au cas des sciences de la communication, nous montrerons comment la plupart des évolutions tendancielles qui sont discutées ici ainsi que des prescrits politiques et managériaux qui y affèrent aboutissent à valoriser principalement, en situation d'évaluation de la recherche et des chercheurs, la publication d'un grand nombre d'articles dans des revues savantes internationales de premier plan, destinés avant tout aux pairs, et à dévaloriser les publications, ouvertes à des publics plus locaux, rédigées en langue vernaculaire, ou qui se consacreraient à la résolution de problèmes de société. En particulier, à la faveur de la tendance à la « gestionnarisation » des publications, l'article de revue savante internationale de premier plan, ainsi que les citations qui lui sont faites par les seuls pairs, sont posés en indicateurs de performance de tout premier plan, « fixant » ainsi les pratiques de recherche et de publication des chercheurs. Cette « fixion » sera d'autant plus marquée que les indicateurs bibliométriques, à l'échelon national, seront intégrés à des processus de financement public de la recherche fondés sur les performances, et que, à l'échelon international, les indicateurs joueront un rôle prépondérant dans l'établissement des rankings des universités ainsi que des benchmarks des systèmes nationaux et régionaux de recherche. Pour autant, des prescriptions politiques sont également édictées, principalement au niveau européen, dans l'optique de la mise en oeuvre, au sein de l'Espace européen de la recherche et, dans une moindre mesure, de l'Espace européen de l'enseignement supérieur, d'une économie de la connaissance compétitive à l'échelon global et, plus particulièrement, d'un « mode 2 » de production des connaissances, qui insistent sur l'importance de davantage valoriser les résultats de la recherche, interdisciplinaire et coopérative, auprès de parties prenantes extra-académiques. En résulte une relation paradoxale entre la tendance à l'exotérisation de la recherche et des publications, et les prescrits de gestionnarisation des publications, ainsi qu'entre les prescriptions qui les sous-tendent respectivement.3. Or l'enquête que nous avons menée auprès des membres de trois sociétés savantes internationales en sciences de la communication montre combien les chercheurs de cette discipline ont désormais bien intégré les critères de qualité promus par les prescrits politiques et managériaux soutenant l'instauration d'une nouvelle « culture de la publication », à la croisée des tendances à la massification, à l'internationalisation et à la gestionnarisation des publications. Pour autant, des entretiens approfondis menés auprès de chercheurs en sciences de la communication actifs en Belgique francophone et néerlandophone n'en révèlent pas moins que ces derniers développent une attitude foncièrement ambivalente envers la culture du « publish or perish » et à l'égard de prescriptions qui sur-valorisent les revues savantes internationales de premier plan, en situation d'évaluation de la recherche et des chercheurs. D'une part, en effet, les chercheurs avec qui nous nous sommes entretenus estiment que la nouvelle culture de la publication joue un rôle bénéfique dans la professionnalisation et dans le développement d'une culture véritablement scientifique dans les sciences de la communication. Partant, la plupart d'entre eux développent des stratégies visant à aligner leurs pratiques de publication sur les prescrits. D'autre part, plusieurs répondants n'en regrettent pas moins le caractère réducteur de la survalorisation des revues savantes internationales de premier plan dans l'évaluation, et souhaitent qu'une plus grande diversité de types de publication soit prise en compte par les évaluateurs. Afin de concilier « qualité prescrite » et « qualité souhaitée » dans la qualité de leur activité effective de publication et dans celle des objets effectivement publiés (« qualité réelle »), il arrive dès lors à ces chercheurs de « bricoler » avec les prescriptions. Par ailleurs, la plupart des répondants, davantage cependant en FédérationWallonie-Bruxelles qu'en Flandre, où le financement public de la recherche est d'ores et déjà fondé en partie sur des indicateurs bibliométriques et revue-métriques, regrettent le manque d'explicite dans la formulation des prescriptions – ces dernières prenant régulièrement la forme de « scripts » plus indirects et/ou implicites, plutôt que de normes et de règles stricto sensu –, ainsi que l'absence de seuil quantitatif minimal à atteindre.4. Il nous semble par conséquent, dans une optique plus normative, que le dépôt systématique des différents types de publication produits par les chercheurs en SHS et en sciences de la communication sur des répertoires numériques institutionnels (Open Access Green) serait de nature à (contribuer à) résoudre le paradoxe des prescriptions en matière de « qualité prescrite », ainsi que l'ambivalence des perceptions des chercheurs en matière de « qualité souhaitée ». En effet, le dépôt des publications sur des répertoires institutionnels ouvre des opportunités inédites de renouveler la conversation savante qui se structure autour des objets publiés, au sein de la communauté argumentative (Kommunikationsgemeinschaft) des pairs, par le biais notamment de la revue par les pairs ouverte et grâce à la possibilité de commenter ad libitum les publications disséminées en Open Access. mais également en rendant les résultats de la recherche aisément accessibles et ré-utilisables par des parties prenantes extra-académiques. Les opportunités liées au dépôt des publications sur des répertoires Open Access (Green), en termes de qualité tant épistémique que pragmatiquede ces dernières, seront d'autant plus fécondes que le dépôt des travaux sur les répertoires institutionnels s'articulera à l'usage, par le chercheur, des instruments idoines, génériques ou dédiés, du Web participatif (Wikis, blogues, micro-blogues, réseaux sociaux, outils de partage de signets et de listes bibliographiques). Par ailleurs, les dépôts numériques fonctionnent désormais en tant qu'« outils de transparence », susceptibles de donner davantage de visibilité à des productions de recherche et des types de publication diversifiés. En situation d'évaluation de la recherche et des chercheurs, le recours aux dépôts institutionnels - pour autant qu'un mandat prescrive le dépôt de tous les travaux produits par les chercheurs de l'institution – permettrait aux évaluateurs de fonder leur jugement sur une gamme plus large et plus représentative de types de publication et de formes de communication en SHS et en sciences de la communication. De plus, grâce à la dissémination en Open Access, en conjonction avec l'usage d'une diversité d'outils du Web participatif, il devient mieux possible de soumettre les différents types de publication archivés et publiés en libre accès à des indicateurs de performance eux-mêmes diversifiés – bibliométriques, mais également « webométriques » et « altmétriques » -, fondés sur les articles plutôt que sur les revues et mieux adaptés à la diversité de leurs impacts, tant au sein qu'en dehors du cercle des pairs.5. Partant, l'Open Access (Green) nous apparaît in fine comme étant doté d'un potentiel important, en matière d'intégration de la recherche et des chercheurs en SHS et en sciences de la communication à la mise en place – au-delà d'une économie de la connaissance - d'une véritable société de la connaissance, ainsi qu'aux processus d'innovation techno-industrielle, sociale et intellectuelle qui la sous-tendent.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ce document s’inscrit dans le cadre de la problématique des mortalités de moules bleues sur les côtes françaises depuis l’hiver 2014. Il a été conçu comme une contribution aux projets Morbleu (projet de recherche) et Mytilobs (observatoire national sur les traits de vie de la moule). D’un point de vu historique, depuis le début du 20ème siècle, le principale « ennemi » de la moule reste la météo et en particulier, les tempêtes. Une seule crise de mortalité, majeure, est survenue en 1960-61 dans le pertuis Breton. Elle résulte d’une interaction entre le parasite mytilicola intestinalis et des conditions drastiques d’élevage sur bouchots dans la baie de l’Aiguillon. L’évaluation des mortalités de moules est difficile du fait des pratiques d’élevage et des pertes qui en résultent. Lorsque la crise survient en 2014, l’investigation scientifique s’appuie à la fois sur des déclarations (professionnels), des constats (DDTMs), des saisines (Repamo) et des mesures (réseau Mytilobs). L’intensité des mortalités, variable selon les sites et les années (2014 et 2015) est comparée à un référentiel de mortalités issu d’un réseau régional de suivi des mortalités de moules en paniers (Remoula, 2000-2010). En février 2014, les mortalités surviennent dans le pertuis Breton et s’étendent en quelques mois vers le sud (pertuis d’Antioche) et vers le Nord (Côte de Noirmoutier et Baie de Bourgneuf). Les simulations hydrodynamiques montrent la connectivité spatio-temporelle entre le site d’émergence des mortalités et les sites touchés quelques semaines plus tard. Alors qu’il existe plusieurs génomes de Mytililus edulis et des populations hybrides (entre Mytililus edulis et Mytilus galloprovincialis) sur les cotes de la France, seul le génome Mytililus edulis de la cote atlantique semble au départ concerné par ces mortalités. La quasi simultanéité d’occurrence d’épisodes de mortalités de moules en Rade de Brest (en hiver 2014), et sur les gisements profonds de la cote Est du Cotentin (dès le printemps 2014) reste aujourd’hui une énigme scientifique. Lorsque les mortalités surviennent en 2014 et lors de leur reprise en 2015, les moules sont en période de reproduction. Ce rapport synthétise également des résultats acquis sur la reproduction de Mytilus edulis sur la cote atlantique (Arcachon et Pertuis Charentais).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les crimes sexuels génèrent beaucoup d’inquiétudes chez la société, particulièrement quand vient le temps de libérer certains délinquants sexuels à risque élevé de récidive. Les évaluations du risque sont ainsi pertinentes puisque la majorité des délinquants sexuels sont libérés suivant une peine d’emprisonnement déterminée (Wilson, Picheca and Prinzo, 2005). Certaines méthodes sont donc mises en place servant à gérer les délinquants sexuels en communauté. Un cadre légal impose certaines conditions de remise en liberté et vise à réduire le risque de récidive (Hanson and Morton-Bourgon, 2005). Toutefois, une fois leur sentence complétée, certains délinquants posent toujours un risque pour la société. Pour répondre à ce problème, des partenariats ont été développés au Québec entre les services correctionnels et policiers. Ils imposent une surveillance accrue des personnes à risque élevé de récidive (PRER). Les décisions qui sont prises peuvent être lourdes de conséquences. Il est donc important d’évaluer si les méthodes de ciblage sont efficaces, soit orientées vers les individus à haut risque de récidive. Les données utilisées dans le cadre de ce mémoire proviennent de deux sources. Premièrement, un échantillon comparatif issu d’une compilation de données comprenant l’ensemble des délinquants sexuels condamnés depuis 20 ans a été utilisé (n = 235). Puis, un registre développé depuis 10 ans regroupant l’ensemble des individus soumis au programme a été analysé (n = 235). Les participants ont été évalués en fonction des variables disponibles de la Statique-99R. L’utilité de l’outil pour la police a été mise en perspective. Le programme ne semble pas n’impliquer que des délinquants sexuels à haut risque de récidive. Les taux de récidive sont relativement bas et similaires dans les deux échantillons. Les services de police ont des données pertinentes qui permettent d’étudier la qualité du ciblage fait dans le cadre du programme. Des évaluations plus fiables pourraient améliorer l’allocation des ressources et les stratégies de ciblage.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les crimes sexuels génèrent beaucoup d’inquiétudes chez la société, particulièrement quand vient le temps de libérer certains délinquants sexuels à risque élevé de récidive. Les évaluations du risque sont ainsi pertinentes puisque la majorité des délinquants sexuels sont libérés suivant une peine d’emprisonnement déterminée (Wilson, Picheca and Prinzo, 2005). Certaines méthodes sont donc mises en place servant à gérer les délinquants sexuels en communauté. Un cadre légal impose certaines conditions de remise en liberté et vise à réduire le risque de récidive (Hanson and Morton-Bourgon, 2005). Toutefois, une fois leur sentence complétée, certains délinquants posent toujours un risque pour la société. Pour répondre à ce problème, des partenariats ont été développés au Québec entre les services correctionnels et policiers. Ils imposent une surveillance accrue des personnes à risque élevé de récidive (PRER). Les décisions qui sont prises peuvent être lourdes de conséquences. Il est donc important d’évaluer si les méthodes de ciblage sont efficaces, soit orientées vers les individus à haut risque de récidive. Les données utilisées dans le cadre de ce mémoire proviennent de deux sources. Premièrement, un échantillon comparatif issu d’une compilation de données comprenant l’ensemble des délinquants sexuels condamnés depuis 20 ans a été utilisé (n = 235). Puis, un registre développé depuis 10 ans regroupant l’ensemble des individus soumis au programme a été analysé (n = 235). Les participants ont été évalués en fonction des variables disponibles de la Statique-99R. L’utilité de l’outil pour la police a été mise en perspective. Le programme ne semble pas n’impliquer que des délinquants sexuels à haut risque de récidive. Les taux de récidive sont relativement bas et similaires dans les deux échantillons. Les services de police ont des données pertinentes qui permettent d’étudier la qualité du ciblage fait dans le cadre du programme. Des évaluations plus fiables pourraient améliorer l’allocation des ressources et les stratégies de ciblage.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Si on considère l'atteinte de l'autonomie comme étant un cheminement progressif, l'enseignante ou l'enseignant doit concevoir des stratégies d'apprentissage dans l'optique que ses interventions auprès des élèves deviennent de moins en moins fréquentes. On permet ainsi à ces derniers de prendre davantage le contrôle de leurs apprentissages et on réduit leur dépendance envers l'enseignant. Cette recherche porte sur le développement de l'autonomie dans l'utilisation des logiciels et présente une méthode d'enseignement sur l'utilisation de la fonction "Aide" des logiciels qui donne à l'élève des stratégies lui permettant d'être l'agent de son propre développement. De quelle manière pouvons-nous amener l'élève à utiliser l'"Aide" des logiciels, de façon stratégique, lorsqu'il doit se débrouiller par lui-même? La démarche de résolution de problèmes peut-elle lui être utile? Quelles sont les connaissances susceptibles de le mener graduellement vers la réussite et de le guider progressivement vers l'autonomie? Autant de questions auxquelles la recherche s'intéresse. Nous avons d'abord élaboré une stratégie d'enseignement, construit des instruments pour soutenir la démarche et conçu un modèle d'utilisation de la stratégie. Nous l'avons ensuite validée, par sa mise à l'essai auprès d'un groupe de neuf élèves et nous en avons, enfin, évalué les résultats. Différents instruments tels que grilles d'observation, questionnaires d'entrevue, fiches d'expérimentation, procéduriers et documents réalisés par les élèves ont permis de recueillir des données qui ont servi à l'évaluation de la stratégie. L'analyse de ces données révèle que la performance des élèves pour l'exécution des tâches s'est nettement améliorée après qu'on leur ait enseigné à utiliser la fonction "Aide" et révèle, également, qu'ils l'utilisent de façon plus adéquate. D'autres analyses confirment que le fait d'organiser une stratégie d'enseignement en fonction des catégories de connaissances (déclaratives, procédurales et conditionnelles) est un moyen de favoriser un meilleur engagement cognitif des élèves dans leurs apprentissages. La résolution de problèmes, démarche intégrée à la fiche d'expérimentation utilisée par ces derniers, a fourni un cadre pour utiliser leurs connaissances et préciser leurs stratégies. Les résultats obtenus permettent d'affirmer que les objectifs de la recherche ont été atteints. La mise en place d'activités complexes et variées a permis la construction du savoir stratégique. La démarche de résolution de problèmes a favorisé la réutilisation des connaissances dans différents contextes. Les modèles cognitiviste et constructiviste dont s'inspire la stratégie d'enseignement, ont incité les élèves à recourir à la fonction "Aide" ainsi qu'à leurs connaissances antérieures et à les associer à des contextes d'action où ils ont transféré leurs apprentissages de façon plus autonome. Enseigner à utiliser la fonction "Aide" des logiciels est une pratique qui devrait être intégrée dans les activités pédagogiques de toute enseignante ou enseignant désireux de développer l'autonomie de ses élèves dans l'utilisation de nouveaux logiciels. Cela doit, cependant, résulter d'une démarche structurée incluant des instruments élaborés de manière à induire chez les élèves, de façon progressive, un comportement les menant vers l'autonomie souhaitée.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le premier chapitre de cette étude décrit les différents contextes, professionnels et pédagogiques, de la profession d'orthoprothésiste et de son évolution. Il présente les nombreuses mouvances ayant influencé les orientations du nouveau programme et de ses stratégies pédagogiques. On y aborde, en conséquence, la problématique ainsi que les raisons qui ont poussé le chercheur à vouloir conduire cette étude. Le deuxième chapitre détermine le cadre conceptuel duquel relève cette étude. Comme les critères d'observation du développement des compétences prfessionnelles et intellectuelles utilisés sont tirés de recherches sur la pensée critique et la métacognition, cette section en définit les principales caractéristiques de même que leurs applications. Ce chapitre présente aussi une définition des concepts pédagogiques de base utilisés, comme les notions de connaissances et de compétence, ainsi qu'une description des particularités des cours de la troisième année du programme de TOP. Enfin, il se termine par une définition opérationnelle de tous les concepts essentiels à la compréhension de l'étude et par l'explication de ses objectifs spécifiques. Le troisième chapitre élabore la méthodologie nécessaire à la réalisation de cette étude. L'approche méthodologique qualitative est présentée ainsi que le paradigme épistémologique interprétatif dont elle s'inspire. La population et l'échantillon y sont définis et on donne aussi un aperçu du déroulement de l'étude. La description des techniques et des instruments de collecte de données représente la principale section de ce chapitre. On expose les résultats de la consultation des collègues professionnels, en lien avec le premier objectif spécifique, de même que l'explication des différents axes de triangulation et la justification de chacun des instruments de collecte en lien avec les deux derniers objectifs spécifiques. Le quatrième chapitre explicite l'analyse et l'interprétation des résultats obtenus lors de l'application des différents objectifs spécifiques. Les observations du chercheur et de ses collègues sont formulées ainsi que les conclusions mitigées qui en découlent. On y présente également les opinions exprimées par les élèves et l'enthousiasme avec lequel ils ont perçu leur évolution professionelle et interllectuelle, à la suite de cette troisième année dans le programme de TOP. Une comparaison des deux perspectives, soit celle des professeurs et celle des élèves, permet de mettre en évidence des améliorations à apporter aux stratégies pédagogiques, particulièrement au plan de leur application pratique.