473 resultados para Théorie de complexité du calcul


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le présent mémoire se consacre à la question des revendications normatives des peuples autochtones en droit international. On y constate que la reconnaissance de ces dernières représente un défi important autant pour les institutions internationales que pour la philosophie libérale qui en constitue le fondement. Cette reconnaissance sera graduellement admise par les institutions internationales majeures préoccupées par les droits humains. Un corpus normatif international spécifique et exclusif aux autochtones sera ainsi développé pour répondre à leurs aspirations et besoins. La définition de l’identité autochtone permet d’exposer cette particularité de traitement des autochtones en droit international. Elle se fonde sur deux axes. Le premier est culturel, suggérant une différence autochtone fondée sur une conception holistique du monde, laquelle est intimement liée au territoire. Le deuxième axe est historique; il fait appel à une longue présence sur un lieu, parfois qualifiée d’immémoriale, en tous les cas antérieure au contact avec un envahisseur qui mènera à leur situation actuelle de marginalisation. Ces fondements identitaires se trouvent à la source des justifications des revendications normatives autochtones. Cependant, ces fondements posent des problèmes de qualification difficiles à concilier avec la diversité des bénéficiaires des droits des autochtones. Ils entraînent également des difficultés importantes au regard de la théorie politique, laquelle s’efforce de réconcilier les revendications autochtones avec le libéralisme et les structures politiques actuelles. Une réconciliation entre les peuples autochtones et les États soulève en effet de délicates questions de légitimité et de justice. Afin d’éviter les pièges d’une autochtonie confinée dans un paradigme culturel et historique, S. J. Anaya propose le concept d’autodétermination comme fondement unique des revendications autochtones. Ce concept doit cependant lui-même faire face à un défi de conciliation avec les structures politiques existantes. Nous verrons que s’il permet de poser les jalons d’une nouvelle relation politique, le droit à l’autodétermination des peuples autochtones semble cependant incapable de dépasser les fondements de la culture et de l’histoire inhérents à l’identité autochtone.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette étude porte sur les usages des TIC des étudiants universitaires du Cameroun. Elle se situe dans un contexte de l’enseignement supérieur camerounais en pleine mutation par les TIC. Elle vise donc à mieux comprendre les utilisations des TIC qui influencent l’apprentissage et la motivation académique chez les étudiants universitaires du Cameroun. Pour atteindre cet objectif, quatre principaux axes d’étude sont envisagés : -Les usages des TIC des étudiants universitaires camerounais; -Les perceptions des étudiants sur l’usage des TIC dans leur formation; -L’impact des TIC sur l’apprentissage des étudiants universitaires du Cameroun ; -L’impact des TIC sur la motivation académique des étudiants universitaires en apprentissage. La typologie de De Vries (2001) adoptée, qui est bâtie sur plusieurs variables d’apprentissage en lien avec les TIC (lire, faire des exercices, dialogue, jouer, explorer, manipuler, observer, construire et discuter), a facilité l’élaboration d’un portrait des usages des TIC des étudiants universitaires camerounais. Pour vérifier si les TIC ont un lien avec l’acquisition du savoir visée par un cours chez les étudiants camerounais, nous avons eu recours à la taxonomie de Bloom (1956) révisée par Lorin (2001). Cette taxonomie est constituée des verbes d’action qui décrivent des opérations cognitives d’apprentissage et spécifient des activités d’apprentissage liée aux TIC en terme de « capacité à ». Aussi, les résultats de Barrette (2005) sur les effets des TIC sur l’apprentissage (amélioration des résultats académiques, développement des opérations cognitives, amélioration de la motivation et intérêt des étudiants) nous ont servi de balises pour mieux comprendre les influences des TIC sur l’apprentissage des étudiants universitaires. La littérature sur l’impact des TIC sur la motivation académique a révélé que les sentiments d'autodétermination, de compétence et d'affiliation influencent la motivation des étudiants. Ainsi la théorie retenue de l'autodétermination de Deci et Ryan (1985, 1991, 2000) nous permet de mieux cerner le concept de la motivation dans cette étude. Cette recherche se fonde sur une méthodologie de type mixte, comportant plusieurs sources de données collectées (Savoie-Zajc et Karsenti (2000)): entrevues individuelles semi dirigées avec des étudiants (n = 9), observations participantes d’étudiants (n=2), observations participantes de groupes d’étudiants (n = 3), questionnaire (n=120). La thèse suit un mode de présentation par articles, chacun des articles étant en lien avec l’un des objectifs de la recherche. Les résultats obtenus confortent l’hypothèse d’une utilisation des TIC à des fins académiques par des étudiants dans le campus ainsi que dans les cybercafés. Autrement dit, la recherche dresse un portrait des usages des TIC des étudiants universitaires camerounais en mettant en évidence les types d’utilisation multivariés rencontrés. Les résultats font aussi ressortir que les TIC sont des outils didactiques efficaces pour faciliter la compréhension des situations complexes des cours suivis par les étudiants. Cette recherche a donné lieu à l’adaptation de l’échelle de mesure EMITICE, un instrument de mesure de la motivation lors de l'intégration des TIC dans l'enseignement, qui a permis de déterminer les variations de la motivation des étudiants et de mettre en évidence une comparaison de l'évolution du type de leur motivation.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dans cette recherche, nous tentons de démontrer le rôle du paysage dans la structuration des villes industrielles, afin de justifier sa considération dans les outils de planification. Pour atteindre cet objectif, nous nous penchons sur une ville manufacturière du Centre-du-Québec : Drummondville. Nous utilisons une méthodologie en trois étapes. Nous réalisons en premier lieu un historique puis une analyse paysagère. Pour dépasser la simple description des paysages et de l’évolution de la forme urbaine, nous interprétons ensuite ces résultats en fonction des domaines de cohérence de la géographie structurale. Selon cette théorie, Drummondville constitue un domaine de cohabitation. Le rôle du paysage dans le développement et la structuration du territoire varie en fonction des sensibilités dominantes. Il est donc plus important lors des périodes qui valorisent les formes esthétiques et culturelles et moins structurant lorsque les valeurs dominantes favorisent les formes rationnelles. Dans les domaines de cohabitation où les forces industrielles sont plus constantes, des aménagements utilitaires sont parfois réalisés sur des sites paysagers. En raison de leur plus faible valorisation, les paysages y sont plus souvent menacés. En ce sens, il importe d’autant plus de les considérer dans les documents de planification.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L'approximation adiabatique en mécanique quantique stipule que si un système quantique évolue assez lentement, alors il demeurera dans le même état propre. Récemment, une faille dans l'application de l'approximation adiabatique a été découverte. Les limites du théorème seront expliquées lors de sa dérivation. Ce mémoire à pour but d'optimiser la probabilité de se maintenir dans le même état propre connaissant le système initial, final et le temps d'évolution total. Cette contrainte sur le temps empêche le système d'être assez lent pour être adiabatique. Pour solutionner ce problème, une méthode variationnelle est utilisée. Cette méthode suppose connaître l'évolution optimale et y ajoute une petite variation. Par après, nous insérons cette variation dans l'équation de la probabilité d'être adiabatique et développons en série. Puisque la série est développée autour d'un optimum, le terme d'ordre un doit nécessairement être nul. Ceci devrait nous donner un critère sur l'évolution la plus adiabatique possible et permettre de la déterminer. Les systèmes quantiques dépendants du temps sont très complexes. Ainsi, nous commencerons par les systèmes ayant des énergies propres indépendantes du temps. Puis, les systèmes sans contrainte et avec des fonctions d'onde initiale et finale libres seront étudiés.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le développement du logiciel actuel doit faire face de plus en plus à la complexité de programmes gigantesques, élaborés et maintenus par de grandes équipes réparties dans divers lieux. Dans ses tâches régulières, chaque intervenant peut avoir à répondre à des questions variées en tirant des informations de sources diverses. Pour améliorer le rendement global du développement, nous proposons d'intégrer dans un IDE populaire (Eclipse) notre nouvel outil de visualisation (VERSO) qui calcule, organise, affiche et permet de naviguer dans les informations de façon cohérente, efficace et intuitive, afin de bénéficier du système visuel humain dans l'exploration de données variées. Nous proposons une structuration des informations selon trois axes : (1) le contexte (qualité, contrôle de version, bogues, etc.) détermine le type des informations ; (2) le niveau de granularité (ligne de code, méthode, classe, paquetage) dérive les informations au niveau de détails adéquat ; et (3) l'évolution extrait les informations de la version du logiciel désirée. Chaque vue du logiciel correspond à une coordonnée discrète selon ces trois axes, et nous portons une attention toute particulière à la cohérence en naviguant entre des vues adjacentes seulement, et ce, afin de diminuer la charge cognitive de recherches pour répondre aux questions des utilisateurs. Deux expériences valident l'intérêt de notre approche intégrée dans des tâches représentatives. Elles permettent de croire qu'un accès à diverses informations présentées de façon graphique et cohérente devrait grandement aider le développement du logiciel contemporain.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

« Il va sans dire que c’est l’expérience du traduire qui constitue le centre de gravité de mon rapport général à la traduction. Je ne suis traductologue que parce que je suis, primordialement, traducteur » (Berman 2001, p. 16). La théorie de la traduction d’Antoine Berman serait donc enracinée dans sa pratique. Bien que son nom soit devenu incontournable en traductologie et que ses idées aient suscité de nombreux débats, peu de chercheurs ont étudié le lien entre la théorie et la pratique de ce traductologue. Le présent mémoire tente de combler cette lacune. Au moyen d’une analyse de la traduction de El juguete rabioso de Roberto Arlt faite par les époux Berman, il explore comment la pratique et la théorie de la traduction d’Antoine Berman se sont nourries l’une de l’autre. Le premier chapitre retrace le parcours d’Antoine Berman : son travail de traducteur, ses influences, sa théorie de la traduction, l’impact de celle-ci et les critiques qui lui ont été adressées. Dans le chapitre deux, nous découvrons Roberto Arlt et son œuvre afin de bien cerner les enjeux de sa traduction. Le chapitre trois analyse, selon la méthode bermanienne, la traduction française de ce roman publiée pour la première fois en 1984. Deux éléments du texte sont mis en relief : la diversité de registres discursifs, dont les sociolectes argentins, et la richesse lexicale qui en découle. En conclusion, l’étude montre que Le jouet enragé est marqué par une certaine inhibition et une rigidité sans doute inhérentes à toute traduction-introduction. Trop attachée aux normes, cette première version restitue timidement la diversité narrative de l’original. Ainsi, on peut supposer que les préceptes de Berman, et plus exactement sa liste de « tendances déformantes » (Berman 1999) reflètent, en partie, et avant tout, les limites et les difficultés qu’il a pu rencontrer dans l’exercice de sa pratique.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Selon des thèses développées au cours des années 1990 et 2000, le développement économique constitue à la fois la source et la solution aux problèmes environnementaux. Au sujet des forêts, les transitions forestières (c’est-à-dire le passage de la déforestation à la reforestation) documentées dans certains pays développés seraient causées par des dynamiques universelles intrinsèques au développement et à la modernisation des sociétés. Nos travaux ont porté sur l’application de cette vision optimiste et controversée à l’évolution des superficies forestières en Thaïlande. S’appuyant sur une recension de la littérature, sur des données secondaires ainsi que nos travaux de terrain dans la région de Phetchabun, la thèse offre les apports suivants. Elle démontre que contrairement à l’idée répandue en Thaïlande, le ralentissement de la déforestation a été suivi par une expansion forestière substantielle entre environ 1995 et 2005. Ce regain forestier est lié à la disparition presque complète de l’expansion agricole, à l’établissement de plantations sylvicoles et, surtout, à l’abandon de terres agricoles. Cet abandon agricole découle d’abord et avant tout de la faible et incertaine rentabilité de l’agriculture dans certaines zones non irriguées. Ce phénomène s’explique, entre autres, par la dégradation des sols et par l’incapacité des agriculteurs à contrer l’impact des transformations économiques internes et externes à la Thaïlande. L’accroissement de la pression de conservation n’a pu contribuer à l’expansion forestière que dans certains contextes (projets de reforestation majeurs appuyés par l’armée, communautés divisées, terres déjà abandonnées). Sans en être une cause directe, l’intensification agricole et la croissance des secteurs non agricoles ont rendu moins pénibles la confiscation et l’abandon des terres et ont permis que de tels phénomènes surviennent sans entraîner d’importants troubles sociaux. Dans un contexte d’accroissement des prix agricoles, notamment celui du caoutchouc naturel, une partie du regain forestier aurait été perdu depuis 2005 en raison d’une ré-expansion des surfaces agricoles. Cela illustre le caractère non permanent de la transition forestière et la faiblesse des mesures de conservation lorsque les perspectives de profit sont grandes. La thèse montre que, pour être robuste, une théorie de la transition forestière doit être contingente et reconnaître que les variables macro-sociales fréquemment invoquées pour expliquer les transitions forestières (ex. : démocratisation, intensification agricole, croissance économique) peuvent aussi leur nuire. Une telle théorie doit également prendre en compte des éléments d’explication non strictement économiques et souvent négligés (menaces à la sécurité nationale, épuisement des terres perçues comme arables et libres, degré d’attachement aux terres et capacité d’adaptation et résilience des systèmes agricoles). Finalement, les écrits sur la transition forestière doivent reconnaître qu’elle a généralement impliqué des impacts sociaux et même environnementaux négatifs. Une lecture de la transition forestière plus nuancée et moins marquée par l’obsession de la seule reforestation est seule garante d’une saine gestion de l’environnement en respect avec les droits humains, la justice sociale et le développement durable.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette thèse contribue à une théorie générale de la conception du projet. S’inscrivant dans une demande marquée par les enjeux du développement durable, l’objectif principal de cette recherche est la contribution d’un modèle théorique de la conception permettant de mieux situer l’utilisation des outils et des normes d’évaluation de la durabilité d’un projet. Les principes fondamentaux de ces instruments normatifs sont analysés selon quatre dimensions : ontologique, méthodologique, épistémologique et téléologique. Les indicateurs de certains effets contre-productifs reliés, en particulier, à la mise en compte de ces normes confirment la nécessité d’une théorie du jugement qualitatif. Notre hypothèse principale prend appui sur le cadre conceptuel offert par la notion de « principe de précaution » dont les premières formulations remontent du début des années 1970, et qui avaient précisément pour objectif de remédier aux défaillances des outils et méthodes d’évaluation scientifique traditionnelles. La thèse est divisée en cinq parties. Commençant par une revue historique des modèles classiques des théories de la conception (design thinking) elle se concentre sur l’évolution des modalités de prise en compte de la durabilité. Dans cette perspective, on constate que les théories de la « conception verte » (green design) datant du début des années 1960 ou encore, les théories de la « conception écologique » (ecological design) datant des années 1970 et 1980, ont finalement convergé avec les récentes théories de la «conception durable» (sustainable design) à partir du début des années 1990. Les différentes approches du « principe de précaution » sont ensuite examinées sous l’angle de la question de la durabilité du projet. Les standards d’évaluation des risques sont comparés aux approches utilisant le principe de précaution, révélant certaines limites lors de la conception d’un projet. Un premier modèle théorique de la conception intégrant les principales dimensions du principe de précaution est ainsi esquissé. Ce modèle propose une vision globale permettant de juger un projet intégrant des principes de développement durable et se présente comme une alternative aux approches traditionnelles d’évaluation des risques, à la fois déterministes et instrumentales. L’hypothèse du principe de précaution est dès lors proposée et examinée dans le contexte spécifique du projet architectural. Cette exploration débute par une présentation de la notion classique de «prudence» telle qu’elle fut historiquement utilisée pour guider le jugement architectural. Qu’en est-il par conséquent des défis présentés par le jugement des projets d’architecture dans la montée en puissance des méthodes d’évaluation standardisées (ex. Leadership Energy and Environmental Design; LEED) ? La thèse propose une réinterprétation de la théorie de la conception telle que proposée par Donald A. Schön comme une façon de prendre en compte les outils d’évaluation tels que LEED. Cet exercice révèle cependant un obstacle épistémologique qui devra être pris en compte dans une reformulation du modèle. En accord avec l’épistémologie constructiviste, un nouveau modèle théorique est alors confronté à l’étude et l’illustration de trois concours d'architecture canadienne contemporains ayant adopté la méthode d'évaluation de la durabilité normalisée par LEED. Une série préliminaire de «tensions» est identifiée dans le processus de la conception et du jugement des projets. Ces tensions sont ensuite catégorisées dans leurs homologues conceptuels, construits à l’intersection du principe de précaution et des théories de la conception. Ces tensions se divisent en quatre catégories : (1) conceptualisation - analogique/logique; (2) incertitude - épistémologique/méthodologique; (3) comparabilité - interprétation/analytique, et (4) proposition - universalité/ pertinence contextuelle. Ces tensions conceptuelles sont considérées comme autant de vecteurs entrant en corrélation avec le modèle théorique qu’elles contribuent à enrichir sans pour autant constituer des validations au sens positiviste du terme. Ces confrontations au réel permettent de mieux définir l’obstacle épistémologique identifié précédemment. Cette thèse met donc en évidence les impacts généralement sous-estimés, des normalisations environnementales sur le processus de conception et de jugement des projets. Elle prend pour exemple, de façon non restrictive, l’examen de concours d'architecture canadiens pour bâtiments publics. La conclusion souligne la nécessité d'une nouvelle forme de « prudence réflexive » ainsi qu’une utilisation plus critique des outils actuels d’évaluation de la durabilité. Elle appelle une instrumentalisation fondée sur l'intégration globale, plutôt que sur l'opposition des approches environnementales.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les fichiers video (d'animation) sont dans un format Windows Media (.wmv)

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette recherche vise à décrire 1) les erreurs lexicales commises en production écrite par des élèves francophones de 3e secondaire et 2) le rapport à l’erreur lexicale d’enseignants de français (conception de l’erreur lexicale, pratiques d’évaluation du vocabulaire en production écrite, modes de rétroaction aux erreurs lexicales). Le premier volet de la recherche consiste en une analyse d’erreurs à trois niveaux : 1) une description linguistique des erreurs à l’aide d’une typologie, 2) une évaluation de la gravité des erreurs et 3) une explication de leurs sources possibles. Le corpus analysé est constitué de 300 textes rédigés en classe de français par des élèves de 3e secondaire. L’analyse a révélé 1144 erreurs lexicales. Les plus fréquentes sont les problèmes sémantiques (30%), les erreurs liées aux propriétés morphosyntaxiques des unités lexicales (21%) et l’utilisation de termes familiers (17%). Cette répartition démontre que la moitié des erreurs lexicales sont attribuables à une méconnaissance de propriétés des mots autres que le sens et la forme. L’évaluation de la gravité des erreurs repose sur trois critères : leur acceptation linguistique selon les dictionnaires, leur impact sur la compréhension et leur degré d’intégration à l’usage. Les problèmes liés aux registres de langue sont généralement ceux qui sont considérés comme les moins graves et les erreurs sémantiques représentent la quasi-totalité des erreurs graves. Le troisième axe d’analyse concerne la source des erreurs et fait ressortir trois sources principales : l’influence de la langue orale, la proximité sémantique et la parenté formelle entre le mot utilisé et celui visé. Le second volet de la thèse concerne le rapport des enseignants de français à l’erreur lexicale et repose sur l’analyse de 224 rédactions corrigées ainsi que sur une série de huit entrevues menées avec des enseignants de 3e secondaire. Lors de la correction, les enseignants relèvent surtout les erreurs orthographiques ainsi que celles relevant des propriétés morphosyntaxiques des mots (genre, invariabilité, régime), qu’ils classent parmi les erreurs de grammaire. Les erreurs plus purement lexicales, c’est-à-dire les erreurs sémantiques, l’emploi de termes familiers et les erreurs de collocation, demeurent peu relevées, et les annotations des enseignants concernant ces types d’erreurs sont vagues et peu systématiques, donnant peu de pistes aux élèves pour la correction. L’évaluation du vocabulaire en production écrite est toujours soumise à une appréciation qualitative, qui repose sur l’impression générale des enseignants plutôt que sur des critères précis, le seul indicateur clair étant la répétition. Les explications des enseignants concernant les erreurs lexicales reposent beaucoup sur l’intuition, ce qui témoigne de certaines lacunes dans leur formation en lien avec le vocabulaire. Les enseignants admettent enseigner très peu le vocabulaire en classe au secondaire et expliquent ce choix par le manque de temps et d’outils adéquats. L’enseignement du vocabulaire est toujours subordonné à des tâches d’écriture ou de lecture et vise davantage l’acquisition de mots précis que le développement d’une réelle compétence lexicale.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La guerre de 33 jours qui s’est déroulée au Liban en juillet-août 2006 a donné lieu à une panoplie de questions sur la légitimité du recours à l’usage de la force dont a fait preuve Israël au nom de son droit à la légitime défense. La problématique découlait surtout du fait que l’attaque initiale ayant déclenché cette guerre, en date du 12 juillet 2006, avait été menée par le Hezbollah, un groupe armé dont le statut étatique ou non étatique demeure difficile à cerner. Cette étude propose d’analyser si le Liban doit être tenu responsable pour le comportement du Hezbollah. Un survol de l’histoire du Liban et de la création du Hezbollah illustrera que la relation existant entre ces deux acteurs est d’une rare complexité, faisant en sorte que le rôle du Hezbollah au Liban est contesté de toutes parts. Ce débat aura une incidence certaine sur la question à savoir si le comportement du Hezbollah est attribuable à l’État libanais. Une étude approfondie des règles internationales régissant l’acte « d’attribution », notion centrale au droit de la responsabilité internationale des États, démontrera que la détermination de la nature du lien existant entre un État et une entité dont le comportement est contesté est d’une importance fondamentale. Dans une ère où les acteurs non étatiques sont devenus omniprésents sur la scène internationale et dans le cas du Hezbollah au Liban – une milice armée opérant au sein d’un État particulièrement à souveraineté limitée – le concept de l’attribution lui-même deviendra peut-être obsolète.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Notre recherche vise à décrire les connaissances grammaticales élaborées par des élèves de première secondaire au cours de l’enseignement/apprentissage de l’accord du verbe. Cette description se fonde sur l’observation des interactions didactiques entre les élèves, et leur enseignant autour de l’objet de savoir « accord du verbe » : elle concerne plus particulièrement l’interaction entre les pôles « élève » et « savoir ». Notre recherche s’inscrit dans le courant de la grammaire pédagogique moderne. La théorie de la transposition didactique de Chevallard (1985/1991) constitue également la pierre angulaire de nos travaux : les concepts de transposition didactique externe (le passage du savoir savant au savoir à enseigner) et interne (le passage du savoir à enseigner au savoir effectivement enseigné) agissent à titre d’analyseurs des interactions didactiques. L’observation, la description et la théorisation des interactions didactiques imposent une démarche écologique pour la collecte des données. Pour notre recherche, les données ont été recueillies grâce à la captation vidéo de séquences didactiques portant sur l’accord du verbe : elles consistent en des interactions verbales entre élèves ou entre les élèves et leur enseignant. L’analyse des données s’est effectuée selon une perspective macro et micro : (1) L’analyse macro indique que les connaissances antérieures des élèves résistent à l’institutionnalisation des savoirs puisque le savoir enseigné n’est pas celui qui est exclusivement mobilisé. Les élèves recourent à un vaste éventail de connaissances de types procédural et déclaratif pour l’identification du verbe et du sujet, dont la réussite n’est par ailleurs pas assurée. De plus, les connaissances qu’ils ont élaborées autour de la règle d’accord et du transfert des traits morphologiques sont également nombreuses et variées et ne les conduisent pas à accorder le verbe avec constance. (2) L’analyse micro suggère que l’élaboration des connaissances relatives à l’accord du verbe dépend de la manière dont les outils de la grammaire (manipulations syntaxiques et phrase de base) sont utilisés par les élèves. Plus précisément, le savoir piétine ou recule lorsque les manipulations syntaxiques ne sont pas appliquées dans la phrase ou qu’elles ne sont pas adaptées dans certains contextes syntaxiques; le savoir fait des bonds en avant dans les classes où les élèves sont en mesure de recourir à la phrase de base pour soutenir leur analyse grammaticale. Les descriptions proposées dans le cadre de notre thèse conduisent à discuter de leurs implications pour la transposition didactique externe et, plus généralement, pour la didactique du français et de la grammaire.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La conception heideggérienne du « cercle de la compréhension » exposée aux §§ 31 et 32 de Sein und Zeit est bien connue et a souvent été analysée, notamment par Hans-Georg Gadamer dans Vérité et méthode (1960) et Jean Greisch dans son commentaire de Sein und Zeit (1994). Mais on a trop peu vu que la théorie du cercle herméneutique déterminait aussi la conception heideggérienne de la philosophie. Notre recherche s’efforcera de le montrer et d’expliquer pourquoi il en est ainsi. Au plan de la méthodologie, nous proposerons, en nous inspirant des commentateurs les plus autorisés (Greisch, Gadamer, Courtine, et al.), un commentaire serré des §§ 31 et 32 de Sein und Zeit, sans oublier le § 63 où Heidegger souligne lui-même la « situation herméneutique » de sa propre enquête, ni le § 68 où se trouve mise en évidence la dimension temporelle du cercle de la compréhension. Nous tâcherons ensuite de montrer en quoi ce cercle affecte la conception heideggérienne de la philosophie telle que présentée au § 7 de Sein und Zeit et dans d’autres textes de Heidegger tels que Les problèmes fondamentaux de la phénoménologie (GA 24).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le but de cette thèse est de raffiner et de mieux comprendre l'utilisation de la méthode spectroscopique, qui compare des spectres visibles de naines blanches à atmosphère riche en hydrogène (DA) à des spectres synthétiques pour en déterminer les paramètres atmosphériques (température effective et gravité de surface). Notre approche repose principalement sur le développement de modèles de spectres améliorés, qui proviennent eux-mêmes de modèles d'atmosphère de naines blanches de type DA. Nous présentons une nouvelle grille de spectres synthétiques de DA avec la première implémentation cohérente de la théorie du gaz non-idéal de Hummer & Mihalas et de la théorie unifiée de l'élargissement Stark de Vidal, Cooper & Smith. Cela permet un traitement adéquat du chevauchement des raies de la série de Balmer, sans la nécessité d'un paramètre libre. Nous montrons que ces spectres améliorés prédisent des gravités de surface qui sont plus stables en fonction de la température effective. Nous étudions ensuite le problème de longue date des gravités élevées pour les DA froides. L'hypothèse de Bergeron et al., selon laquelle les atmosphères sont contaminées par de l'hélium, est confrontée aux observations. À l'aide de spectres haute résolution récoltés au télescope Keck à Hawaii, nous trouvons des limites supérieures sur la quantité d'hélium dans les atmosphères de près de 10 fois moindres que celles requises par le scénario de Bergeron et al. La grille de spectres conçue dans ces travaux est ensuite appliquée à une nouvelle analyse spectroscopique de l'échantillon de DA du SDSS. Notre approche minutieuse permet de définir un échantillon plus propre et d'identifier un nombre important de naines blanches binaires. Nous déterminons qu'une coupure à un rapport signal-sur-bruit S/N > 15 optimise la grandeur et la qualité de l'échantillon pour calculer la masse moyenne, pour laquelle nous trouvons une valeur de 0.613 masse solaire. Finalement, huit nouveaux modèles 3D de naines blanches utilisant un traitement d'hydrodynamique radiative de la convection sont présentés. Nous avons également calculé des modèles avec la même physique, mais avec une traitement standard 1D de la convection avec la théorie de la longueur de mélange. Un analyse différentielle entre ces deux séries de modèles montre que les modèles 3D prédisent des gravités considérablement plus basses. Nous concluons que le problème des gravités élevées dans les naines blanches DA froides est fort probablement causé par une faiblesse dans la théorie de la longueur de mélange.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le développement du système nerveux central (SNC) chez les vertébrés est un processus d'une extrême complexité qui nécessite une orchestration moléculaire très précise. Certains gènes exprimés très tôt lors du développement embryonnaire sont d'une importance capitale pour la formation du SNC. Parmi ces gènes, on retrouve le facteur de transcription à Lim homéodomaine Lhx2. Les embryons de souris mutants pour Lhx2 (Lhx2-/-) souffre d'une hypoplasie du cortex cérébral, sont anophtalmiques et ont un foie de volume réduit. Ces embryons mutants meurent in utero au jour embryonnaire 16 (e16) dû à une déficience en érythrocytes matures. L'objectif principal de cette thèse est de caractériser le rôle moléculaire de Lhx2 dans le développement des yeux et du cortex cérébral. Lhx2 fait partie des facteurs de transcription à homéodomaine exprimé dans la portion antérieure de la plaque neurale avec Rx, Pax6, Six3. Le développement de l'oeil débute par une évagination bilatérale de cette région. Nous démontrons que l'expression de Lhx2 est cruciale pour les premières étapes de la formation de l'oeil. En effet, en absence de Lhx2, l'expression de Rx, Six3 et Pax6 est retardée dans la plaque neurale antérieure. Au stade de la formation de la vésicule optique, l'absence de Lhx2 empêche l'activation de Six6 (un facteur de transcription également essentiel au développement de l'œil). Nous démontrons que Lhx2 et Pax6 coopèrent en s'associant au promoteur de Six6 afin de promouvoir sa trans-activation. Donc, Lhx2 est un gène essentiel pour la détermination de l'identité rétinienne au niveau de la plaque neurale. Plus tard, il collabore avec Pax6 pour établir l'identité rétinienne définitive et promouvoir la prolifération cellulaire. De plus, Lhx2 est fortement exprimé dans le télencéphale, région qui donnera naissance au cortex cérébral. L'absence de Lhx2 entraîne une diminution de la prolifération des cellules progénitrices neurales dans cette région à e12.5. Nous démontrons qu'en absence de Lhx2, les cellules progénitrices neurales (cellules de glie radiale) se différencient prématurément en cellules progénitrices intermédiaires et en neurones post-mitotiques. Ces phénotypes sont corrélés à une baisse d'activité de la voie Notch. En absence de Lhx2, DNER (un ligand atypique de la voie Notch) est fortement surexprimé dans le télencéphale. De plus, Lhx2 et des co-répresseurs s'associent à la chromatine de la région promotrice de DNER. Nous concluons que Lhx2 permet l'activation de la voie Notch dans le cortex cérébral en développement en inhibant la transcription de DNER, qui est un inhibiteur de la voie Notch dans ce contexte particulier. Lhx2 permet ainsi la maintenance et la prolifération des cellules progénitrices neurales.