966 resultados para [JEL:C52] Mathématiques et méthodes quantitatives - Modélisation économétrique - Évaluation de modèles et tests


Relevância:

50.00% 50.00%

Publicador:

Resumo:

Dans une perspective d’analyse des risques pour la santé publique, lestimation de lexposition revêt une importance capitale. Parmi les approches existantes d’estimation de lexposition, l’utilisation d’outils, tels que des questionnaires alimentaires, la modélisation toxicocinétique ou les reconstructions de doses, en complément de la surveillance biologique, permet de raffiner les estimations, et ainsi, de mieux caractériser les risques pour la santé. Ces différents outils et approches ont été développés et appliqués à deux substances d’intérêt, le méthylmercure et lelénium en raison des effets toxiques bien connus du méthylmercure, de l’interaction entre le méthylmercure et lelénium réduisant potentiellement ces effets toxiques, et de lexistence de sources communes via la consommation de poisson. Ainsi, l’objectif général de cette thèse consistait à produire des données cinétiques et comparatives manquantes pour la validation et l’interprétation d’approches et d’outils d’évaluation de lexposition au méthylmercure et au sélénium. Pour ce faire, l’influence du choix de la méthode d’évaluation de lexposition au méthylmercure a été déterminée en comparant les apports quotidiens et les risques pour la santé estimés par différentes approches (évaluation directe de lexposition par la surveillance biologique combinée à la modélisation toxicocinétique ou évaluation indirecte par questionnaire alimentaire). D’importantes différences entre ces deux approches ont été observées : les apports quotidiens de méthylmercure estimés par questionnaires sont en moyenne six fois plus élevés que ceux estimés à l’aide de surveillance biologique et modélisation. Ces deux méthodes conduisent à une appréciation des risques pour la santé divergente puisqu’avec l’approche indirecte, les doses quotidiennes estimées de méthylmercure dépassent les normes de Santé Canada pour 21 des 23 volontaires, alors qu’avec l’approche directe, seulement 2 des 23 volontaires sont susceptibles de dépasser les normes. Ces différences pourraient être dues, entre autres, à des biais de mémoire et de désirabilité lors de la complétion des questionnaires. En outre, l’étude de la distribution du sélénium dans différentes matrices biologiques suite à une exposition non alimentaire (shampoing à forte teneur en sélénium) visait, d’une part, à étudier la cinétique du sélénium provenant de cette source d’exposition et, d’autre part, à évaluer la contribution de cette source à la charge corporelle totale. Un suivi des concentrations biologiques (sang, urine, cheveux et ongles) pendant une période de 18 mois chez des volontaires exposés à une source non alimentaire delénium a contribué à mieux expliciter les mécanismes de transfert du sélénium du site d’absorption vers le sang (concomitance des voies régulées et non régulées). Ceci a permis de montrer que, contrairement au méthylmercure, l’utilisation des cheveux comme biomarqueur peut mener à une surestimation importante de la charge corporelleelle en sélénium en cas de non contrôle de facteurs confondants tels que l’utilisation de shampoing contenant du sélénium. Finalement, une analyse exhaustive des données de surveillance biologique du sélénium issues de 75 études publes dans la littérature a permis de mieux comprendre la cinétique globale du sélénium dans l’organisme humain. En particulier, elle a permis le développement d’un outil reliant les apports quotidiens et les concentrations biologiques delénium dans les différentes matrices à l’aide d’algorithmes mathématiques. Conséquemment, à l’aide de ces données cinétiques exprimées par un système d’équations logarithmiques et de leur représentation graphique, il est possible d’estimer les apports quotidiens chez un individu à partir de divers prélèvements biologiques, et ainsi, de faciliter la comparaison d’études de surveillance biologique du sélénium utilisant des biomarqueurs différents. Lensemble de ces résultats de recherche montre que la méthode choisie pour évaluer lexposition a un impact important sur les estimations des risques associés. De plus, les recherches mees ont permis de mettre en évidence que lelénium non alimentaire ne contribue pas de façon significative à la charge corporelle totale, mais constitue un facteur de confusion pour lestimation de la charge corporelleelle en sélénium. Finalement, la détermination des équations et des coefficients reliant les concentrations delénium entre différentes matrices biologiques, à l’aide d’une vaste base de données cinétiques, concourt à mieux interpréter les résultats de surveillance biologique.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Le contenu de cette thèse est divisé de la façon suivante. Après un premier chapitre d’introduction, le Chapitre 2 est consacré à introduire aussi simplement que possible certaines des théories qui seront utilisées dans les deux premiers articles. Dans un premier temps, nous discuterons des points importants pour la construction de l’intégrale stochastique par rapport aux semimartingales avec paramètre spatial. Ensuite, nous décrirons les principaux résultats de la théorie de l’évaluation en monde neutre au risque et, finalement, nous donnerons une brève description d’une méthode d’optimisation connue sous le nom de dualité. Les Chapitres 3 et 4 traitent de la modélisation de l’illiquidité et font l’objet de deux articles. Le premier propose un modèle en temps continu pour la structure et le comportement du carnet d’ordres limites. Le comportement du portefeuille d’un investisseur utilisant des ordres de marcest déduit et des conditions permettant d’éliminer les possibilités d’arbitrages sont données. Grâce à la formule d’Itô généralisée il est aussi possible d’écrire la valeur du portefeuille comme une équation différentielle stochastique. Un exemple complet de modèle de marcest présenté de même qu’une méthode de calibrage. Dans le deuxième article, écrit en collaboration avec Bruno Rémillard, nous proposons un modèle similaire mais cette fois-ci en temps discret. La question de tarification des produits dérivés est étudiée et des solutions pour le prix des options européennes de vente et d’achat sont données sous forme explicite. Des conditions spécifiques à ce modèle qui permettent d’éliminer l’arbitrage sont aussi données. Grâce à la méthode duale, nous montrons qu’il est aussi possible d’écrire le prix des options européennes comme un problème d’optimisation d’une espérance sur en ensemble de mesures de probabilité. Le Chapitre 5 contient le troisième article de la thèse et porte sur un sujet différent. Dans cet article, aussi écrit en collaboration avec Bruno Rémillard, nous proposons une méthode de prévision des séries temporelles basée sur les copules multivariées. Afin de mieux comprendre le gain en performance que donne cette méthode, nous étudions à l’aide d’expériences numériques leffet de la force et la structure de dépendance sur les prévisions. Puisque les copules permettent d’isoler la structure de dépendance et les distributions marginales, nous étudions l’impact de différentes distributions marginales sur la performance des prévisions. Finalement, nous étudions aussi leffet des erreurs d’estimation sur la performance des prévisions. Dans tous les cas, nous comparons la performance des prévisions en utilisant des prévisions provenant d’une série bivariée et d’une série univariée, ce qui permet d’illustrer l’avantage de cette méthode. Dans un intérêt plus pratique, nous présentons une application complète sur des données financières.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Cette thèse est divisée en trois chapitres. Le premier explique comment utiliser la méthode «level-sede manière rigoureuse pour faire la simulation de feux de forêt en utilisant comme modèle physique pour la propagation le modèle de l'ellipse de Richards. Le second présente un nouveau schéma semi-implicite avec une preuve de convergence pour la solution d'une équation de type Hamilton-Jacobi anisotrope. L'avantage principal de cette méthode est qu'elle permet de réutiliser des solutions à des problèmes «proches» pour accélérer le calcul. Une autre application de ce schéma est l'homogénéisation. Le troisième chapitre montre comment utiliser les méthodes numériques des deux premiers chapitres pour étudier l'influence de variations à petites échelles dans la vitesse du vent sur la propagation d'un feu de forêt à l'aide de la théorie de l'homogénéisation.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Les modèles incrémentaux sont des modèles statistiques qui ont été développés initialement dans le domaine du marketing. Ils sont composés de deux groupes, un groupe contrôle et un groupe traitement, tous deux comparés par rapport à une variable réponse binaire (le choix de réponses est « oui » ou « non »). Ces modèles ont pour but de détecter leffet du traitement sur les individus à l’étude. Ces individus n’étant pas tous des clients, nous les appellerons : « prospects ». Cet effet peut être négatif, nul ou positif selon les caractéristiques des individus composants les différents groupes. Ce mémoire a pour objectif de comparer des modèles incrémentaux d’un point de vue bayésien et d’un point de vue fréquentiste. Les modèles incrémentaux utilisés en pratique sont ceux de Lo (2002) et de Lai (2004). Ils sont initialement réalisés d’un point de vue fréquentiste. Ainsi, dans ce mémoire, l’approche bayésienne est utilisée et comparée à l’approche fréquentiste. Les simulations sont e ectuées sur des données générées avec des régressions logistiques. Puis, les paramètres de ces régressions sont estimés avec des simulations Monte-Carlo dans l’approche bayésienne et comparés à ceux obtenus dans l’approche fréquentiste. Lestimation des paramètres a une influence directe sur la capacité du modèle à bien prédire leffet du traitement sur les individus. Nous considérons l’utilisation de trois lois a priori pour lestimation des paramètres de façon bayésienne. Elles sont choisies de manière à ce que les lois a priori soient non informatives. Les trois lois utilisées sont les suivantes : la loi bêta transformée, la loi Cauchy et la loi normale. Au cours de l’étude, nous remarquerons que les méthodes bayésiennes ont un réel impact positif sur le ciblage des individus composant les échantillons de petite taille.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Cette thèse concerne la modélisation des interactions fluide-structure et les méthodes numériques qui s’y rattachent. De ce fait, la thèse est divisée en deux parties. La première partie concerne l’étude des interactions fluide-structure par la méthode des domaines fictifs. Dans cette contribution, le fluide est incompressible et laminaire et la structure est considérée rigide, qu’elle soit immobile ou en mouvement. Les outils que nous avons développés comportent la mise en oeuvre d’un algorithme fiable de résolution qui intégrera les deux domaines (fluide et solide) dans une formulation mixte. L’algorithme est basé sur des techniques de raffinement local adaptatif des maillages utilisés permettant de mieux séparer les éléments du milieu fluide de ceux du solide que ce soit en 2D ou en 3D. La seconde partie est l’étude des interactions mécaniques entre une structure flexible et un fluide incompressible. Dans cette contribution, nous proposons et analysons des méthodes numériques partitionnées pour la simulation de phénomènes d’interaction fluide-structure (IFS). Nous avons adopté à cet effet, la méthode dite «arbitrary Lagrangian-Eulerian» (ALE). La résolution fluide est effectuée itérativement à l’aide d’un schéma de type projection et la structure est modélisée par des modèles hyper élastiques en grandes déformations. Nous avons développé de nouvelles méthodes de mouvement de maillages pour aboutir à de grandes déformations de la structure. Enfin, une stratégie de complexification du problème d’IFS a été définie. La modélisation de la turbulence et des écoulements à surfaces libres ont été introduites et couplées à la résolution des équations de Navier-Stokes. Différentes simulations numériques sont présentées pour illustrer lefficacité et la robustesse de l’algorithme. Les résultats numériques présentés attestent de la validité et lefficacité des méthodes numériques développées.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Parmi les méthodes les plus utilisées en inspection embarquée des structures (Structural Health Monitoring ou SHM), les techniques d’imagerie basées sur un modèle de propagation sont de plus en plus répandues. Pour les techniques d'imagerie basées sur un modèle de propagation, bien que ces techniques montent en popularité, la complexité des matériaux composites réduit grandement leur performance en détection d'endommagements comparativement aux démonstrations précédentes de leur potentiel sur des matériaux isotropes. Cette limitation dépend entre autres des hypothèses simplificatrices souvent posées dans les modèles utilisés et peut entraîner une augmentation des faux positifs et une réduction de la capacité de ces techniques à détecter des endommagements. Afin de permettre aux techniques d'imagerie basées sur un modèle d'offrir une performance équivalente à celle obtenue précédemment sur les structures métalliques, il est nécessaire d'exploiter des modèles de propagation considérant la dynamique complexe des ondes dans ce type de structures. Cette thèse présente les travaux effectués sur la modélisation de la propagation des ondes guidées dans les matériaux composites. En première partie, une amélioration simple des modèles de génération et de propagation est proposée afin de permettre de mieux reconstruire les signaux générés et propagés sur une structure composite. Par la suite, le potentiel de la technique « Excitelet » à détecter et positionner adéquatement un ou plusieurs endommagements sur un matériau, peu importe son empilement (d’un composite unidirectionnel à un matériau isotrope), est démontré tant pour le mode A[indice inférieur 0] que le mode S[indice inférieur 0]. Les résultats obtenus numériquement et expérimentalement démontrent une corrélation directe entre l'amélioration des modèles mathématiques derrière les techniques d'imagerie et la robustesse des techniques pour ce qui est de la précision sur le positionnement du dommage et du niveau de corrélation obtenu. Parmi les améliorations à la technique d'imagerie « Excitelet » proposées, une amélioration significative des résultats en imagerie est démontrée en considérant la distribution de cisaillement plan sous l’émetteur, ce qui est une nouveauté par rapport aux travaux de recherche précédents en imagerie. La performance de la technique d'imagerie via la modélisation de la propagation d'ondes guidées dans les laminés multicouches transverses isotropes est par la suite démontrée. Les équations de llasticité en 3D sont utilisées pour bien modéliser le comportement dispersif des ondes dans les composites, et cette formulation est par la suite implantée dans la technique d'imagerie « Excitelet ». Les résultats démontrent que l'utilisation d'une formulation mathématique plus avancée permet d'augmenter la précision quant au positionnement des dommages et à l'amplitude de la corrélation obtenue lors de la détection d'un dommage. Une analyse exhaustive de la sensibilité de la technique d’imagerie et de la propagation d’ondes aux conditions environnementales et à la présence de revêtement sur la structure est présentée en dernière partie. Les résultats obtenus montrent que la considération de la propagation complexe dans la formulation d’imagerie ainsi que la caractérisation des propriétés mécaniques « a priori » de l’imagerie améliorent la robustesse de la technique et confèrent à la technique « Excitelet » la capacité de détecter et positionner précisément un endommagement, peu importe le type de structure.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Cette thèse s’inscrit dans le contexte d’une optimisation industrielle et économique des éléments de structure en BFUP permettant d’en garantir la ductilité au niveau structural, tout en ajustant la quantité de fibres et en optimisant le mode de fabrication. Le modèle développé décrit explicitement la participation du renfort fibré en traction au niveau local, en enchaînant une phase de comportement écrouissante suivie d’une phase adoucissante. La loi de comportement est fonction de la densité, de l’orientation des fibres vis-à-vis des directions principales de traction, de leur élancement et d’autres paramètres matériaux usuels liés aux fibres, à la matrice cimentaire et à leur interaction. L’orientation des fibres est prise en compte à partir d’une loi de probabilité normale à une ou deux variables permettant de reproduire n’importe quelle orientation obtenue à partir d’un calcul représentatif de la mise en oeuvre du BFUP frais ou renseignée par analyse expérimentale sur prototype. Enfin, le modèle reproduit la fissuration des BFUP sur le principe des modèles de fissures diffuses et tournantes. La loi de comportement est intégrée au sein d’un logiciel de calcul de structure par éléments finis, permettant de l’utiliser comme un outil prédictif de la fiabilité et de la ductilité globale d’éléments en BFUP. Deux campagnes expérimentales ont été effectuées, une à l’Université Laval de Québec et l’autre à l’Ifsttar, Marne-la-Vallée. La première permet de valider la capacité du modèle reproduire le comportement global sous des sollicitations typiques de traction et de flexion dans des éléments structurels simples pour lesquels l’orientation préférentielle des fibres a été renseignée par tomographie. La seconde campagne expérimentale démontre les capacités du modèle dans une démarche d’optimisation, pour la fabrication de plaques nervurées relativement complexes et présentant un intérêt industriel potentiel pour lesquels différentes modalités de fabrication et des BFUP plus ou moins fibrés ont été envisagés. Le contrôle de la répartition et de l’orientation des fibres a été réalisé à partir d’essais mécaniques sur prélèvements. Les prévisions du modèle ont été confrontées au comportement structurel global et à la ductilité mis en évidence expérimentalement. Le modèle a ainsi pu être qualifié vis-à-vis des méthodes analytiques usuelles de l’ingénierie, en prenant en compte la variabilité statistique. Des pistes d’amélioration et de complément de développement ont été identifiées.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

La Maison de l’Inde et le comptoir de Flandre sont à l’origine de règles spécifiques dont on ne trouve pas d’équivalent dans les traités d’arithmétique des autres pays. La règle d’un quart et un vingtième correspond à un prélèvement d’un quart plus un vingtième des trois quarts restants, c'est-à-dire 1/4+1/20×3/4=23/80 de la quantité initiale. La règle des comptes de Flandre correspond à une formule de conversion. Dans cette session, nous proposons une introduction à ces règles spécifiques du commerce des épices au Portugal à l'époque de la Renaissance, en tenant compte de l'interaction entre les Mathématiques, l'Histoire et l'introduction de la mentalité quantitative pour la modélisation du réel.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

D’abord, nous présentons les principes physiques nous permettant de modéliser et comprendre le phénomène de propagation linéaire des impulsions lumineuses dans un milieu homogène, dans les guides d’ondes planaires et enfin dans les fibres optiques microstructurées. Ensuite, nous faisons une analyse mathématique rigoureuse des équations linéaires de propagation et posons le problème comme celui de la recherche de valeurs propres d’opérateurs auto-adjoints dans un espace de Hilbert. On verra que ces résultats théoriques s’appliquent aux équations simulées dans le logiciel Comsol Multiphysics. Enfin, nous recensons et proposons différentes façons de prédire les valeurs de dispersion chromatique et d’atténuation dans les fibres microstructurées à coeur suspendu en utilisant les notions et équations discutés dans les deux premiers chapitres. Le choix de la géométrie, du matériau et de la longueur d’onde de la lumière transmise sont parmi les variables étudiées numériquement. Nous ferons également un exemple détaillé d’utilisation du logiciel Comsol Multiphysics pour construire un modèle de fibre optique microstructurée.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Les modèles incrémentaux sont des modèles statistiques qui ont été développés initialement dans le domaine du marketing. Ils sont composés de deux groupes, un groupe contrôle et un groupe traitement, tous deux comparés par rapport à une variable réponse binaire (le choix de réponses est « oui » ou « non »). Ces modèles ont pour but de détecter leffet du traitement sur les individus à l’étude. Ces individus n’étant pas tous des clients, nous les appellerons : « prospects ». Cet effet peut être négatif, nul ou positif selon les caractéristiques des individus composants les différents groupes. Ce mémoire a pour objectif de comparer des modèles incrémentaux d’un point de vue bayésien et d’un point de vue fréquentiste. Les modèles incrémentaux utilisés en pratique sont ceux de Lo (2002) et de Lai (2004). Ils sont initialement réalisés d’un point de vue fréquentiste. Ainsi, dans ce mémoire, l’approche bayésienne est utilisée et comparée à l’approche fréquentiste. Les simulations sont e ectuées sur des données générées avec des régressions logistiques. Puis, les paramètres de ces régressions sont estimés avec des simulations Monte-Carlo dans l’approche bayésienne et comparés à ceux obtenus dans l’approche fréquentiste. Lestimation des paramètres a une influence directe sur la capacité du modèle à bien prédire leffet du traitement sur les individus. Nous considérons l’utilisation de trois lois a priori pour lestimation des paramètres de façon bayésienne. Elles sont choisies de manière à ce que les lois a priori soient non informatives. Les trois lois utilisées sont les suivantes : la loi bêta transformée, la loi Cauchy et la loi normale. Au cours de l’étude, nous remarquerons que les méthodes bayésiennes ont un réel impact positif sur le ciblage des individus composant les échantillons de petite taille.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Ce mémoire traite la modélisation et la validation expérimentale du bruit d’un silencieux de motoneige. La première phase du projet consiste à modéliser numériquement le système d’échappement avec les méthodes numériques suivantes : éléments finis et éléments finis de frontière, afin d’évaluer ses performances acoustiques : perte par transmission, bruit de bouche et bruit de paroi. Une deuxième phase du projet consiste à valider expérimentalement les performances acoustiques calculées numériquement. La dernière phase du projet se consacrera à une étude paramétrique expérimentale d’un silencieux sur banc moteur. En conclusion, les résultats des modèles numériques mis en œuvre concordent bien avec les résultats expérimentaux. Cependant, les aspects non linéaires rencontrés à la dernière phase du projet n’ont pas été étudiés davantage.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Total CO2 of brackish water (Ebrié lagoon) is measured with a simple method: degassing and trapping CO2 in NaOh solution, the conductivity of which is a function of the trapped CO2 quantity. A relation CO2 versus salinity is deduced; it is nearly the same as the one deduced from CO2 measurements performed from alkalinity. Dissolved organic C is evaluated with a CHN analyser by evaporating 0.5 ml of acidified sample. Variation coefficient is near 10% for the lagoon values.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Methods for the estimation of zooplankton biomasses, used in the Oceanographic Research Center of Abidjan are presented. They deal with settled and displacement volumes, dry weight and ash-free dry weight, elementary carbon, nitrogen and phosphorus composition. The dry weight method is detailed: elimination of salt by a fresh water stream, preservation of dry samples at -20 degrees Celsius, rehydration during weighing. A few comments on the 'CHN' analysed values are made: at 1,100 degrees Celsius, most of the carbon is organic, only 10% of the mineral fraction being analysed.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Cette étude de cas analyse l'intervention éducative d'un enseignant du primaire qui a mis en oeuvre un dispositif didactique et pédagogique intégrant de façon systématique l'informatique scolaire à une pédagogie du projet dans le but de mieux répondre aux besoins liés à l'apprentissage d'élèves provenant d'un milieu socioéconomiquement faible.Cette étude longitudinale (1998-2001) fait ressortir l'impact de l'agir professionnel sur la réussite scolaire. La problématique de notre recherche s'inscrit dans la foulée de la réforme en cours, dont l'une des visées est de contrer le retard scolaire au primaire et le risque d'échec et d'abandon scolaire précoce au secondaire. Quatre dimensions éclairent l'implémentation du dispositif: l'équité sociale, les changements épistémologiques, une orientation vers la socialisation et lele des TIC pour soutenir le développement des compétences transversales. Le cadre conceptuel s'appuie sur une perspective socioconstructiviste cohérente avec la théorie de l'anthropologie culturelle de Vygotsky (1978) pour qui l'apprentissage ne se fait pas seul, mais avec l'aide de pairs plus avancés en contexte de cognition située. La médiation de l'enseignant, par sa réflexion en action , en synchronie avec les besoins immédiats de ses élèves, établit le lien entre enseignant et apprenants, pour qu'ils puissent développer un esprit d'initiative, ainsi que la responsabilité et l'autonomie pour assumer leurs apprentissages. Une méthodologie mixte interreliant des méthodes qualitatives et quantitatives a exigé un recueil de données sur des dimensions descriptives et évaluatives. Des données de deuxième ordre, issues d'une recherche FCAR (98-NT-004), ont permis de dégager des caractéristiques spécifiques à la planification, à la gestion de classe et aux comportements de l'"enseignant-cible" en contexte de pédagogie du projet. Les résultats obtenus par les 23 élèves aux examens sommatifs de 6e année témoignent de l'efficacité de l'intervention. La présente étude pourrait avoir des retombées en tant que modèle pour d'autres chercheurs intéressés à étudier l'impact des TIC comme matériel didactique. Sur le plan de la pratique, ce type d'intervention serait un moyen efficace pour contrer lecrochage scolaire chez les élèves en mobilisant leurs capacités de s'adapter avec succès à leur environnement, malgré les facteurs de risque qui pourraient les inhiber.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Le développement de curriculums moins cloisonnés a fait l'objet des récentes réformes scolaires de plusieurs systèmes éducatifs à travers le monde. Au Québec plus particulièrement, l'interdisciplinarité constitue l'une des principales orientations du Programme de formation de lcole québécoise (Gouvernement du Québec, 2001, 2004, 2007). Si au Québec la question de l'interdisciplinarité abordée sous l'angle des représentations des enseignants a fait l'objet de nombreuses explorations au primaire (Larose, Hasni et Lebrun, 2008; Larose et Lenoir, 1995; Lenoir, Geoffroy et Hasni, 2001; Lenoir, Larose, Grenon et Hasni, 2000; Lenoir, Larose et Laforest, 2001), elle a été très peu explorée au secondaire, plus particulièrement dans le domaine des sciences, technologies et mathématiques. Ce mémoire répond à la question : Quelle compréhension de l'interdisciplinarité se dégage du discours d'enseignants de STM du secondaire et à quelles pratiques de l'interdisciplinarité disent-ils recourir?Le cadre conceptuel a été construit autour du concept de l'interdisciplinarité scolaire (Lenoir et Sauvé, 1998), qu'il a été possible de discuter autour de quatre dimensions permettant de mieux en décrire les pratiques ciblant les dimensions conceptuelle, des finalités, opérationnelle et organisationnelle (Hasni, Lenoir, Larose, Samson, Bousadra et Satiro dos Santos, 2008). Nous avons recouru à une analyse de contenu (Bardin, 2007) afin de dégager le discours des enseignants à l'égard de celles-ci.