477 resultados para Méthode des contours


Relevância:

40.00% 40.00%

Publicador:

Resumo:

Les films de simulations qui accompagnent le document ont été réalisés avec Pymol.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

40.00% 40.00%

Publicador:

Resumo:

L’utilisation d’une méthode d’assimilation de données, associée à un modèle de convection anélastique, nous permet la reconstruction des structures physiques d’une partie de la zone convective située en dessous d’une région solaire active. Les résultats obtenus nous informent sur les processus d’émergence des tubes de champ magnétique au travers de la zone convective ainsi que sur les mécanismes de formation des régions actives. Les données solaires utilisées proviennent de l’instrument MDI à bord de l’observatoire spatial SOHO et concernent principalement la région active AR9077 lors de l’ ́évènement du “jour de la Bastille”, le 14 juillet 2000. Cet évènement a conduit à l’avènement d’une éruption solaire, suivie par une importante éjection de masse coronale. Les données assimilées (magnétogrammes, cartes de températures et de vitesses verticales) couvrent une surface de 175 méga-mètres de coté acquises au niveau photosphérique. La méthode d’assimilation de données employée est le “coup de coude direct et rétrograde”, une méthode de relaxation Newtonienne similaire à la méthode “quasi-linéaire inverse 3D”. Elle présente l’originalité de ne pas nécessiter le calcul des équations adjointes au modèle physique. Aussi, la simplicité de la méthode est un avantage numérique conséquent. Notre étude montre au travers d’un test simple l’applicabilité de cette méthode à un modèle de convection utilisé dans le cadre de l’approximation anélastique. Nous montrons ainsi l’efficacité de cette méthode et révélons son potentiel pour l’assimilation de données solaires. Afin d’assurer l’unicité mathématique de la solution obtenue nous imposons une régularisation dans tout le domaine simulé. Nous montrons enfin que l’intérêt de la méthode employée ne se limite pas à la reconstruction des structures convectives, mais qu’elle permet également l’interpolation optimale des magnétogrammes photosphériques, voir même la prédiction de leur évolution temporelle.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

L’instrument le plus fréquemment utilisé pour la mesure de l’amplitude de mouvement du coude est le goniomètre universel. Or celui-ci ne fait pas l’unanimité : plusieurs auteurs remettent en question sa fiabilité et validité. Cette étude détaille donc, en trois étapes, une alternative beaucoup plus précise et exacte : une méthode radiographique de mesure. Une étude de modélisation a d’abord permis de repérer les sources d’erreur potentielles de cette méthode radiographique, à ce jour jamais utilisée pour le coude. La méthode a ensuite servi à évaluer la validité du goniomètre. À cette fin, 51 volontaires ont participé à une étude clinique où les deux méthodes ont été confrontées. Finalement, la mesure radiographique a permis de lever le voile sur l’influence que peuvent avoir différents facteurs démographiques sur l’amplitude de mouvement du coude. La méthode radiographique s’est montrée robuste et certaines sources d’erreurs facilement évitables ont été identifiées. En ce qui concerne l’étude clinique, l’erreur de mesure attribuable au goniomètre était de ±10,3° lors de la mesure du coude en extension et de ±7,0° en flexion. L’étude a également révélé une association entre l’amplitude de mouvement et différents facteurs, dont les plus importants sont l’âge, le sexe, l’IMC et la circonférence du bras et de l’avant-bras. En conclusion, l’erreur du goniomètre peut être tolérée en clinique, mais son utilisation est cependant déconseillée en recherche, où une erreur de mesure de l’ordre de 10° est inacceptable. La méthode radiographique, étant plus précise et exacte, représente alors une bien meilleure alternative.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Dans cette thèse, nous présentons une nouvelle méthode smoothed particle hydrodynamics (SPH) pour la résolution des équations de Navier-Stokes incompressibles, même en présence des forces singulières. Les termes de sources singulières sont traités d'une manière similaire à celle que l'on retrouve dans la méthode Immersed Boundary (IB) de Peskin (2002) ou de la méthode régularisée de Stokeslets (Cortez, 2001). Dans notre schéma numérique, nous mettons en oeuvre une méthode de projection sans pression de second ordre inspirée de Kim et Moin (1985). Ce schéma évite complètement les difficultés qui peuvent être rencontrées avec la prescription des conditions aux frontières de Neumann sur la pression. Nous présentons deux variantes de cette approche: l'une, Lagrangienne, qui est communément utilisée et l'autre, Eulerienne, car nous considérons simplement que les particules SPH sont des points de quadrature où les propriétés du fluide sont calculées, donc, ces points peuvent être laissés fixes dans le temps. Notre méthode SPH est d'abord testée à la résolution du problème de Poiseuille bidimensionnel entre deux plaques infinies et nous effectuons une analyse détaillée de l'erreur des calculs. Pour ce problème, les résultats sont similaires autant lorsque les particules SPH sont libres de se déplacer que lorsqu'elles sont fixes. Nous traitons, par ailleurs, du problème de la dynamique d'une membrane immergée dans un fluide visqueux et incompressible avec notre méthode SPH. La membrane est représentée par une spline cubique le long de laquelle la tension présente dans la membrane est calculée et transmise au fluide environnant. Les équations de Navier-Stokes, avec une force singulière issue de la membrane sont ensuite résolues pour déterminer la vitesse du fluide dans lequel est immergée la membrane. La vitesse du fluide, ainsi obtenue, est interpolée sur l'interface, afin de déterminer son déplacement. Nous discutons des avantages à maintenir les particules SPH fixes au lieu de les laisser libres de se déplacer. Nous appliquons ensuite notre méthode SPH à la simulation des écoulements confinés des solutions de polymères non dilués avec une interaction hydrodynamique et des forces d'exclusion de volume. Le point de départ de l'algorithme est le système couplé des équations de Langevin pour les polymères et le solvant (CLEPS) (voir par exemple Oono et Freed (1981) et Öttinger et Rabin (1989)) décrivant, dans le cas présent, les dynamiques microscopiques d'une solution de polymère en écoulement avec une représentation bille-ressort des macromolécules. Des tests numériques de certains écoulements dans des canaux bidimensionnels révèlent que l'utilisation de la méthode de projection d'ordre deux couplée à des points de quadrature SPH fixes conduit à un ordre de convergence de la vitesse qui est de deux et à une convergence d'ordre sensiblement égale à deux pour la pression, pourvu que la solution soit suffisamment lisse. Dans le cas des calculs à grandes échelles pour les altères et pour les chaînes de bille-ressort, un choix approprié du nombre de particules SPH en fonction du nombre des billes N permet, en l'absence des forces d'exclusion de volume, de montrer que le coût de notre algorithme est d'ordre O(N). Enfin, nous amorçons des calculs tridimensionnels avec notre modèle SPH. Dans cette optique, nous résolvons le problème de l'écoulement de Poiseuille tridimensionnel entre deux plaques parallèles infinies et le problème de l'écoulement de Poiseuille dans une conduite rectangulaire infiniment longue. De plus, nous simulons en dimension trois des écoulements confinés entre deux plaques infinies des solutions de polymères non diluées avec une interaction hydrodynamique et des forces d'exclusion de volume.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

L’analyse biomécanique du mouvement humain en utilisant des systèmes optoélectroniques et des marqueurs cutanés considère les segments du corps comme des corps rigides. Cependant, le mouvement des tissus mous par rapport à l'os, c’est à dire les muscles et le tissu adipeux, provoque le déplacement des marqueurs. Ce déplacement est le fait de deux composantes, une composante propre correspondant au mouvement aléatoire de chaque marqueur et une composante à l’unisson provoquant le déplacement commun des marqueurs cutanés lié au mouvement des masses sous-jacentes. Si nombre d’études visent à minimiser ces déplacements, des simulations ont montré que le mouvement des masses molles réduit la dynamique articulaire. Cette observation est faite uniquement par la simulation, car il n'existe pas de méthodes capables de dissocier la cinématique des masses molles de celle de l’os. L’objectif principal de cette thèse consiste à développer une méthode numérique capable de distinguer ces deux cinématiques. Le premier objectif était d'évaluer une méthode d'optimisation locale pour estimer le mouvement des masses molles par rapport à l’humérus obtenu avec une tige intra-corticale vissée chez trois sujets. Les résultats montrent que l'optimisation locale sous-estime de 50% le déplacement des marqueurs et qu’elle conduit à un classement de marqueurs différents en fonction de leur déplacement. La limite de cette méthode vient du fait qu'elle ne tient pas compte de l’ensemble des composantes du mouvement des tissus mous, notamment la composante en unisson. Le second objectif était de développer une méthode numérique qui considère toutes les composantes du mouvement des tissus mous. Plus précisément, cette méthode devait fournir une cinématique similaire et une plus grande estimation du déplacement des marqueurs par rapport aux méthodes classiques et dissocier ces composantes. Le membre inférieur est modélisé avec une chaine cinématique de 10 degrés de liberté reconstruite par optimisation globale en utilisant seulement les marqueurs placés sur le pelvis et la face médiale du tibia. L’estimation de la cinématique sans considérer les marqueurs placés sur la cuisse et le mollet permet d'éviter l’influence de leur déplacement sur la reconstruction du modèle cinématique. Cette méthode testée sur 13 sujets lors de sauts a obtenu jusqu’à 2,1 fois plus de déplacement des marqueurs en fonction de la méthode considérée en assurant des cinématiques similaires. Une approche vectorielle a montré que le déplacement des marqueurs est surtout dû à la composante à l’unisson. Une approche matricielle associant l’optimisation locale à la chaine cinématique a montré que les masses molles se déplacent principalement autour de l'axe longitudinal et le long de l'axe antéro-postérieur de l'os. L'originalité de cette thèse est de dissocier numériquement la cinématique os de celle des masses molles et les composantes de ce mouvement. Les méthodes développées dans cette thèse augmentent les connaissances sur le mouvement des masses molles et permettent d’envisager l’étude de leur effet sur la dynamique articulaire.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Douze contaminants émergents (composés pharmaceutiques, pesticides et hormones) ont été quantifiés et extraits de l'eau de rivières et d’échantillons d'eaux usées municipales. La séparation des solides en suspension est effectuée par filtration des échantillons d'eau. L'effet de filtration sur les concentrations de contaminants dissous a été évaluée afin de minimiser les pertes de composés cibles. Les échantillons ont été lyophilisés et ont été extraits en deux cycles par ultrasons combinés avec une étape de nettoyage sur cartouche d’extraction de type C18. La quantification a été réalisée en utilisant la spectrométrie de masse. Les recouvrements de la méthode pour tous les composés ont varié de 68 à 112% dans toutes les matrices étudiées, sauf pour le sulfaméthoxazole et le diclofénac où des recouvrements plus modestes ont été obtenus (38 à 85%). Les limites de détection pour les 12 analytes dans les sédiments et particules en suspension (SPM) de la rivière variaient de 0,7 à 9,4 ng g-1 et de 21 à 92 ng g-1, pour les échantillons SPM de station d'épuration. Tous les contaminants émergents cibles ont été détectés à des concentrations variant de 3 à 5440 ng g-1 dans les matrices étudiées, les concentrations les plus élevées ont été observées dans les échantillons SPM de stations d'épuration. Une partie importante de certains de ces contaminants est clairement associée aux sédiments de rivière ou aux particules en suspension. L’optimisation des processus de traitement de l'eau et le devenir environnemental doit absolument tenir compte de la fraction de contaminants qui liée à des particules si on espère avoir un bilan de masse raisonnable.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

L’action humaine dans une séquence vidéo peut être considérée comme un volume spatio- temporel induit par la concaténation de silhouettes dans le temps. Nous présentons une approche spatio-temporelle pour la reconnaissance d’actions humaines qui exploite des caractéristiques globales générées par la technique de réduction de dimensionnalité MDS et un découpage en sous-blocs afin de modéliser la dynamique des actions. L’objectif est de fournir une méthode à la fois simple, peu dispendieuse et robuste permettant la reconnaissance d’actions simples. Le procédé est rapide, ne nécessite aucun alignement de vidéo, et est applicable à de nombreux scénarios. En outre, nous démontrons la robustesse de notre méthode face aux occultations partielles, aux déformations de formes, aux changements d’échelle et d’angles de vue, aux irrégularités dans l’exécution d’une action, et à une faible résolution.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Plusieurs tests médicaux, comme celui du dépistage du cancer du sein, se basent sur l’observation de section tissulaire sous un microscope. Ces tests se basent sur l’interprétation d’un spécialiste et les résultats peuvent varier d’un expert à un autre dû la subjectivité des observations. L’utilisation d’une technique analytique offrant une quantification et une identification de cibles moléculaires dans une section tissulaire permettrait aux experts de produire des diagnostics plus objectifs et diminuerait possiblement le nombre de faux diagnostics. Les travaux présentés dans ce mémoire portent sur le développement d’une technique SPRi-MALDI-IMS permettant l’imagerie en deux dimensions de protéines contenues dans une section tissulaire. La MALDI-IMS est la technique de choix pour l’imagerie de biomolécules dans les sections tissulaires. Par contre, elle ne parvient pas à elle seule à quantifier de façon absolue le matériel adsorbé à la surface. Donc, le couplage de la MALDI-IMS avec la SPRi permet la quantification absolue de protéines en deux dimensions et crée une technique répondant aux besoins des experts médicaux. Pour ce faire, nous avons étudié, l’effet de la chimie de surface sur la nature et la quantité de matériel adsorbé à la surface du capteur. De plus, la cinétique de transfert des protéines du tissu vers le capteur a dû être optimisée afin de produire des empreintes correspondant au tissu d’origine, afin d’atteindre la gamme dynamique des instruments SPRi et MALDI-IMS. La technique résultante de ces optimisations permet d’obtenir les premières images quantitatives et qualitatives de protéines en deux dimensions d’une seule section tissulaire.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Les neurones dopaminergiques (DA) de la substance noire compacte (SNc) et de l’aire tegmentaire ventrale (ATV) développent des contacts de type synaptique et non synaptique. Malgré de nombreux travaux sur la synaptogénèse en général, aucune méthode autre que la microscopie électronique, n’a été développée pour quantifier les varicosités synaptiques et asynaptiques issues des neurones DA. L’objectif principal de ce projet était de développer une méthode d’analyse et de quantification des varicosités synaptiques et asynaptiques des neurones DA. L’hypothèse proposée est qu’il devait être possible de détecter la présence de synapses en visualisant la colocalisation d’une protéine présynaptique telle que synaptotagmine 1 (SYT1) avec un marqueur post-synaptique tel que la postsynaptic density protein 95 (PSD95). Pour ce faire, nous avons préparé des cultures primaires de neurones DA à l’aide d’une lignée de souris transgéniques exprimant la protéine fluorescente verte (GFP) sous le contrôle du promoteur de la tyrosine hydroxyalse (TH). Nous avons ensuite visualisé les terminaisons axonales à l'aide de marquages immunocytochimiques de protéines pré et post-synaptiques. L’analyse quantitative des images a été effectuée avec le logiciel de traitement d’image Image-J. Nos résultats montrent que, via l’association d’un marqueur présynaptique tel que SYT1 avec un marqueur postsynaptique tel que PSD95, seule une minorité des terminaisons établies par les neurones DA sont de type synaptique. En contraste, des neurones glutamatergiques du cortex, établissent une majorité de terminaisons associées à un marqueur postsynaptique. Nos résultats valident donc la mise en place d'une technique d'analyse permettant de quantifier la proportion de terminaisons synaptiques et asynaptiques établies par les neurones DA.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

L’herméneutique de Gadamer s’inscrit-elle dans la foulée de la critique heideggérienne de la métaphysique ? Devrait-on, par surcroit, la considérer comme une forme de nihilisme, où l’être serait réduit au langage et partant, à la pluralité des interprétations ? La présente étude vise plutôt à montrer, sous la conduite des indications de Gadamer lui-même, qu’il est impératif de reconnaître à son maître-ouvrage une dimension métaphysique certaine et cruciale et dont la portée consiste précisément à s’opposer aux interprétations nihiliste et nominaliste de notre rapport à l’être. Pour ce faire il sera d’abord établi que le concept d’appartenance (Zugehörigkeit) est le maître-concept de Vérité et méthode, comme l’avait vu Ricoeur, puis comment Gadamer rattache explicitement celui-ci à la métaphysique médiévale des transcendantaux, métaphysique qui demeure visible jusque dans les dernières conclusions de l’ouvrage qui traitent de la métaphysique de la lumière (Lichtmetaphysik). Nous verrons que c’est précisément à la lumière de cette proximité constante avec la métaphysique des transcendantaux qu’il faut comprendre la thèse de Gadamer à l’effet que l’être susceptible d’être compris est langage, de manière à y voir une affirmation soutenue de l’intelligibilité de l’être, comme l’avait d’ailleurs saisi Heidegger lui-même. Notre intention est ainsi de rendre perceptibles les sources et le cadre de cette métaphysique des transcendantaux, qui ont été négligés dans la réception de Gadamer. Nous porterons donc notre regard sur les sources médiévales de sa pensée que Gadamer connaît et commente, soit Thomas d’Aquin et Nicolas de Cues, mais aussi sur des auteurs moins connus de la tradition herméneutique, dont Philippe le Chancelier, auteur indispensable lorsqu’il s’agit de traiter de la métaphysique des transcendantaux à laquelle Gadamer se réfère. Cette enquête nous amènera à démontrer comment l’herméneutique de Gadamer s’inscrit dans la conception traditionnelle de la vérité comme adaequatio rei et intellectus, définition dont nous devons surtout à Thomas de l’avoir léguée à la postérité mais qu’ont aussi reprise les modernes, incluant Kant et Heidegger. C’est ainsi une nouvelle lecture du rapport de Gadamer à son maître Heidegger et à sa critique de la métaphysique qui résultera de cette archéologie des sources métaphysiques du concept d’appartenance ; il sera en effet démontré que l’héritage de Gadamer est à comprendre, de son propre aveu, en continuité et non en rupture avec la métaphysique. Enfin, fidèle à l’esprit herméneutique de l’application, nous éprouverons cette compréhension renouvelée du concept d’appartenance à l’aune d’une discussion de nature plus théologique, de manière à jeter un éclairage nouveau sur la fécondité de l’herméneutique gadamérienne dans le contexte de la théologie moderne. C’est ainsi que le concept de foi, compris habituellement dans le cadre imposé par la métaphysique moderne de la subjectivité qui le réduit à une « croyance » ou à un « choix personnel », sera mis à l’épreuve du tournant ontologique pris par l’herméneutique avec Gadamer et qui incite à dépasser la dichotomie entre le sujet et son objet en pensant le sujet à partir de l’être. C’est une compréhension de la foi comme appartenance, au sens précis que Gadamer donne à ce concept, qui sera ici mise au jour.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Ce texte examine la méthode axiomatique durant la période de l’histoire des mathématiques correspondant à la crise des fondements. Il a pour objectif de montrer que la méthode axiomatique changea, mais aussi de comprendre la nature de ces changements. À cette fin, les conceptions de Frege, Hilbert et Noether sont analysées.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Ce mémoire a pour but de déterminer des nouvelles méthodes de détection de rupture et/ou de tendance. Après une brève introduction théorique sur les splines, plusieurs méthodes de détection de rupture existant déjà dans la littérature seront présentées. Puis, de nouvelles méthodes de détection de rupture qui utilisent les splines et la statistique bayésienne seront présentées. De plus, afin de bien comprendre d’où provient la méthode utilisant la statistique bayésienne, une introduction sur la théorie bayésienne sera présentée. À l’aide de simulations, nous effectuerons une comparaison de la puissance de toutes ces méthodes. Toujours en utilisant des simulations, une analyse plus en profondeur de la nouvelle méthode la plus efficace sera effectuée. Ensuite, celle-ci sera appliquée sur des données réelles. Une brève conclusion fera une récapitulation de ce mémoire.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Ce mémoire a pour objet la mise à l’essai d’une séquence d’apprentissage intégrant des chansons comme sources primaires pour développer la compétence 2– interpréter la réalité sociale à l’aide de la méthode historique. Le ministère de l’Éducation du Québec et les écrits scientifiques (Côté, 2008; LENOIR et SAUVÉ, 2010; Turner-Bisset, 2001) s’attendent à ce que l’élève terminant ses études secondaires raisonne à partir de faits tirés des sources qui lui sont accessibles, notamment des sources primaires. Or, on constate trois lacunes dans la pratique enseignante : le petit nombre de sources travaillées, l’inégalité de leurs interprétations et la faiblesse de leurs critiques (Byrom, 2005; Pickles, 2010; Watson, 1998). Aussi, peu de cas utilisent la chanson comme source primaire. La séquence d’apprentissages sur la Deuxième Guerre mondiale que l’enseignante française Sylvaine Moreau (2012) a rendue disponible sur Internet a donc servi de point de départ à cette mise à l’essai afin de comprendre ce qu’il en est. Comme il y a un aller-retour régulier prévu entre l’adaptation du matériel pédagogique au contexte scolaire québécois et les observations en classe c’est la recherche-développement qui semble l’approche la plus efficace (Artigue, 1989; Harvey et Loiselle, 2009). Quatre enseignants montréalais ont accepté une entrevue avec l’auteure de cette recherche. Ils ont adapté le matériel au contexte scolaire, ils ont été observés en classe et les réponses écrites des élèves ont été analysées grâce, notamment, au programme N’Vivo. En explorant les données qualitatives recueillies, on constate le petit nombre de sources travaillées puisque les réponses ne reprennent que ce qui a été vu en classe, priorisant même certains types de sources. La faiblesse des critiques est criante puisque des étapes jugées « inutiles » par certains élèves sont laissées incomplètes. Finalement, l’auteure remarque l’inégalité des interprétations liée à une barrière de niveau de langue. Les métaphores et le vocabulaire de certaines chansons semblent un défi.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Une des questions les plus débattues dans le domaine de l’éthique en ce XXIème siècle entre l’Afrique et le monde occidental concerne le respect de l’intégrité physique des femmes. Parmi les actions humaines qui touchent le plus l’intégrité corporelle, les excisions et les infibulations sont les plus dénoncées en Afrique. Longtemps considérées comme des rites d’initiation pubertaire des filles, ces pratiques sont maintenant considérées comme néfastes à la santé, et communément désignées par la communauté internationale de « mutilations sexuelles féminines ». Au cours des dernières décennies, ces pratiques ont été progressivement interdites légalement tant dans la plupart des pays d’Afrique que dans les pays occidentaux. Le Comité Inter-Africain (CIAF) contre les mutilations sexuelles demande la « tolérance zéro » par rapport à ces pratiques. La communauté internationale les combat avec des armes juridiques, en se référant aux conséquences médicales et aux droits de l’homme. Notre thèse est née d’une interrogation sur les raisons pour lesquelles ces rites se poursuivent encore en Afrique et plus spécialement au Mali, alors que dans les pays occidentaux, on élève fortement la voix pour les dénoncer comme sévices infligés aux femmes. Sur le plan international, on hésite à imposer des valeurs universelles à un phénomène perçu dans une large mesure comme une tradition conforme aux normes sociales des communautés qui les maintiennent. Afin de mieux cerner le sujet, notre questionnement a été le suivant : « Comment les pratiques culturelles des excisions et des infibulations, dans la ville de Bamako au Mali, interpellent-elles l’éthique : en quoi l’analyse de ces rites constitue-t-elle un domaine légitime d’application des principes de la bioéthique ? » Notre réflexion part du postulat que la dignité humaine est une norme à l’aune de laquelle se mesurent les défis éthiques liés à ces rites. Un proverbe Bambara dit ceci : « Une seule main ne lave pas proprement un éléphant ». La logique de cette sagesse met en évidence qu’une seule approche disciplinaire ne saurait faire ressortir les enjeux éthiques de ces pratiques. Notre analyse bioéthique se veut une démarche interdisciplinaire, qui permet d’articuler les approches philosophiques, anthropologiques, sociologiques et biomédicales de ces pratiques. Le premier chapitre, à travers la revue des écrits, présente la problématique de ces rites. Le deuxième chapitre présente le cadre théorique basé sur la notion de dignité humaine et délimite « ses contours, ses sources, ses formes et ses conséquences » afin de la rendre plus efficace et opérationnelle comme moyen de protection de l’être humain. Le troisième chapitre présente la méthodologie de la recherche basée sur la méthode qualitative et l’induction analytique et décrit le contexte de l’étude. Le quatrième chapitre présente les résultats de la recherche qui font ressortir que ces pratiques se résument essentiellement au contrôle du désir sexuel féminin. Ces pratiques sont par ailleurs déritualisées, touchent de plus en plus des enfants, comportent des risques et des conséquences sur la santé avec des coûts humains et financiers pour la société. Le cinquième chapitre analyse ces pratiques avec les principes éthiques qui démontrent qu’elles constituent un problème de santé publique malgré leur caractère culturel. Enfin, le sixième chapitre présente la portée et la limite de la thèse. Celle-ci montre qu’il est possible de mener un débat sur les excisions et les infibulations à travers une éthique de discussion. Elle offre un moyen pour y parvenir avec une vision de la notion de dignité humaine comme une « valeur éthique universelle » susceptible d’être utilisée dans toutes les actions impliquant l’être humain et dans tous les contextes socio-culturels. Notre démarche élargit ainsi le champ d’application des principes bioéthiques à des pratiques non-médicales. Par cette thèse, nous souhaitons contribuer à enrichir la réflexion éthique sur les excisions et les infibulations et inspirer les politiques de santé publique dans le respect des diversités culturelles. Nous espérons pouvoir inspirer aussi d’autres recherches en vue de rapprocher la bioéthique des pratiques culturelles traditionnelles afin de trouver des compromis raisonnables qui pourraient renforcer le rôle de protection de la dignité humaine.