598 resultados para Boussoles--Conception et construction
Resumo:
Alors que l’Imagerie par résonance magnétique (IRM) permet d’obtenir un large éventail de données anatomiques et fonctionnelles, les scanneurs cliniques sont généralement restreints à l’utilisation du proton pour leurs images et leurs applications spectroscopiques. Le phosphore jouant un rôle prépondérant dans le métabolisme énergétique, l’utilisation de cet atome en spectroscopie RM présente un énorme avantage dans l’observation du corps humain. Cela représente un certain nombre de déEis techniques à relever dus à la faible concentration de phosphore et sa fréquence de résonance différente. L’objectif de ce projet a été de développer la capacité à réaliser des expériences de spectroscopie phosphore sur un scanneur IRM clinique de 3 Tesla. Nous présentons ici les différentes étapes nécessaires à la conception et la validation d’une antenne IRM syntonisée à la fréquence du phosphore. Nous présentons aussi l’information relative à réalisation de fantômes utilisés dans les tests de validation et la calibration. Finalement, nous présentons les résultats préliminaires d’acquisitions spectroscopiques sur un muscle humain permettant d’identiEier les différents métabolites phosphorylés à haute énergie. Ces résultats s’inscrivent dans un projet de plus grande envergure où les impacts des changements du métabolisme énergétique sont étudiés en relation avec l’âge et les pathologies.
Resumo:
Rapport de recherche présenté à la Faculté des arts et des sciences en vue de l'obtention du grade de Maîtrise en sciences économiques.
Resumo:
Le présent mémoire porte sur la conception et le développement de deux antennes RF utilisées en imagerie par résonance magnétique. Ces antennes ont pour but de guider le futur développement d’une plateforme d’imagerie multi-animal qui servira les chercheurs du nouveau CRCHUM. Plus spécifiquement, ces antennes ont été conçues pour l’imagerie du proton à 1.5T. La première utilise une birdcage de type lowpass pour la partie émettrice et utilise 8 éléments de surface pour la partie réceptrice. La seconde antenne est une birdcage de type lowpass polarisée circulairement qui est utilisée à la fois pour l’émission et pour la réception. Cette dernière a présenté de bonnes performances, générant des images avec un SNR élevé et avec une bonne homogénéité, la rendant une bonne candidate pour la future plateforme. La première a présenté quelques problèmes au niveau de la désyntonisation de la birdcage et du couplage entre les éléments. Dans le cas où ces problèmes venaient à être surmontés, cette antenne aurait l’avantage de pouvoir utiliser des techniques d’imagerie parallèle et possiblement d’avoir un SNR plus élevé.
Resumo:
Dans le cadre de la Western Climate Iniative, le Québec a déployé en 2012, un système de plafonnement et d’échange de droits d’émission de gaz à effet de serre (SPEDE). Il s’agit de l’un des premiers régimes de ce type en Amérique du Nord et celui-ci pourrait à terme, constituer l'un des maillons d’un marché commun du carbone à l’échelle du continent. Toutefois, le SPEDE appartient à une catégorie d’instruments économiques de protection de l’environnement encore peu connue des juristes. Il s’inscrit en effet dans la régulation économique de l’environnement et repose sur des notions tirées de la théorie économique, dont la rareté, la propriété et le marché. La thèse s’insère donc dans le dialogue entre juristes et économistes autour de la conception et de la mise en œuvre de ce type d’instrument. Afin d’explorer son architecture et de révéler les enjeux juridiques qui le traversent, nous avons eu recours à la méthode de l’analyse économique du droit. Celle-ci permet notamment de montrer les dynamiques d'incitation et d’efficacité qui sont à l'œuvre dans les règles qui encadrent le SPEDE. Elle permet également à donner un aperçu du rôle décisif joué par la formulation des règles de droit dans l’opérationnalisation des hypothèses économiques sous-jacentes à cette catégorie d’instrument. L’exploration est menée par l’entremise d’une modélisation progressive de l’échange de droits d’émission qui prend en compte les coûts de transaction. Le modèle proposé dans la thèse met ainsi en lumière, de manière générale, les points de friction qui sont susceptibles de survenir aux différentes étapes de l'échange de droits d'émission et qui peuvent faire obstacle à son efficacité économique. L’application du modèle aux règles du SPEDE a permis de contribuer à l’avancement des connaissances en donnant aux juristes un outil permettant de donner une cohérence et une intelligibilité à l’analyse des règles de l’échange. Elle a ainsi fourni une nomenclature des règles encadrant l’échange de droits d’émission. Cette nomenclature fait ressortir les stratégies de diversification de l’échange, d’institutionnalisation de ses modalités ainsi que les enjeux de la surveillance des marchés, dont celui des instruments dérivés adossés aux droits d’émission, dans un contexte de fragmentation des autorités de tutelle.
Resumo:
Les systèmes logiciels sont devenus de plus en plus répondus et importants dans notre société. Ainsi, il y a un besoin constant de logiciels de haute qualité. Pour améliorer la qualité de logiciels, l’une des techniques les plus utilisées est le refactoring qui sert à améliorer la structure d'un programme tout en préservant son comportement externe. Le refactoring promet, s'il est appliqué convenablement, à améliorer la compréhensibilité, la maintenabilité et l'extensibilité du logiciel tout en améliorant la productivité des programmeurs. En général, le refactoring pourra s’appliquer au niveau de spécification, conception ou code. Cette thèse porte sur l'automatisation de processus de recommandation de refactoring, au niveau code, s’appliquant en deux étapes principales: 1) la détection des fragments de code qui devraient être améliorés (e.g., les défauts de conception), et 2) l'identification des solutions de refactoring à appliquer. Pour la première étape, nous traduisons des régularités qui peuvent être trouvés dans des exemples de défauts de conception. Nous utilisons un algorithme génétique pour générer automatiquement des règles de détection à partir des exemples de défauts. Pour la deuxième étape, nous introduisons une approche se basant sur une recherche heuristique. Le processus consiste à trouver la séquence optimale d'opérations de refactoring permettant d'améliorer la qualité du logiciel en minimisant le nombre de défauts tout en priorisant les instances les plus critiques. De plus, nous explorons d'autres objectifs à optimiser: le nombre de changements requis pour appliquer la solution de refactoring, la préservation de la sémantique, et la consistance avec l’historique de changements. Ainsi, réduire le nombre de changements permets de garder autant que possible avec la conception initiale. La préservation de la sémantique assure que le programme restructuré est sémantiquement cohérent. De plus, nous utilisons l'historique de changement pour suggérer de nouveaux refactorings dans des contextes similaires. En outre, nous introduisons une approche multi-objective pour améliorer les attributs de qualité du logiciel (la flexibilité, la maintenabilité, etc.), fixer les « mauvaises » pratiques de conception (défauts de conception), tout en introduisant les « bonnes » pratiques de conception (patrons de conception).
Resumo:
La distance historique qui nous sépare de la publication de Vérité et méthode permet une meilleure intelligence de l’aspect universel de l’herméneutique de Hans-Georg Gadamer qui a suscité tant de débats immédiatement après la parution de son ouvrage. L’herméneute a en effet pu, dans plusieurs textes qu’il a écrits au cours des dernières décennies, préciser sa conception et mieux attester cette universalité, notamment en l’associant à l’universalité de la rhétorique elle-même. Un nouveau regard porté sur les divers débats suscités par cette prétention de l’universalité de l’herméneutique permet aussi de s’en faire une idée plus claire et limpide. Le présent mémoire se penche sur le sens à donner à l’universalité de l’herméneutique en tenant compte des sections décisives de Vérité et méthode qui y sont consacrées, des écrits plus tardifs de Gadamer sur la question et de la littérature secondaire afin de voir si cette prétention à l’universalité peut être défendue face aux critiques formulées par Jürgen Habermas. Nous soutiendrons dans ce mémoire que c’est le cas, mais aussi que la critique de Habermas a aidé Gadamer à mieux formuler et faire comprendre l’universalité de l’herméneutique. C’est précisément en tenant compte de l’apport de ceux qui pensent autrement que s’atteste l’universalité de l’herméneutique.
Resumo:
Rapport de stage présenté à la Faculté des Sciences infirmières en vue de l’obtention du grade de maîtrise en Administration des services infirmiers, option stage
Resumo:
La naissance avant terme constitue un important problème de santé périnatale partout dans le monde. Chaque année près de 15 millions de bébés naissent prématurément. Notre laboratoire s’intéresse depuis une décennie à la conception et le développement de nouvelles classes thérapeutiques (appelés agents tocolytiques) capables d’inhiber les contractions utérines et prolonger le temps de gestation. Due à son implication directe dans le déclanchement des contractions utérines, la prostaglandine F2α (FP) est devenue notre cible de choix. Le PDC 113.824 et aza-glycinyl-proline sont apparus comme des inhibiteurs allostériques puissants du récepteur de la prostaglandine F2α, capables de prolonger la durée de gestation chez les souris. Le travail réalisé au cours de ce mémoire a pour objectif d’étudier le tour β nécessaire pour la reconnaissance sur le récepteur de la prostaglandine F2α. Dans la conception de mime peptidique sélectif efficace et puissant, le repliement β est un élément structural essentiel pour le maintien ou l’amélioration de l’activité du mime peptidique. Les études conformationelles du PDC113.824 et l’aza-glycinyl-proline montrent que les squelettes centraux de ces mimes peptidiques pourraient adopter essentiellement un tour β de type I ou II`, ce qui suggère l’implication des deux types de tours dans l’activité biologique. La synthèse de mimes peptidiques adoptant le tour β de type I et II` est devenue une stratégie logique dans la recherche de nouveaux agents tocolytiques. Au cours de ces études quatre analogues du PDC113.824 ont été synthétisés, un azabicyclo[5.3.0]alkanone et un dipeptide macrocyclique (mimes du tours β de type I) pour étudier l’implication du tour β type I. Par la suite la synthèse de glycinyl-proline et le D-alaninyl-proline (des mimes du tour β du type II`) a été réalisée afin de valider l’implication du tour β type II` dans la reconnaissance sur le récepteur. Nous avons utilisé une stratégie de synthèse efficace pour obtenir les deux analogues (azabicyclo [5.3.0]alkanone et dipeptides macrocycles) à partir d’un intermédiaire commun, en procédant par une cyclisation transannulaire diastéréosélective du tétra-peptide.
Resumo:
Le foie est un organe vital ayant une capacité de régénération exceptionnelle et un rôle crucial dans le fonctionnement de l’organisme. L’évaluation du volume du foie est un outil important pouvant être utilisé comme marqueur biologique de sévérité de maladies hépatiques. La volumétrie du foie est indiquée avant les hépatectomies majeures, l’embolisation de la veine porte et la transplantation. La méthode la plus répandue sur la base d'examens de tomodensitométrie (TDM) et d'imagerie par résonance magnétique (IRM) consiste à délimiter le contour du foie sur plusieurs coupes consécutives, un processus appelé la «segmentation». Nous présentons la conception et la stratégie de validation pour une méthode de segmentation semi-automatisée développée à notre institution. Notre méthode représente une approche basée sur un modèle utilisant l’interpolation variationnelle de forme ainsi que l’optimisation de maillages de Laplace. La méthode a été conçue afin d’être compatible avec la TDM ainsi que l' IRM. Nous avons évalué la répétabilité, la fiabilité ainsi que l’efficacité de notre méthode semi-automatisée de segmentation avec deux études transversales conçues rétrospectivement. Les résultats de nos études de validation suggèrent que la méthode de segmentation confère une fiabilité et répétabilité comparables à la segmentation manuelle. De plus, cette méthode diminue de façon significative le temps d’interaction, la rendant ainsi adaptée à la pratique clinique courante. D’autres études pourraient incorporer la volumétrie afin de déterminer des marqueurs biologiques de maladie hépatique basés sur le volume tels que la présence de stéatose, de fer, ou encore la mesure de fibrose par unité de volume.
Resumo:
Cette thèse se compose en deux parties: Première Partie: La conception et la synthèse d’analogues pyrrolidiniques, utilisés comme agents anticancéreux, dérivés du FTY720. FTY720 est actuellement commercialisé comme médicament (GilenyaTM) pour le traitement de la sclérose en plaques rémittente-récurrente. Il agit comme immunosuppresseur en raison de son effet sur les récepteurs de la sphingosine-1-phosphate. A fortes doses, FTY720 présente un effet antinéoplasique. Cependant, à de telles doses, un des effets secondaires observé est la bradycardie dû à l’activation des récepteurs S1P1 et S1P3. Ceci limite son potentiel d’utilisation lors de chimiothérapie. Nos précédentes études ont montré que des analogues pyrrolidiniques dérivés du FTY720 présentaient une activité anticancéreuse mais aucune sur les récepteurs S1P1 et S1P3. Nous avons soumis l’idée qu’une étude relation structure-activité (SARs) pourrait nous conduire à la découverte de nouveaux agents anti tumoraux. Ainsi, deux séries de composés pyrrolidiniques (O-arylmethyl substitué et C-arylmethyl substitué) ont pu être envisagés et synthétisés (Chapitre 1). Ces analogues ont montré d’excellentes activités cytotoxiques contre diverses cellules cancéreuses humaines (prostate, colon, sein, pancréas et leucémie), plus particulièrement les analogues actifs qui ne peuvent pas être phosphorylés par SphK, présentent un plus grand potentiel pour le traitement du cancer sans effet secondaire comme la bradycardie. Les études mécanistiques suggèrent que ces analogues de déclencheurs de régulation négative sur les transporteurs de nutriments induisent une crise bioénergétique en affamant les cellules cancéreuses. Afin d’approfondir nos connaissances sur les récepteurs cibles, nous avons conçu et synthétisé des sondes diazirine basées sur le marquage d’affinité aux photons (méthode PAL: Photo-Affinity Labeling) (Chapitre 2). En s’appuyant sur la méthode PAL, il est possible de récolter des informations sur les récepteurs cibles à travers l’analyse LC/MS/MS de la protéine. Ces tests sont en cours et les résultats sont prometteurs. Deuxième partie: Coordination métallique et catalyse di fonctionnelle de dérivés β-hydroxy cétones tertiaires. Les réactions de Barbier et de Grignard sont des méthodes classiques pour former des liaisons carbone-carbone, et généralement utilisées pour la préparation d’alcools secondaires et tertiaires. En vue d’améliorer la réaction de Grignard avec le 1-iodobutane dans les conditions « one-pot » de Barbier, nous avons obtenu comme produit majoritaire la β-hydroxy cétone provenant de l’auto aldolisation de la 5-hexen-2-one, plutôt que le produit attendu d’addition de l’alcool (Chapitre 3). La formation inattendue de la β-hydroxy cétone a également été observée en utilisant d’autres dérivés méthyl cétone. Étonnement dans la réaction intramoléculaire d’une tricétone, connue pour former la cétone Hajos-Parrish, le produit majoritaire est rarement la β-hydroxy cétone présentant la fonction alcool en position axiale. Intrigué par ces résultats et après l’étude systématique des conditions de réaction, nous avons développé deux nouvelles méthodes à travers la synthèse sélective et catalytique de β-hydroxy cétones spécifiques par cyclisation intramoléculaire avec des rendements élevés (Chapitre 4). La réaction peut être catalysée soit par une base adaptée et du bromure de lithium comme additif en passant par un état de transition coordonné au lithium, ou bien soit à l’aide d’un catalyseur TBD di fonctionnel, via un état de transition médiée par une coordination bidenté au TBD. Les mécanismes proposés ont été corroborés par calcul DFT. Ces réactions catalytiques ont également été appliquées à d’autres substrats comme les tricétones et les dicétones. Bien que les efforts préliminaires afin d’obtenir une enantioselectivité se sont révélés sans succès, la synthèse et la recherche de nouveaux catalyseurs chiraux sont en cours.
Resumo:
La population canadienne-française a une histoire démographique unique faisant d’elle une population d’intérêt pour l’épidémiologie et la génétique. Cette thèse vise à mettre en valeur les caractéristiques de la population québécoise qui peuvent être utilisées afin d’améliorer la conception et l’analyse d’études d’épidémiologie génétique. Dans un premier temps, nous profitons de la présence d’information généalogique détaillée concernant les Canadiens français pour estimer leur degré d’apparentement et le comparer au degré d’apparentement génétique. L’apparentement génétique calculé à partir du partage génétique identique par ascendance est corrélé à l’apparentement généalogique, ce qui démontre l'utilité de la détection des segments identiques par ascendance pour capturer l’apparentement complexe, impliquant entre autres de la consanguinité. Les conclusions de cette première étude pourront guider l'interprétation des résultats dans d’autres populations ne disposant pas d’information généalogique. Dans un deuxième temps, afin de tirer profit pleinement du potentiel des généalogies canadienne-françaises profondes, bien conservées et quasi complètes, nous présentons le package R GENLIB, développé pour étudier de grands ensembles de données généalogiques. Nous étudions également le partage identique par ascendance à l’aide de simulations et nous mettons en évidence le fait que la structure des populations régionales peut faciliter l'identification de fondateurs importants, qui auraient pu introduire des mutations pathologiques, ce qui ouvre la porte à la prévention et au dépistage de maladies héréditaires liées à certains fondateurs. Finalement, puisque nous savons que les Canadiens français ont accumulé des segments homozygotes, à cause de la présence de consanguinité lointaine, nous estimons la consanguinité chez les individus canadiens-français et nous étudions son impact sur plusieurs traits de santé. Nous montrons comment la dépression endogamique influence des traits complexes tels que la grandeur et des traits hématologiques. Nos résultats ne sont que quelques exemples de ce que nous pouvons apprendre de la population canadienne-française. Ils nous aideront à mieux comprendre les caractéristiques des autres populations de même qu’ils pourront aider la recherche en épidémiologie génétique au sein de la population canadienne-française.
Resumo:
L’introduction du développement durable apporte de nouvelles préoccupations environnementales au niveau de la construction et de la rénovation résidentielles, une industrie qui représente un marché économique important au Canada. En plus d’engendrer plusieurs impacts sur l’environnement, la conception actuelle ne permet pas d’accommoder le changement initié par l’évolution des pratiques, les avancées technologiques, mais également par l’évolution des patrons de vie des occupants. Dans un premier temps, la revue de littérature dresse le portrait de l’industrie de la construction, rénovation et démolition (CRD) au Canada, ainsi que le profil de gestion des débris de CRD. Ensuite, une analyse documentaire traite de différents outils de conception développés pour améliorer la performance du secteur : 3RV-E, écoconception, écoconstruction et LEED®. De plus, la recension des écrits permet également de cerner les concepts d’adaptabilité et de flexibilité au niveau du bâtiment et dans les approches et mouvements émergents en architecture. Cette démarche nous amène à établir l’hypothèse que l’intégration des critères d’adaptabilité et de flexibilité au niveau du logement aurait pour effet d’améliorer l’adéquation entre les besoins évolutifs des occupants et les nouvelles considérations environnementales. Au niveau méthodologique, l’analyse du cycle de vie simplifiée par l’Eco-indicator99 encadre l’analyse environnementale de l’ossature de trois types de construction de cloison. De cette évaluation, on conclut que c’est la construction traditionnelle à ossature de bois qui produit le moins d’impacts. Dans l’ordre suivant la proposition de construction de cloison à ossature d’aluminium, plus adaptable et flexible, et finalement la construction à ossature d’acier qui est le système le plus dommageable. Par contre, en intégrant le facteur temporel, cette analyse démontre que l’intégration de l’adaptabilité et de la flexibilité procure plusieurs cycles de vie et de rénovation au produit et à ses composantes. Finalement, ces concepts offrent également le potentiel de diminuer les impacts générés par la construction et la rénovation, un constat qui mériterait d’être abordé dans une approche plus systémique.
Resumo:
Les littératures migrantes féminines canadienne et allemande contemporaine sont ancrées sur des questionnements de l’espace. Les auteures comme Abla Farhoud (Le bonheur a la queue glissante), Marie-Célie Agnant (La dot de Sara) et Renan Demirkan (Schwarzer Tee mit drei Stück Zucker) arrivent à transmettre les problèmes et questionnements liés à la condition migrante féminine de nos jours, à travers leur utilisation particulière de l’espace dans leurs romans. La métaphore de la prison aide à saisir la complexité de la situation de la femme et de son rapport avec l’espace. Il faut prendre en considération des facteurs comme le déracinement de la femme de la terre natale, sa domination par l’homme et son impuissance face aux événements liés à la migration, ainsi que son emprisonnement par autrui quand la femme est marquée par les préjugés et le racisme de la société d’accueil. La prison de la femme se manifeste également à un autre niveau, soit celui des théories spatiales : les théories spatiales masculines courantes (notamment celles de Bachelard, Merleau-Ponty, Lefebvre, De Certeau et Augé) négligent la situation particulière de la femme. Bien qu’elles aident à exposer ce que les espaces dans les romans nous communiquent et comment il faut lire les espaces, elles sont insuffisantes pour révéler le rapport femme migrante – espace dans toute sa complexité. De plus, la réalité spatiale de la femme telle qu’exposée par les théories féministes (notamment celles de Shands, Rose, Chapman et Massey) saisit seulement en partie le rapport spatial complexe de la femme migrante. La faiblesse des théories mentionnées ci-haut vient du fait qu’elles sont parfois trop simples. Elles ne tiennent pas compte de l’histoire de la femme migrante : due à son histoire particulière, sa conception des termes territoire, chez-soi et identité est tout à fait différente de celle des individus qui n’ont pas fait l’expérience d’un déracinement. En exposant les problèmes particuliers de ces femmes, cette thèse aide à sortir les femmes du silence qui les opprime. Par cette thèse, nous répondons donc à un besoin qui existe dans le champ d’étude : nous plaçons la femme migrante au centre de la réflexion théorique en insistant sur la complémentarité des théories masculines et féminines/féministes et sur la nécessité de combiner plusieurs points de vues théoriques. Par cette thèse, à l’aide de notre analyse des espaces dans les romans, nous précisons la situation nuancée de la femme migrante et apportons des perspectives éclairantes au sujet de son rapport complexe à l’espace.
Resumo:
Les sociétés modernes sont de plus en plus souvent confrontées aux enjeux de la diversité. Le multiculturalisme tente d’y apporter une réponse à travers un modèle de société basé sur une politique de la reconnaissance. Selon moi, l’argumentation des multiculturalistes repose sur leur conception de l’identité. C’est pourquoi, pour apporter une critique nouvelle de ce courant de pensée, j’analyse les écrits de ses principaux défenseurs, Will Kymlicka et Charles Taylor, en concentrant mon analyse sur ce qu’ils entendent par identité. Je soutiens que leur conception ne laisse pas assez de place au potentiel d’évolution et ne considère pas suffisamment l’importance et le pouvoir de la volonté individuelle dans la construction de l’identité. En m’appuyant sur l’étude d’autres auteurs, je souligne la nécessité de considérer les frontières entre le semblable et l’autre de manière plus souple et de reconnaître que la violence peut s’exercer par la création de différences entre les personnes. J’ai choisi la figure radicale de « l’homme sans qualités » de Robert Musil pour montrer comment un individu peut devenir autonome à travers un acte de destruction créatrice. Enfin, je conclus que l’État devrait favoriser ce processus, et permettre au sujet, qui est selon moi dénué d’une nature authentique, de penser son existence comme une expérience du possible.
Les navires vikings : conception géométrique et architecture traditionnelle au Moyen Âge scandinave.
Resumo:
Selon l’image reçue des Vikings, ce peuple incarne l'esprit d’une immense solidarité primitive ayant su résister rudement au joug du christianisme et à la domination du Latin en Europe occidentale. Cette image n’est pas sans ses contradictions et, s’il est vrai que l’écriture était encore inconnue en Scandinavie durant les premiers siècles de l’expansion viking, on sait maintenant que le commerce et la colonisation, autant que les célèbres raids, motivèrent l’irruption des peuples scandinaves sur la scène médiévale. Quant aux navires de ces marchands, colonisateurs, pêcheurs et guerriers, ils apparaissent, un peu à l’image des Vikings eux-mêmes, sur le grand tableau de l’histoire nautique sous l’enseigne d’une originalité et d’une technicité sans parallèle. Comment les Vikings construisaient-ils leurs navires, en leur donnant une symétrie, un équilibre et une finesse si achevés? Les premiers ethnologues qui se sont intéressés à cette question ont privilégié les idées issues d'une tradition acquise par des générations de constructeurs, et d'astuces simples pour équilibrer tribord et bâbord. Puis, ils se sont rapidement tournés vers les techniques inhérentes à la construction à clin : utilisation de planches fendues et non sciées et de rivets abondants témoignant d’une sidérurgie acquise depuis peu. Le problème que présentent ces navires, est que leur construction artisanale demeure conforme à l’image reçue des Vikings, mais que leur conception architecturale, réalisée selon des connaissances théoriques très exactes, brise la notion d’une Scandinavie médiévale illettrée et coupée des grands centres du savoir. Ce travail s’intéresse précisément à la conception architecturale des navires scandinaves du VIIIe au XIe siècle pour montrer comment ils s’insèrent dans un haut savoir européen dès leur apparition. Il explore ensuite les liens qui unissent ce savoir théorique aux aspects véritablement originaux des navires vikings, en l’occurrence leur construction à clin et leur homogénéité sur une grande région à travers plus de cinq siècles. Au terme de cette recherche, l'analyse réalisée sur le maître-couple de trois épaves vikings, une épave antique et une épave scandinave pré-viking, a permis de mettre en évidence plusieurs indices de l'utilisation du système de conception géométrique apparaissant pour la première fois dans les traités d'architecture navale de la Renaissance, et ce, sur chacune de ces épaves. Les résultats obtenus démontrent qu'il est possible d'employer un système transversal de conception pour des navires vraisemblablement construits bordé premier et assemblés à clin.