11 resultados para Théologie de la reconstruction
em Université Laval Mémoires et thèses électroniques
Resumo:
La media vasculaire est au coeur des processus physiopathologiques qui entraînent le développement de l’athérosclérose. L’utilisation d’une media reconstruite par génie tissulaire permet d’étudier les cellules musculaires lisses (CML) humaines dans un environnement plus physiologique que les cellules en culture monocouche. Les travaux présentés dans cette thèse sont orientés autour de la media vasculaire reconstruite par génie tissulaire comme modèle d’étude pharmacologique et prothèse vasculaire autologue. La première partie des travaux porte sur l’étude des interactions de cette tunique avec les microparticules (MP) circulantes. D’abord, nous avons montré que la présence de l’adventice modifie la réponse de la media aux MP produites in vitro à partir des lymphocytes T. Ensuite, l’étude de l’effet des MP isolées du sérum de patients en choc septique sur la media humaine a démontré que ces MP sont en mesure d’augmenter la contraction de la media par un mécanisme impliquant une diminution du NO et une augmentation de l’expression de l’ARN messager de l’interleukine-10. L’incubation de la media reconstruite avec cette cytokine anti-inflammatoire bloque l’hyporéactivité induite par les lipopolysaccharides. Le même phénomène a été reproduit in vivo, chez le rongeur. Ces résultats suggèrent que les SMP auraient un effet protecteur sur la fonction vasculaire, en potentialisant la contraction de la media. Ensuite, nous avons optimisé l’approche de reconstruction de prothèses vasculaires par auto-assemblage proposée initialement pour l’adapter au contexte particulier des CML. L’objectif principal était de permettre l’étude physiopathologique de la media à partir de toutes les lignées de CML; indépendamment de leur capacité de synthèse de matrice extracellulaire. Pour ce faire, nous avons développé un échafaudage de matrice extracellulaire produit par auto-assemblage à partir de fibroblastes humains. L’utilisation de cet échafaudage génère une media plus résistante et plus contractile que la technique initiale. Enfin, une anisotropie a été créée dans cet échafaudage pour permettre une orientation physiologique des CML. La media reconstruite devient ainsi plus résistante et plus contractile. Ces améliorations permettent de reconstruire des media à partir des cellules de plus de patients et mèneront à des études pharmacologiques plus représentatives de la population. Cet échafaudage facilitera la translation clinique de ce modèle de media reconstruite par génie tissulaire.
Resumo:
Il existe désormais une grande variété de lentilles panoramiques disponibles sur le marché dont certaines présentant des caractéristiques étonnantes. Faisant partie de cette dernière catégorie, les lentilles Panomorphes sont des lentilles panoramiques anamorphiques dont le profil de distorsion est fortement non-uniforme, ce qui cause la présence de zones de grandissement augmenté dans le champ de vue. Dans un contexte de robotique mobile, ces particularités peuvent être exploitées dans des systèmes stéréoscopiques pour la reconstruction 3D d’objets d’intérêt qui permettent à la fois une bonne connaissance de l’environnement, mais également l’accès à des détails plus fins en raison des zones de grandissement augmenté. Cependant, à cause de leur complexité, ces lentilles sont difficiles à calibrer et, à notre connaissance, aucune étude n’a réellement été menée à ce propos. L’objectif principal de cette thèse est la conception, l’élaboration et l’évaluation des performances de systèmes stéréoscopiques Panomorphes. Le calibrage a été effectué à l’aide d’une technique établie utilisant des cibles planes et d’une boîte à outils de calibrage dont l’usage est répandu. De plus, des techniques mathématiques nouvelles visant à rétablir la symétrie de révolution dans l’image (cercle) et à uniformiser la longueur focale (cercle uniforme) ont été développées pour voir s’il était possible d’ainsi faciliter le calibrage. Dans un premier temps, le champ de vue a été divisé en zones à l’intérieur desquelles la longueur focale instantanée varie peu et le calibrage a été effectué pour chacune d’entre elles. Puis, le calibrage général des systèmes a aussi été réalisé pour tout le champ de vue simultanément. Les résultats ont montré que la technique de calibrage par zone ne produit pas de gain significatif quant à la qualité des reconstructions 3D d’objet d’intérêt par rapport au calibrage général. Cependant, l’étude de cette nouvelle approche a permis de réaliser une évaluation des performances des systèmes stéréoscopiques Panomorphes sur tout le champ de vue et de montrer qu’il est possible d’effectuer des reconstructions 3D de qualité dans toutes les zones. De plus, la technique mathématique du cercle a produit des résultats de reconstructions 3D en général équivalents à l’utilisation des coordonnées originales. Puisqu’il existe des outils de calibrage qui, contrairement à celui utilisé dans ce travail, ne disposent que d’un seul degré de liberté sur la longueur focale, cette technique pourrait rendre possible le calibrage de lentilles Panomorphes à l’aide de ceux-ci. Finalement, certaines conclusions ont pu être dégagées quant aux facteurs déterminants influençant la qualité de la reconstruction 3D à l’aide de systèmes stéréoscopiques Panomorphes et aux caractéristiques à privilégier dans le choix des lentilles. La difficulté à calibrer les optiques Panomorphes en laboratoire a mené à l’élaboration d’une technique de calibrage virtuel utilisant un logiciel de conception optique et une boîte à outils de calibrage. Cette approche a permis d’effectuer des simulations en lien avec l’impact des conditions d’opération sur les paramètres de calibrage et avec l’effet des conditions de calibrage sur la qualité de la reconstruction. Des expérimentations de ce type sont pratiquement impossibles à réaliser en laboratoire mais représentent un intérêt certain pour les utilisateurs. Le calibrage virtuel d’une lentille traditionnelle a aussi montré que l’erreur de reprojection moyenne, couramment utilisée comme façon d’évaluer la qualité d’un calibrage, n’est pas nécessairement un indicateur fiable de la qualité de la reconstruction 3D. Il est alors nécessaire de disposer de données supplémentaires pour juger adéquatement de la qualité d’un calibrage.
Resumo:
La mise en registre 3D (opération parfois appelée alignement) est un processus de transformation d’ensembles de données 3D dans un même système de coordonnées afin d’en aligner les éléments communs. Deux ensembles de données alignés ensemble peuvent être les scans partiels des deux vues différentes d’un même objet. Ils peuvent aussi être deux modèles complets, générés à des moments différents, d’un même objet ou de deux objets distincts. En fonction des ensembles de données à traiter, les méthodes d’alignement sont classées en mise en registre rigide ou non-rigide. Dans le cas de la mise en registre rigide, les données sont généralement acquises à partir d’objets rigides. Le processus de mise en registre peut être accompli en trouvant une seule transformation rigide globale (rotation, translation) pour aligner l’ensemble de données source avec l’ensemble de données cible. Toutefois, dans le cas non-rigide, où les données sont acquises à partir d’objets déformables, le processus de mise en registre est plus difficile parce qu’il est important de trouver à la fois une transformation globale et des déformations locales. Dans cette thèse, trois méthodes sont proposées pour résoudre le problème de mise en registre non-rigide entre deux ensembles de données (représentées par des maillages triangulaires) acquises à partir d’objets déformables. La première méthode permet de mettre en registre deux surfaces se chevauchant partiellement. La méthode surmonte les limitations des méthodes antérieures pour trouver une grande déformation globale entre deux surfaces. Cependant, cette méthode est limitée aux petites déformations locales sur la surface afin de valider le descripteur utilisé. La seconde méthode est s’appuie sur le cadre de la première et est appliquée à des données pour lesquelles la déformation entre les deux surfaces est composée à la fois d’une grande déformation globale et de petites déformations locales. La troisième méthode, qui se base sur les deux autres méthodes, est proposée pour la mise en registre d’ensembles de données qui sont plus complexes. Bien que la qualité que elle fournit n’est pas aussi bonne que la seconde méthode, son temps de calcul est accéléré d’environ quatre fois parce que le nombre de paramètres optimisés est réduit de moitié. L’efficacité des trois méthodes repose sur des stratégies via lesquelles les correspondances sont déterminées correctement et le modèle de déformation est exploité judicieusement. Ces méthodes sont mises en oeuvre et comparées avec d’autres méthodes sur diverses données afin d’évaluer leur robustesse pour résoudre le problème de mise en registre non-rigide. Les méthodes proposées sont des solutions prometteuses qui peuvent être appliquées dans des applications telles que la mise en registre non-rigide de vues multiples, la reconstruction 3D dynamique, l’animation 3D ou la recherche de modèles 3D dans des banques de données.
Resumo:
L’automatisation de la détection et de l’identification des animaux est une tâche qui a de l’intérêt dans plusieurs domaines de recherche en biologie ainsi que dans le développement de systèmes de surveillance électronique. L’auteur présente un système de détection et d’identification basé sur la vision stéréo par ordinateur. Plusieurs critères sont utilisés pour identifier les animaux, mais l’accent a été mis sur l’analyse harmonique de la reconstruction en temps réel de la forme en 3D des animaux. Le résultat de l’analyse est comparé avec d’autres qui sont contenus dans une base évolutive de connaissances.
Resumo:
Au cours des dernières décennies, l’effort sur les applications de capteurs infrarouges a largement progressé dans le monde. Mais, une certaine difficulté demeure, en ce qui concerne le fait que les objets ne sont pas assez clairs ou ne peuvent pas toujours être distingués facilement dans l’image obtenue pour la scène observée. L’amélioration de l’image infrarouge a joué un rôle important dans le développement de technologies de la vision infrarouge de l’ordinateur, le traitement de l’image et les essais non destructifs, etc. Cette thèse traite de la question des techniques d’amélioration de l’image infrarouge en deux aspects, y compris le traitement d’une seule image infrarouge dans le domaine hybride espacefréquence, et la fusion d’images infrarouges et visibles employant la technique du nonsubsampled Contourlet transformer (NSCT). La fusion d’images peut être considérée comme étant la poursuite de l’exploration du modèle d’amélioration de l’image unique infrarouge, alors qu’il combine les images infrarouges et visibles en une seule image pour représenter et améliorer toutes les informations utiles et les caractéristiques des images sources, car une seule image ne pouvait contenir tous les renseignements pertinents ou disponibles en raison de restrictions découlant de tout capteur unique de l’imagerie. Nous examinons et faisons une enquête concernant le développement de techniques d’amélioration d’images infrarouges, et ensuite nous nous consacrons à l’amélioration de l’image unique infrarouge, et nous proposons un schéma d’amélioration de domaine hybride avec une méthode d’évaluation floue de seuil amélioré, qui permet d’obtenir une qualité d’image supérieure et améliore la perception visuelle humaine. Les techniques de fusion d’images infrarouges et visibles sont établies à l’aide de la mise en oeuvre d’une mise en registre précise des images sources acquises par différents capteurs. L’algorithme SURF-RANSAC est appliqué pour la mise en registre tout au long des travaux de recherche, ce qui conduit à des images mises en registre de façon très précise et des bénéfices accrus pour le traitement de fusion. Pour les questions de fusion d’images infrarouges et visibles, une série d’approches avancées et efficaces sont proposés. Une méthode standard de fusion à base de NSCT multi-canal est présente comme référence pour les approches de fusion proposées suivantes. Une approche conjointe de fusion, impliquant l’Adaptive-Gaussian NSCT et la transformée en ondelettes (Wavelet Transform, WT) est propose, ce qui conduit à des résultats de fusion qui sont meilleurs que ceux obtenus avec les méthodes non-adaptatives générales. Une approche de fusion basée sur le NSCT employant la détection comprime (CS, compressed sensing) et de la variation totale (TV) à des coefficients d’échantillons clairsemés et effectuant la reconstruction de coefficients fusionnés de façon précise est proposée, qui obtient de bien meilleurs résultats de fusion par le biais d’une pré-amélioration de l’image infrarouge et en diminuant les informations redondantes des coefficients de fusion. Une procédure de fusion basée sur le NSCT utilisant une technique de détection rapide de rétrécissement itératif comprimé (fast iterative-shrinking compressed sensing, FISCS) est proposée pour compresser les coefficients décomposés et reconstruire les coefficients fusionnés dans le processus de fusion, qui conduit à de meilleurs résultats plus rapidement et d’une manière efficace.
Resumo:
Le cordon ombilical humain suscite beaucoup d’intérêt comme source de cellules à des fins de recherche et de thérapie. Quatre types cellulaires majeurs - les cellules épithéliales, stromales, musculaires lisses et endothéliales - composent les tissus solides du cordon ombilical. Quelques-uns de ces types cellulaires ont été utilisés en recherche scientifique depuis longtemps, alors que d’autres commencent à peine à dévoiler leur potentiel. Nous avons développé un protocole unique pour l’extraction séquentielle de tous ces types cellulaires d’un seul cordon ombilical, permettant ainsi la reconstruction à partir d’une même source. La combinaison des techniques de perfusion, immersion et explants a mené à la mise en culture et à l’expansion de ces cellules, dont les cellules épithéliales et les cellules stromales de la gelée de Wharton qui ont été caractérisées plus en détail par l’immunomarquage de protéines spécifiques. Leur potentiel pour la médecine régénératrice a été démontré par la production de tissus par génie tissulaire. Un vaisseau sanguin composé de cellules stromales et de cellules musculaires lisses du cordon ombilical démontra une résistance substantielle à l’éclatement. Les capacités de différenciation des cellules épithéliales ont été étudiées dans le contexte d’une peau bilamellaire reconstruite en combinaison avec des kératinocytes, des fibroblastes dermiques, et des cellules stromales de la gelée de Wharton. Les cellules épithéliales ont montré une différenciation similaire à celle des kératinocytes lorsque cultivées sur des fibroblastes dermiques et exposées à l’air, tandis que sur des cellules stromales du cordon, elles ont subi une désorganisation. Finalement, la différenciation des cellules stromales a été induite en culture vers plusieurs types cellulaires afin de compléter cette étude. L’ensemble des résultats fait ressortir l’importance non seulement de l’influence du milieu physique sur la croissance et la différenciation des cellules, mais également de l’impact de la provenance des cellules sur la qualité des tissus reconstruits.
Resumo:
Une méthode optimale pour identifier les zones problématiques de drainage dans les champs de canneberges est d’un intérêt pratique pour les producteurs. Elle peut aider au développement de stratégies visant à améliorer le rendement des cultures. L’objectif de cette étude était de développer une méthodologie non intrusive de diagnostic d’un système de drainage en utilisant l’imagerie du géoradar ou Ground Penetrating Radar (GPR) ayant pour finalité de localiser les zones restrictives au drainage et de lier les scans du GPR à des propriétés du sol. Un système GPR muni d’une antenne monostatique a été utilisé pour acquérir des données dans deux champs de canneberges : un construit sur sol organique et l’autre sur sol minéral. La visualisation en trois dimensions de la stratification du champ a été possible après l’interpolation et l’analyse des faciès. La variabilité spatiale du rendement des cultures et la conductivité hydraulique saturée du sol ont été comparées aux données GPR par deux méthodes : calcul du pourcentage de différence et estimation de l’entropie. La visualisation des données couplée à leur analyse a permis de mettre en évidence la géométrie souterraine et des discontinuités importantes des champs. Les résultats montrent qu’il y a bonne corrélation entre les zones où la couche restrictive est plus superficielle et celle de faible rendement. Le niveau de similarité entre la conductivité hydraulique saturée et la profondeur de la couche restrictive confirme la présence de cette dernière. L’étape suivante a été la reconstruction de l’onde électromagnétique et son ajustement par modélisation inverse. Des informations quantitatives ont été extraites des scans : la permittivité diélectrique, la conductivité électrique et l’épaisseur des strates souterraines. Les permittivités diélectriques modélisées sont concordantes avec celles mesurées in-situ et celles de la littérature. Enfin, en permettant la caractérisation des discontinuités du sous-sol, les zones les plus pertinentes pour l’amélioration du drainage et d’irrigation ont été localisées, afin de maximiser le rendement.
Resumo:
La métaphore-interaction est présentée comme point de jonction entre la science et la théologie ou plus concrètement entre le scientifique et le monde religieux. La dimension analogique des modèles et des théories montre bien la place de la métaphore dans le discours scientifique. À l’instar de la réalité amoureuse, esthétique et poétique, la réalité religieuse ne peut être dite qu’en utilisant des symboles et des métaphores. Cette étude comparée montre également qu’un glissement de la métaphore vers une lecture littérale ou absolue entraîne une déviation herméneutique qui généralement ferme toute accès vers la nouveauté donc vers la vérité ineffable. Pour éviter cette absolutisation et cette dogmatisation, nous affirmons qu’il faut conserver aux mythes et aux métaphores religieuses leur polysémanticité et donc refuser de les réduire à un sens unique, univoque et bien défini de la lecture littérale. Nous espérons par cette mise au point, que des scientifiques et des habitants de la culture scientifique contemporaine en rupture avec les croyances chrétiennes, pourront trouver dans la théopoésie un nouveau paradigme permettant de ouvrir un nouveau dialogue avec l’univers religieux.
Resumo:
La Cité de Dieu a été rédigée dans une perspective polémique vis-à-vis les païens. La prise de Rome, en 410, a entraîné en Afrique du Nord la venue d’une élite cultivée, revivaliste et admirative du vieux polythéisme. Contre cette mouvance nostalgique, tributaire des anciens majoritairement sur le plan intellectuel et livresque, Augustin s’en prend à la bibliothèque des nouveaux arrivants. La Cité de Dieu peut, le cas échéant, être lue par la négative, c’est-à-dire par le biais de la critique qu’élabore Augustin de trois auteurs choisis, Varron, Cicéron et Salluste, qui résument et représentent conjointement l’essence de la culture classique. Tant chez les païens que chez l’évêque d’Hippone – leur détracteur –, Varron incarne la fine pointe de la théologie romano-hellénistique, Salluste est celui qui a mené à sa perfection la discipline de l’histoire, Cicéron a écrit le parachèvement des oeuvres sur la République, et chacun préconise sa structure idéologique propre, les trois domaines formant pourtant un ensemble systémique. Tout en louant ses illustres prédécesseurs, Augustin leur porte une critique générale et c’est à cette critique que seront consacrées nos analyses.
Resumo:
Ce mémoire a pour objet de décrire l’opération de la grâce dans la pensée de Jankélévitch. Pour y parvenir, notre exposé prendra la forme d’un itinéraire éthique. Nous montrerons d’abord que l’homme peut vouloir de deux manières différentes. Il peut se préférer lui-même, se placer comme finalité de son action ou bien, à l’inverse, choisir l’autre comme point focal. Cette deuxième option ne va pas de soi et nécessite un effort de liberté. Dans un deuxième temps, nous expliquerons que ces deux manières de vouloir impliquent la conscience. Se préférer module la conscience tout comme préférer son prochain. Or, la conscience est animée d’une dynamique propre. L’éthique devra chercher à allier la manière de vouloir à celle-ci. Un bon vouloir en phase avec l’évolution de la conscience mène à l’innocence, le stade ultime de la conscience, aussi appelée l’état de grâce. Cet état de grâce est un point culminant, difficile à atteindre et qui commande un important effort de liberté. Il rend possible l’opération de la grâce, objet de notre troisième chapitre. L’opération de la grâce est un moment de conversion qui place l’homme au-dessus de sa nature biologique et le fait coïncider avec un mouvement métempirique. Lorsque cela se produit, l’agent touche au sommet de la vie morale jankélévitchienne, il devient créateur de valeur, générateur de la morale.
Resumo:
Cette thèse propose de suivre la lecture deleuzienne de Spinoza afin de montrer comment Deleuze inscrit sa philosophie de la différence dans l’histoire de la philosophie et de la métaphysique. Loin d’être condescendant envers l’histoire de cette discipline, Deleuze légitime sa conception bi-univoque de la différence à l’aide du parallélisme entre la Nature naturante et la Nature naturée de Spinoza. La différenciation de l’actuel (les modes, l’événement) se fait dans la différentiation du virtuel et c’est en procédant de la sorte que Deleuze participe de plain-pied à la tradition immanentiste de la philosophie où l’être se dit seulement de la différence qu’il exprime. Plus encore, cette thèse explique comment Deleuze reprend les principes de cette métaphysique immanentiste pour établir sa conception de la subjectivité. Là aussi, sa lecture de Spinoza est essentielle, car en affirmant la non-substantialisation de l’âme comme le fait Spinoza, Deleuze peut attaquer, à la racine, les fondements épistémologiques des philosophies du sujet de son époque (existentialisme et phénoménologie en tête). Pour Deleuze, cette conception modale de l’âme et de la subjectivité appuie, métaphysiquement parlant, une épistémologie fondée sur la passivité du sujet. Loin d’être le fondement de la vérité des idées, la conscience d’un moi dans l’âme est, pour Deleuze, un résultat synthétisé, jamais une fonction synthétisante. En ce sens, l’ultime réduction de la philosophie n’est plus l’ego cogito cartésien, mais consiste à reconnaître la fêlure du Je. Deleuze construit ainsi, en envisageant la place de l’imagination dans la puissance de connaître l’âme, une autre épistémologie que celle du sujet fondateur transcendantal ou transcendant. Pour lui, le constat est clair : comment pouvons-nous croire que nous sommes responsables de l’idée que nous formons de nous-mêmes (et s’établir sur celle-ci pour fonder, épistémologiquement, nos idées sur les choses) si nous ne savons même pas ce que peut notre corps, ni comment celui-ci peut affecter et être affecté par notre âme ? Ce principe de « l’inconnu du corps » relativise l’éminence de l’âme et inscrit Deleuze à la fois dans l’une des plus importantes batailles philosophiques de la Modernité (celle de Spinoza contre Descartes) et dans la crise de la subjectivité qui caractérise la pensée française au moment des années soixante. Mots clés : Deleuze ; Spinoza ; Descartes ; histoire de la philosophie ; métaphysique ; épistémologie ; subjectivité ; différence ; actuel ; virtuel ; Je fêlé ; corps ; imagination ; éthologie.