805 resultados para Université Laval.
Resumo:
Pour les partis politiques attachés à des idéaux pacifiques et internationalistes, comme les partis socialistes, la période de préparation à la Conférence mondiale du désarmement, soit entre 1925 et 1932, put paraître pleine de possibilités pour la réduction des armements nationaux. Bien que ces partis aient partagé un lien transnational, par leur adhésion à l’Internationale ouvrière socialiste, ils étaient avant tout des organisations évoluant dans des cadres nationaux différents. Ainsi, les positions qu’ils mirent de l’avant afin de convaincre leur électorat respectif ne purent être totalement semblables. Dans ce mémoire, le discours public, ainsi que les arguments le sous-tendant, de la SFIO et du Labour concernant le désarmement entre le 12 décembre 1925 et le 3 février 1932 est décrit, analysé et comparé. Les raisons du désarmement, les appréciations des développements sur la question autant dans le contexte de la SDN que dans les autres réunions internationales ainsi qu’au niveau strictement national pour les deux partis sont l’objet de cette étude. Il apparaît que la SFIO et le Labour ont présenté des arguments similaires afin de justifier le désarmement. De plus, bien qu’ils aient tous deux appuyé un potentiel rôle d’arbitrage pour la SDN, alors que les socialistes ont insisté sur leur rôle de lobbyistes, les travaillistes tablèrent plutôt sur les responsabilités des chefs d’État et des « grands hommes » dans le processus, tout particulièrement lorsque leur parti fut au pouvoir. Les travaillistes démontrèrent également une ouverture pour toute avancée du désarmement, même minime, alors que les socialistes préférèrent manifestement les ententes globales. Finalement, des approches nationales aux implications différentes furent promues : l’organisation de la nation en temps de guerre en France et la promotion d’un esprit de paix en Grande-Bretagne.
Resumo:
Les enfants atteints de déficience motrice cérébrale (DMC) intégrés en milieu scolaire ordinaire vivent davantage de difficultés relatives à la compétence sociale que les autres enfants. En lien avec le modèle SOCIAL de Beauchamp et Anderson (2010) (The socio-cognitive integration of abilities model), deux questions sont abordées afin de comprendre ces difficultés. Dans le premier article, les attributions d’intentions (AI) hostiles sont mesurées par le Home Interview with Child (HIWC), un ensemble de vignettes représentants des situations sociales ambigües. Les résultats montrent que l’acceptation sociale, plus que le statut de naissance, est associé à l’hostilité des AI à 15 ans. Les enfants rejetés et populaires ont un niveau d’AI hostiles supérieur aux enfants de la catégorie d’acceptation sociale moyenne. Il est proposé que l’acceptation sociale soit un médiateur important à considérer dans le développement d’un biais d’AI hostile chez les enfants atteints de DMC. Dans le deuxième article, la dominance sociale (i.e., une forme de leadership) est évaluée dans une situation de résolution de problème en équipe. Les comportements relatifs à la dominance sociale (i.e., les comportements prosociaux et coercitifs) sont codifiés à l’aide d’une grille créée et validée pour cette étude. Les résultats révèlent que, sans égard au score d’acceptation sociale, les enfants atteints de DMC effectuent significativement moins de comportements prosociaux et coercitifs que les enfants sans DMC au cours de la résolution de problème. De plus, leur équipe de travail émet un nombre de comportements prosociaux et coercitifs inférieur à celui observé dans l’équipe des deux enfants témoins. Les difficultés de compétence sociale observées chez les jeunes atteints de DMC pourraient être en partie expliquées par une faible dominance sociale lors d’activités sollicitant les fonctions exécutives. Enfin, les deux articles présentés permettent d’explorer de nouvelles avenues pour comprendre et soutenir le développement de la compétence sociale chez les enfants et les adolescents atteints de DMC. Les interventions auprès de cette clientèle devraient avoir lieu tôt et devraient cibler autant les habiletés motrices de ces jeunes que leur compétence sociale, avant que des signaux clairs ne compromettent déjà leur expérience sociale globale en milieu scolaire ordinaire.
Resumo:
La planification de l’approvisionnement forestier est une tâche complexe nécessitant la prise en compte de plusieurs facteurs qui opèrent dans un contexte instable. Au cours des dernières années, des modèles mathématiques ont été développés pour supporter les entreprises forestières dans leur processus de planification de l’approvisionnement. Néanmoins, le nouveau régime de gestion de la ressource établi par le gouvernement implique maintenant un marché libre de bois, ce qui engendre une nouvelle source d’incertitude. Les modèles d’approvisionnement forestier développés deviennent ainsi incomplets. L’objectif de cette recherche est donc de guider les industriels forestiers dans la planification de leur approvisionnement tout en leur offrant une approche de mise optimale dans le cadre d’enchères scellées au premier prix. Pour ce faire, nous avons exploré différentes stratégies d’approvisionnement regroupant un modèle de base avec approvisionnement via le bois garanti et les enchères, un autre incluant l’achat sur terres privées et un dernier prenant en considération la collaboration entre des partenaires industriels pour la mise aux enchères. Les modèles de planification des opérations forestières élaborés cherchent à maximiser le profit d’une compagnie forestière, tout en sélectionnant la combinaison optimale de secteurs forestiers sur lesquels miser dans les ventes aux enchères. Les résultats pour le cas étudié montrent qu’une compagnie qui applique l’approche de mise optimale proposée obtient une moyenne de gain plus élevée que les autres soumissionnaires qui n’appliquent pas une telle approche. De plus, lorsque la compagnie forestière intègre dans sa planification l’approvisionnement via des forêts privées, elle peut obtenir un profit plus élevé (augmentation de 5% par rapport au modèle de base). La collaboration s’avère la stratégie d’approvisionnement qui offre le profit le plus élevé pour la compagnie tout en permettant une utilisation plus efficace de la ressource forestière.
Resumo:
Cette étude a pour but de mettre en contexte la thèse de la modernisation psychique de Daniel Lerner, de faire une analyse interne de l’ouvrage et d’étudier sa réception par les sociologues de l’époque. Comme démarche de recherche, dans un premier temps, nous replacerons l’ouvrage dans la situation historique des deux premières décennies de la guerre froide (les années 50 et 60). Ce faisant, nous tenterons de comprendre la logique de la politique de développement des États-Unis à l’endroit des pays en voie de développement et la place des recherches universitaires dans la politique coloniale américaine. L’approche du développement exogène a largement inspiré les politiques étrangères des pays occidentaux et leurs efforts pour lancer le développement des pays plus nécessiteux. C’est pour cela que Lerner se concentre sur l’effet des médias américains, et surtout du Voice of America, pour analyser le rôle que ceux-ci jouent dans le processus de transformation de la personnalité. Pour aborder cette étape de la recherche, nous devrons comprendre davantage le contexte de l’ouvrage et mieux analyser la relation entre les facteurs externes et les éléments internes qui ont influencé la formation de l’ouvrage. Dans un deuxième temps, nous étudierons l’ouvrage de Lerner et nous discuterons des différents aspects relatifs aux changements sociaux que l’ouvrage a examinés. Dans notre analyse de l’ouvrage, nous critiquerons divers aspects de la pensée sociologique de Lerner et sa manière d’interpréter les faits sociaux et les statistiques. Dans un troisième temps, nous réviserons la réception de l’ouvrage par la communauté scientifique de son époque pour obtenir une large vision de la place de l’oeuvre dans l’histoire de la pensée sociologique américaine du développement. Nous établirons une catégorisation des recensions de l’ouvrage portant sur l’approche sociologique de Lerner et nous mettrons ces recensions dans l’éclairage des champs de recherches universitaires américaines. Nous nous concentrerons sur la réception de cette théorie chez les sociologues de l’époque pour comprendre la dialectique entre la thèse qui y est défendue et la société. Ce faisant, nous éviterons de nous éloigner de la sociologie comme étant la discipline de l’étude des liens sociaux et des interactions symboliques et nous éviterons de réduire notre démarche sociologique à une simple étude historique des idées. En gros, nous discuterons de la vision sociologique de l’auteur, de la façon dont son ouvrage a été formé au fil du temps et comment il a été influencé par l’esprit de son époque. De plus, nous verrons comment l’écrivain s’est nourri des théories sociologiques et à quel point il a influencé la pensée sociologique de son temps. Tout cela, en parallèle à l’analyse interne de l’ouvrage, nous permettra de saisir la place de «The Passing of Traditional Society» dans la pensée sociologique américaine. Cette recherche nous aidera à mieux comprendre la vision américaine de l’empathie en tant qu’un élément modernisateur, par rapport à la question du développement dans le contexte historique de l’époque. Cette compréhension nous mènera à approfondir notre analyse des programmes de développement des États-Unis dans le monde en voie du développement. Cette étude nous amènera aussi à élargir notre vision quant aux idées construites et formées dans leur contexte historique (en général) et à découvrir comment la communauté scientifique reste toujours en parti prisonnière de son contexte historique. Cette étude nous permettra de mieux voir les idées (le texte) en relation avec la société, ce qui est vital pour ne pas tomber dans la réduction des idées seulement au texte ou seulement au contexte. En outre, elle nous aidera à comprendre davantage la façon dont la société intervient dans la formation des idées et comment en retour les idées influencent la société.
Resumo:
Ce mémoire prend pour objet l’étude des vues du Paris moderne par Gustave Caillebotte. Son engagement profond dans la réalité vécue le conduit vers une fascination particulière pour la reproduction de l’image urbaine. Entre 1876 et 1880, l’artiste déambule dans les rues et les boulevards en vue d’exécuter des traitements picturaux originaux et peindre des visions singulières, par rapport à sa propre production artistique de même qu’à celle de ses confrères impressionnistes. En raison des différents points de vue traités dans l’espace urbain, sa perception de la ville semble, à notre avis, évolutive. Que ce soit depuis la rue ou en hauteur, Caillebotte reproduit Paris telle qu’elle se présente devant lui ; c’est ce qui paraît le guider dans sa recherche. Si bien que notre travail consiste à démontrer qu’il est un peintre de la ville moderne. Par l’analyse de trois points de vue privilégiés (dans la rue, à la fenêtre et au balcon), remarqués à la fois dans son corpus et dans sa démarche, cette recherche veut montrer comment l’artiste perçoit l’urbanité moderne et comment il la rend. Nous observons qu’une adéquation entre les moyens plastiques modernes utilisés et l’intérêt de représenter la réalité elle-même moderne, traduit son processus créatif. Apporter des arguments au sujet de son étude des vues de ville, permet aujourd’hui de mieux cerner le travail unique de Gustave Caillebotte dans le paysage urbain.
Resumo:
Si le Marx de Michel Henry reconduit plusieurs thèses développées dans les écrits antérieurs et anticipe celles de « la trilogie » sur le christianisme, le dialogue qu’il instaure autour du thème de la praxis lui confère un statut singulier dans l’ensemble de l’oeuvre. Parce que Marx attribue à la pratique de l’individu et aux rapports réels entre les pratiques le pouvoir de créer les idéalités, notamment celle de la valeur, Henry est lui-même conduit à déplacer le champ d’immanence qu’il avait jusque-là situé du côté de l’ego et du corps vers la pratique et le système du travail vivant aux prises avec le monde objectif. Or du point de vue d’une phénoménologie matérielle, pour autant qu’il renvoie à un point de vue extérieur à la stricte immanence, le seul usage de la notion d’« individu » manifeste déjà une prise en compte de « la transcendance », poussant Henry à suspendre pour une part l’approche phénoménologique. Même si l’acosmisme de L’essence de la manifestation transparait encore dans le Marx, il est mis en tension extrême avec le monde des déterminations sociales et économiques et contraint l’auteur à développer la thèse de l’enracinement de ces déterminations dans l’immanence de la vie et de la praxis. C’est en même temps ce qui fait la force et l’originalité de la lecture henryenne de Marx. D’un autre côté, quand bien même elle hérite d’une éthique de la praxis, la trilogie semble perdre de vue la stricte individualité de la praxis qui apparaît dans le Marx. C’est ainsi que le concept de Vie Absolue qu’elle promeut est associé à une exigence d’universel que Henry avait préalablement disqualifiée, notamment à travers sa critique de Hegel. La thèse qu’on va lire cherche ainsi à rendre compte de l’originalité absolue du Marx dans l’oeuvre du phénoménologue français.
Resumo:
L’estimation temporelle de l’ordre des secondes à quelques minutes requiert des ressources attentionnelles pour l’accumulation d’information temporelle pendant l’intervalle à estimer (Brown, 2006; Buhusi & Meck, 2009; Zakay & Block, 2004). Ceci est démontré dans le paradigme de double tâche, où l’exécution d’une tâche concurrente pendant l’estimation d’un intervalle mène à un effet d’interférence, soit une distorsion de la durée perçue se traduisant par des productions temporelles plus longues et plus variables que si l’estimation de l’intervalle était effectuée seule (voir Brown, 1997; 2010). Un effet d’interférence est également observé lorsqu’une interruption est attendue pendant l’intervalle à estimer, l’allongement étant proportionnel à la durée d’attente de l’interruption (Fortin & Massé, 2000). Cet effet a mené à l’hypothèse que la production avec interruption serait sous-tendue par un mécanisme de partage attentionnel similaire à la double tâche (Fortin, 2003). Afin d’étudier cette hypothèse, deux études empiriques ont été effectuées dans des contextes expérimentaux associés respectivement à une augmentation et à une diminution de l’effet d’interférence, soit le vieillissement (Chapitre II) et l’entraînement cognitif (Chapitre III). Dans le Chapitre II, la tâche de production avec interruption est étudiée chez des participants jeunes et âgés à l’aide de la spectroscopie proche infrarouge fonctionnelle (SPIRf). Les résultats montrent que l’attente de l’interruption est associée à des coûts comportementaux et fonctionnels similaires à la double tâche. Au niveau comportemental, un allongement des productions proportionnel à la durée d’attente de l’interruption est observé chez l’ensemble des participants, mais cet effet est plus prononcé chez les participants âgés que chez les jeunes. Ce résultat est compatible avec les observations réalisées dans le paradigme de double tâche (voir Verhaegen, 2011 pour une revue). Au niveau fonctionnel, la production avec et sans interruption est associée à l’activation du cortex préfrontal droit et des régions préfrontales dorsolatérales connues pour leur rôle au niveau de l’estimation temporelle explicite (production d’intervalle) et implicite (processus préparatoires). En outre, l’attente de l’interruption est associée à l’augmentation de l’activation corticale préfrontale dans les deux hémisphères chez l’ensemble des participants, incluant le cortex ventrolatéral préfrontal associé au contrôle attentionnel dans la double tâche. Finalement, les résultats montrent que les participants âgés se caractérisent par une activation corticale bilatérale lors de la production sans et avec interruption. Dans le cadre des théories du vieillissement cognitif (Park & Reuter-Lorenz, 2009), cela suggère que l’âge est associé à un recrutement inefficace des ressources attentionnelles pour la production d’intervalle, ceci nuisant au recrutement de ressources additionnelles pour faire face aux demandes liées à l’attente de l’interruption. Dans le Chapitre III, la tâche de production avec interruption est étudiée en comparant la performance de participants assignés à l’une ou l’autre de deux conditions d’exécution extensive (cinq sessions successives) de double tâche ou de production avec interruption. Des sessions pré et post-test sont aussi effectuées afin de tester le transfert entre les conditions. Les résultats montrent un effet d’interférence et de durée d’interférence tant en production avec double tâche qu’en production avec interruption. Ces effets sont toutefois plus prononcés lors de la production avec interruption et tendent à augmenter au fil des sessions, ce qui n’est pas observé en double tâche. Cela peut être expliqué par l’influence des processus préparatoires pendant la période pré-interruption et pendant l’interruption. Finalement, les résultats ne mettent pas en évidence d’effets de transfert substantiels entre les conditions puisque les effets de la pratique concernent principalement la préparation temporelle, un processus spécifique à la production avec interruption. Par la convergence que permet l’utilisation d’un même paradigme avec des méthodologies distinctes, ces travaux approfondissent la connaissance des mécanismes attentionnels associés à l’estimation temporelle et plus spécifiquement à la production avec interruption. Les résultats supportent l’hypothèse d’un partage attentionnel induit par l’attente de l’interruption. Les ressources seraient partagées entre les processus d’estimation temporelle explicite et implicite, une distinction importante récemment mise de l’avant dans la recherche sur l’estimation du temps (Coull, Davranche, Nazarian & Vidal, 2013). L’implication de processus dépendant des ressources attentionnelles communes pour le traitement de l’information temporelle peut rendre compte de l’effet d’interférence robuste et systématique observé dans la tâche de production avec interruption.
Resumo:
Il semble régner aujourd’hui une certaine confusion lorsqu’on aborde des concepts et réalités politiques tels que le pouvoir, l’autorité, la domination, voire même la violence. De plus, les sociétés démocratiques et libérales contemporaines s’accordent de plus en plus avec un modèle de gouvernance individualiste et conformiste, ce qui semble limiter significativement toute forme de sens commun. En tant que réalité et catégorie spécifique du politique, l’autorité semble à cet égard s’effacer pour laisser place à une nouvelle figure. Celle-ci combine différents concepts et réalité du politique tels qu’autorité, pouvoir, violence, force, puissance souvent incarné par le chef ou le leader politique, ou encore est institutionnalisée au sein du gouvernement en place. La combinaison de ces différents concepts pour n’en former qu’un rend plutôt confuse notre compréhension de l’autorité et rend conflictuel sa relation avec l’égalité. Pour Hannah Arendt, la disparition de la catégorie politique de l’autorité s’exprime par l’intermédiaire d’une crise. Une crise marquée par une rupture du sens commun qui met en échec non seulement l’égalité entre les citoyennes et citoyens, mais aussi notre façon de concevoir le politique dans son ensemble. Réfléchir à la crise de l’autorité nous amèneras donc à repenser le politique, et ce faisant, les notions d’autorité et d’égalité. Dans ce mémoire, nous soutenons qu’une forme d’équilibre entre l’autorité et l’égalité est toujours possible, et même nécessaire dans notre monde politique contemporain.
Resumo:
Au cours des dernières décennies, l’effort sur les applications de capteurs infrarouges a largement progressé dans le monde. Mais, une certaine difficulté demeure, en ce qui concerne le fait que les objets ne sont pas assez clairs ou ne peuvent pas toujours être distingués facilement dans l’image obtenue pour la scène observée. L’amélioration de l’image infrarouge a joué un rôle important dans le développement de technologies de la vision infrarouge de l’ordinateur, le traitement de l’image et les essais non destructifs, etc. Cette thèse traite de la question des techniques d’amélioration de l’image infrarouge en deux aspects, y compris le traitement d’une seule image infrarouge dans le domaine hybride espacefréquence, et la fusion d’images infrarouges et visibles employant la technique du nonsubsampled Contourlet transformer (NSCT). La fusion d’images peut être considérée comme étant la poursuite de l’exploration du modèle d’amélioration de l’image unique infrarouge, alors qu’il combine les images infrarouges et visibles en une seule image pour représenter et améliorer toutes les informations utiles et les caractéristiques des images sources, car une seule image ne pouvait contenir tous les renseignements pertinents ou disponibles en raison de restrictions découlant de tout capteur unique de l’imagerie. Nous examinons et faisons une enquête concernant le développement de techniques d’amélioration d’images infrarouges, et ensuite nous nous consacrons à l’amélioration de l’image unique infrarouge, et nous proposons un schéma d’amélioration de domaine hybride avec une méthode d’évaluation floue de seuil amélioré, qui permet d’obtenir une qualité d’image supérieure et améliore la perception visuelle humaine. Les techniques de fusion d’images infrarouges et visibles sont établies à l’aide de la mise en oeuvre d’une mise en registre précise des images sources acquises par différents capteurs. L’algorithme SURF-RANSAC est appliqué pour la mise en registre tout au long des travaux de recherche, ce qui conduit à des images mises en registre de façon très précise et des bénéfices accrus pour le traitement de fusion. Pour les questions de fusion d’images infrarouges et visibles, une série d’approches avancées et efficaces sont proposés. Une méthode standard de fusion à base de NSCT multi-canal est présente comme référence pour les approches de fusion proposées suivantes. Une approche conjointe de fusion, impliquant l’Adaptive-Gaussian NSCT et la transformée en ondelettes (Wavelet Transform, WT) est propose, ce qui conduit à des résultats de fusion qui sont meilleurs que ceux obtenus avec les méthodes non-adaptatives générales. Une approche de fusion basée sur le NSCT employant la détection comprime (CS, compressed sensing) et de la variation totale (TV) à des coefficients d’échantillons clairsemés et effectuant la reconstruction de coefficients fusionnés de façon précise est proposée, qui obtient de bien meilleurs résultats de fusion par le biais d’une pré-amélioration de l’image infrarouge et en diminuant les informations redondantes des coefficients de fusion. Une procédure de fusion basée sur le NSCT utilisant une technique de détection rapide de rétrécissement itératif comprimé (fast iterative-shrinking compressed sensing, FISCS) est proposée pour compresser les coefficients décomposés et reconstruire les coefficients fusionnés dans le processus de fusion, qui conduit à de meilleurs résultats plus rapidement et d’une manière efficace.
Resumo:
Une partie appréciable de la recherche moderne dans le domaine du photovoltaïque est basée sur des systèmes organiques sur couches minces. Les photo-détecteurs organiques ne diffèrent des technologies photovoltaïques solaires que par leurs structures chimiques au sein de la couche active, ainsi que par certaines propriétés nécessaires à leurs viabilités. Afin d’obtenir un matériau photoactif dans le proche infrarouge, la structure chimique doit être choisie et conçue de façon à placer ses bandes d’absorptions aux bons endroits. Un contrôle précis de la bande interdite du polymère dictera à quel point ce matériau peut servir à des fins de photo-détections. Les unités thieno-pyrazine et thieno-thiadiazole sont reconnues comme ayant un fort caractère électronique et viennent aisément produire des polymères à faible bande interdite lorsqu’ elles y sont incorporées. Au sein d’un système à hétérojonction de type donneur / accepteur, la miscibilité entre ces deux est cruciale et viendra justifier les performances finales d’un dispositif. Cette miscibilité dictera la morphologie de la couche active, qui est trop souvent imprévisible lors de la conception des structures chimiques des composés. On peut par contre penser à baser une étude sur une morphologie déjà établie, en balisant la structure globale du polymère, tout en modifiant ses fonctionnalités pour avoir un contrôle sur les propriétés électroniques finales. Une structure de poly (4,4’’-didodecyl-2,2’:5’,2’’-terthiophène) dont la morphologie est connue sera donc utilisée dans ce projet et une modification de son thiophène central viendra moduler son activité optique pour en faire un bon candidat en photo-détection infrarouge. Ces travaux ont permis de développer de nouveaux polymères conjugués et de vérifier leurs propriétés électro-optiques.
Resumo:
Ce mémoire présente l’information relative à l’efficacité de différents fossés avaloirs utilisés en milieu agricole. Son objectif principal est d’évaluer l’efficacité de trois bassins de sédimentation créés à l’aide de différents avaloirs. Pour ce faire la caractérisation de l’eau a été réalisée. La campagne d’échantillonnage et de prise de mesures a été réalisée durant la période estivale de l’année 2013. Le but de cette campagne est d’évaluer le débit, d’analyser les concentrations ainsi que les charges des matières en suspension, d’azote et de phosphore, et de caractériser la pluviométrie. Les résultats obtenus mettent en évidence quel type de fossé avaloir est le plus efficace pour retenir une partie des polluants, pour contrôler le débit de pointe et pour réduire l’impact de la pollution agricole.
Resumo:
La présente recherche vise à observer et définir le rôle, les enjeux et les effets d’une expérience d’ateliers artistiques mise en œuvre au sein du Service à la Famille chinoise du Grand Montréal (SFCGM) au cours de l’année 2013/2014. Dans cette optique, il a fallu planifier et animer ces rencontres et également réaliser des entretiens semi-dirigés avec quelques immigrants chinois présents aux ateliers. Cette étude s’articule autour de la fonction relationnelle et de médiation de l’activité culturelle et artistique et de l’outil photographique en lien avec la communauté. Nous tenterons de démontrer en quoi l’espace de communication créé par l’intervention culturelle et artistique aide les participants à mieux définir leur identité individuelle et collective, à trouver un élan et une ouverture favorisant le rapprochement avec d’autres cultures, en particulier celle du pays d’accueil dans l’optique de leur intégration au sein de la société.
Resumo:
Depuis ces dernières décennies, le domaine des biomatériaux a connu un essor considérable, évoluant de simples prothèses aux dispositifs les plus complexes pouvant détenir une bioactivité spécifique. Outre, le progrès en science des matériaux et une meilleure compréhension des systèmes biologiques a offert la possibilité de créer des matériaux synthétiques pouvant moduler et stimuler une réponse biologique déterminée, tout en améliorant considérablement la performance clinique des biomatériaux. En ce qui concerne les dispositifs cardiovasculaires, divers recouvrements ont été développés et étudiés dans le but de modifier les propriétés de surface et d’améliorer l’efficacité clinique des tuteurs. En effet, lorsqu’un dispositif médical est implanté dans le corps humain, son succès clinique est fortement influencé par les premières interactions que sa surface établit avec les tissus et les fluides biologiques environnants. Le recouvrement à la surface de biomatériaux par diverses molécules ayant des propriétés complémentaires constitue une approche intéressante pour atteindre différentes cibles biologiques et orienter la réponse de l’hôte. De ce fait, l’élucidation de l’interaction entre les différentes molécules composant les recouvrements est pertinente pour prédire la conservation de leurs propriétés biologiques spécifiques. Dans ce travail, des recouvrements pour des applications cardiovasculaires ont été créés, composés de deux molécules ayant des propriétés biologiques complémentaires : la fibronectine (FN) afin de promouvoir l’endothélialisation et la phosphorylcholine (PRC) pour favoriser l’hémocompatibilité. Des techniques d’adsorption et de greffage ont été appliquées pour créer différents recouvrements de ces deux biomolécules sur un polymère fluorocarboné déposé par traitement plasma sur un substrat en acier inoxydable. Dans un premier temps, des films de polytétrafluoroéthylène (PTFE) ont été utilisés en tant que surface modèle afin d’explorer l’interaction de la PRC et de la FN avec les surfaces fluorocarbonées ainsi qu’avec des cellules endothéliales et du sang. La stabilité des recouvrements de FN sur l’acier inoxydable a été étudiée par déformation, mais également par des essais statiques et dynamiques sous-flux. Les recouvrements ont été caractérisés par Spectroscopie Photoéléctronique par Rayons X, immunomarquage, angle de contact, Microscopie Électronique de Balayage, Microscopie de Force Atomique et Spectrométrie de Masse à Ionisation Secondaire à Temps de Vol (imagerie et profilage en profondeur). Des tests d’hémocompatibilité ont été effectués et l’interaction des cellules endothéliales avec les recouvrements a également été évaluée. La FN greffée a présenté des recouvrements plus denses et homogènes alors que la PRC quant à elle, a montré une meilleure homogénéité lorsqu’elle était adsorbée. La caractérisation de la surface des échantillons contenant FN/PRC a été corrélée aux propriétés biologiques et les recouvrements pour lesquels la FN a été greffée suivie de l’adsorption de la PRC ont présenté les meilleurs résultats pour des applications cardiovasculaires : la promotion de l’endothélialisation et des propriétés d’hémocompatibilité. Concernant les tests de stabilité, les recouvrements de FN greffée ont présenté une plus grande stabilité et densité que dans le cas de l’adsorption. En effet, la pertinence de présenter des investigations des essais sous-flux versus des essais statiques ainsi que la comparaison des différentes stratégies pour créer des recouvrements a été mis en évidence. D’autres expériences sont nécessaires pour étudier la stabilité des recouvrements de PRC et de mieux prédire son interaction avec des tissus in vivo.
Resumo:
Les déficits cognitifs sont centraux à la psychose et sont observables plusieurs années avant le premier épisode psychotique. L’atteinte de la mémoire épisodique est fréquemment identifiée comme une des plus sévères, tant chez les patients qu’avant l’apparition de la pathologie chez des populations à risque. Chez les patients psychotiques, l’étude neuropsychologique des processus mnésiques a permis de mieux comprendre l’origine de cette atteinte. Une altération des processus de mémoire de source qui permettent d’associer un souvenir à son origine a ainsi été identifiée et a été associée aux symptômes positifs de psychose, principalement aux hallucinations. La mémoire de source de même que la présence de symptômes sous-cliniques n’ont pourtant jamais été investiguées avant l’apparition de la maladie chez une population à haut risque génétique de psychose (HRG). Or, leur étude permettrait de voir si les déficits en mémoire de source de même que le vécu d’expériences hallucinatoires sont associés à l’apparition de la psychose ou s’ils en précèdent l’émergence, constituant alors des indicateurs précoces de pathologie. Afin d’étudier cette question, trois principaux objectifs ont été poursuivis par la présente thèse : 1) caractériser le fonctionnement de la mémoire de source chez une population HRG afin d’observer si une atteinte de ce processus précède l’apparition de la maladie, 2) évaluer si des manifestations sous-cliniques de symptômes psychotiques, soit les expériences hallucinatoires, sont identifiables chez une population à risque et 3) investiguer si un lien est présent entre le fonctionnement en mémoire de source et la symptomatologie sous-clinique chez une population à risque, à l’instar de ce qui est documenté chez les patients. Les résultats de la thèse ont permis de démontrer que les HRG présentent une atteinte de la mémoire de source ciblée à l’attribution du contexte temporel des souvenirs, ainsi que des distorsions mnésiques qui se manifestent par une fragmentation des souvenirs et par une défaillance de la métacognition en mémoire. Il a également été observé que les expériences hallucinatoires sous-cliniques étaient plus fréquentes chez les HRG. Des associations ont été documentées entre certaines distorsions en mémoire et la propension à halluciner. Ces résultats permettent d’identifier de nouveaux indicateurs cliniques et cognitifs du risque de développer une psychose et permettent de soulever des hypothèses liant l’attribution de la source interne-externe de l’information et le développement de la maladie. Les implications empiriques, théoriques, méthodologiques et cliniques de la thèse sont discutées.
Resumo:
Le glaucome est un groupe hétérogène de maladies qui sont caractérisées par l’apoptose des cellules ganglionnaires de la rétine et la dégénérescence progressive du nerf optique. Il s’agit de la première cause de cécité irréversible, qui touche environ 60 millions de personnes dans le monde. Sa forme la plus commune est le glaucome à angle ouvert (GAO), un trouble polygénique causé principalement par une prédisposition génétique, en interaction avec d’autres facteurs de risque tels que l’âge et la pression intraoculaire élevée (PIO). Le GAO est une maladie génétique complexe, bien que certaines formes sévères sont autosomiques dominantes. Dix-sept loci ont été liés à la maladie et acceptés par la « Human Genome Organisation » (HUGO) et cinq gènes ont été identifiés à ces loci (MYOC, OPTN, WDR36, NTF4, ASB10). Récemment, des études d’association sur l’ensemble du génome ont identifié plus de 20 facteurs de risque fréquents, avec des effets relativement faibles. Depuis plus de 50 ans, notre équipe étudie 749 membres de la grande famille canadienne-française CA où la mutation MYOCK423E cause une forme autosomale dominante de GAO dont l’âge de début est fortement variable. Premièrement, il a été montré que cette variabilité de l’âge de début de l’hypertension intraoculaire possède une importante composante génétique causée par au moins un gène modificateur. Ce modificateur interagit avec la mutation primaire et altère la sévérité du glaucome chez les porteurs de MYOCK423E. Un gène modificateur candidat WDR36 a été génotypé dans 2 grandes familles CA et BV. Les porteurs de variations non-synonymes de WDR36 ainsi que de MYOCK423E de la famille CA ont montré une tendance à développer la maladie plus jeune. Un outil de forage de données a été développé pour représenter des informations connues relatives à la maladie et faciliter la priorisation des gènes candidats. Cet outil a été appliqué avec succès à la dépression bipolaire et au glaucome. La suite du projet consiste à finaliser un balayage de génome sur la famille CA et à séquencer les loci afin d’identifier les variations modificatrices du glaucome. Éventuellement, ces variations permettront d’identifier les individus dont le glaucome risque d’être plus agressif.