168 resultados para Lumière en architecture


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Différentes méthodes ayant pour objectif une utilisation optimale d'antennes radio-fréquences spécialisées en imagerie par résonance magnétique sont développées et validées. Dans un premier temps, il est démontré qu'une méthode alternative de combinaison des signaux provenant des différents canaux de réception d'un réseau d'antennes mène à une réduction significative du biais causé par la présence de bruit dans des images de diffusion, en comparaison avec la méthode de la somme-des-carrés généralement utilisée. Cette réduction du biais engendré par le bruit permet une amélioration de l'exactitude de l'estimation de différents paramètres de diffusion et de diffusion tensorielle. De plus, il est démontré que cette méthode peut être utilisée conjointement avec une acquisition régulière sans accélération, mais également en présence d'imagerie parallèle. Dans une seconde perspective, les bénéfices engendrés par l'utilisation d'une antenne d'imagerie intravasculaire sont étudiés. Suite à une étude sur fantôme, il est démontré que l'imagerie par résonance magnétique intravasculaire offre le potentiel d'améliorer significativement l'exactitude géométrique lors de mesures morphologiques vasculaires, en comparaison avec les résultats obtenus avec des antennes de surface classiques. Il est illustré qu'une exactitude géométrique comparable à celle obtenue grâce à une sonde ultrasonique intravasculaire peut être atteinte. De plus, plusieurs protocoles basés sur une acquisition de type balanced steady-state free-precession sont comparés dans le but de mettre en évidence différentes relations entre les paramètres utilisés et l'exactitude géométrique obtenue. En particulier, des dépendances entre la taille du vaisseau, le rapport signal-sur-bruit à la paroi vasculaire, la résolution spatiale et l'exactitude géométrique atteinte sont mises en évidence. Dans une même optique, il est illustré que l'utilisation d'une antenne intravasculaire permet une amélioration notable de la visualisation de la lumière d'une endoprothèse vasculaire. Lorsque utilisée conjointement avec une séquence de type balanced steady-state free-precession utilisant un angle de basculement spécialement sélectionné, l'imagerie par résonance magnétique intravasculaire permet d'éliminer complètement les limitations normalement engendrées par l'effet de blindage radio-fréquence de l'endoprothèse.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

À la lecture de la Loi sur le droit d'auteur, il n'est pas clair que la mise en scène y soit protégée. C'est pourquoi nous nous questionnons sur la qualification juridique la plus adéquate pour la mise en scène. Le metteur en scène est-il un artiste-interprète ou un auteur? Après avoir étudié les caractéristiques artistiques des mises en scène, par types de productions et à la lumière de facteurs faisant varier la latitude du metteur en scène, nous étudions les différentes possibilités de qualification juridique de la mise en scène. Les possibilités sont vastes, car le metteur en scène évolue dans un cadre comprenant plusieurs intervenants. De plus, la mise en scène rencontre deux obstacles caractéristiques à sa qualification juridique en droit d'auteur: la fixation et l'originalité. Nous en venons à la conclusion que le metteur en scène est un auteur, car chacun des aspects de la mise en scène serait protégeable sous différentes qualifications juridiques.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Réalisé en cotutelle avec l'Université Bordeaux 1 (France)

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette thèse porte sur l’évaluation de la cohérence du réseau conceptuel démontré par des étudiants de niveau collégial inscrits en sciences de la nature. L’évaluation de cette cohérence s’est basée sur l’analyse des tableaux de Burt issus des réponses à des questionnaires à choix multiples, sur l’étude détaillée des indices de discrimination spécifique qui seront décrits plus en détail dans le corps de l’ouvrage et sur l’analyse de séquences vidéos d’étudiants effectuant une expérimentation en contexte réel. Au terme de ce projet, quatre grands axes de recherche ont été exploré. 1) Quelle est la cohérence conceptuelle démontrée en physique newtonienne ? 2) Est-ce que la maîtrise du calcul d’incertitude est corrélée au développement de la pensée logique ou à la maîtrise des mathématiques ? 3) Quelle est la cohérence conceptuelle démontrée dans la quantification de l’incertitude expérimentale ? 4) Quelles sont les procédures concrètement mise en place par des étudiants pour quantifier l’incertitude expérimentale dans un contexte de laboratoire semi-dirigé ? Les principales conclusions qui ressortent pour chacun des axes peuvent se formuler ainsi. 1) Les conceptions erronées les plus répandues ne sont pas solidement ancrées dans un réseau conceptuel rigide. Par exemple, un étudiant réussissant une question sur la troisième loi de Newton (sujet le moins bien réussi du Force Concept Inventory) montre une probabilité à peine supérieure de réussir une autre question sur ce même sujet que les autres participants. De nombreux couples de questions révèlent un indice de discrimination spécifique négatif indiquant une faible cohérence conceptuelle en prétest et une cohérence conceptuelle légèrement améliorée en post-test. 2) Si une petite proportion des étudiants ont montré des carences marquées pour les questions reliées au contrôle des variables et à celles traitant de la relation entre la forme graphique de données expérimentales et un modèle mathématique, la majorité des étudiants peuvent être considérés comme maîtrisant adéquatement ces deux sujets. Toutefois, presque tous les étudiants démontrent une absence de maîtrise des principes sous-jacent à la quantification de l’incertitude expérimentale et de la propagation des incertitudes (ci-après appelé métrologie). Aucune corrélation statistiquement significative n’a été observée entre ces trois domaines, laissant entendre qu’il s’agit d’habiletés cognitives largement indépendantes. Le tableau de Burt a pu mettre en lumière une plus grande cohérence conceptuelle entre les questions de contrôle des variables que n’aurait pu le laisser supposer la matrice des coefficients de corrélation de Pearson. En métrologie, des questions équivalentes n’ont pas fait ressortir une cohérence conceptuelle clairement démontrée. 3) L’analyse d’un questionnaire entièrement dédié à la métrologie laisse entrevoir des conceptions erronées issues des apprentissages effectués dans les cours antérieurs (obstacles didactiques), des conceptions erronées basées sur des modèles intuitifs et une absence de compréhension globale des concepts métrologiques bien que certains concepts paraissent en voie d’acquisition. 4) Lorsque les étudiants sont laissés à eux-mêmes, les mêmes difficultés identifiées par l’analyse du questionnaire du point 3) reviennent ce qui corrobore les résultats obtenus. Cependant, nous avons pu observer d’autres comportements reliés à la mesure en laboratoire qui n’auraient pas pu être évalués par le questionnaire à choix multiples. Des entretiens d’explicitations tenus immédiatement après chaque séance ont permis aux participants de détailler certains aspects de leur méthodologie métrologique, notamment, l’emploi de procédures de répétitions de mesures expérimentales, leurs stratégies pour quantifier l’incertitude et les raisons sous-tendant l’estimation numérique des incertitudes de lecture. L’emploi des algorithmes de propagation des incertitudes a été adéquat dans l’ensemble. De nombreuses conceptions erronées en métrologie semblent résister fortement à l’apprentissage. Notons, entre autres, l’assignation de la résolution d’un appareil de mesure à affichage numérique comme valeur de l’incertitude et l’absence de procédures d’empilement pour diminuer l’incertitude. La conception que la précision d’une valeur numérique ne peut être inférieure à la tolérance d’un appareil semble fermement ancrée.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’objectif de ce mémoire est de mettre en lumière la mise en forme, la réception et la transmission de 2S 7,1-17 à l’intérieur du débat qui a présentement cours autour de la rédaction deutéronomiste, ainsi que de vérifier le lien possible de ce texte avec l’évolution de la pensée théologique juive issue de l’édition deutéronomiste. Notre recherche commence par établir un texte hébreu de travail fiable grâce à la critique textuelle. L’analyse syntaxique nous permet ensuite de proposer une traduction qui soit la plus fidèle possible au texte hébreu retenu afin de mieux comprendre le sens du texte dans sa langue originale. Nous abordons, dans le troisième chapitre, la question des différentes sources littéraires ayant pu servir à la composition du texte de 2S 7,1-17. L’exploration plus détaillée de quelques pistes qui sont apparues à la suite de la critique des sources et de la réception du texte de 2S 7,1-17 par le(s) Chroniste(s), nous permet de constater qu’à l’intérieur des traditions textuelles hébraïques, la prophétie de Nathan a évolué de façon significative dans le parcours des différentes traditions de relecture. À partir des quatres étapes de recherches, nous dégageons les éléments qui pourraient être mis en lien avec les théories existantes dans le cadre de l’histoire deutéronomiste et mettons en lumière les forces et les faiblesses des solutions proposées. Les résultats de la recherche nous permettent de penser que l’intégration de la prophétie de Nathan dans la trame historique s’expliquerait par la nécessité d’éclairer une suite d’événements selon diverses perspectives théologiques. Ce n’est qu’à partir des conditions exiliques que nous aurions le texte de 2S 7,1-17 le plus tardif offrant une réflexion sur la première histoire d’Israël. Dans ce sens, la prophétie de Nathan prendrait toute sa valeur et son extension bien au-delà de la seule histoire personnelle de David ou de Salomon.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’objectif de ce projet de recherche était de vérifier la présence de changements de sensibilité de la rétine et du système circadien suite à deux semaines d'exposition à un milieu faiblement ou fortement éclairé, dans des conditions contrôlées en laboratoire. De plus, comme un changement de sensibilité peut modifier l'ajustement du système circadien au cycle jour-nuit extérieur, nous voulions également vérifier si la phase circadienne serait modifiée par le traitement et si la vigilance et l’humeur seraient affectées. Dix sujets ont été exposés à de la lumière tamisée (70 lux [LT]) et 10 ont été exposés à de la lumière vive (3000 lux [LV]) pendant 12 jours consécutifs en laboratoire de 8h45 à 19h00 tous les jours. L’exposition à la lumière a été mesurée 5 jours avant l’entrée au laboratoire dans l’habitat naturel du sujet et pendant la période en laboratoire à l’aide de l’Actiwatch-L®. La sensibilité rétinienne a été mesurée avant et après le traitement lumineux, par un électrorétinogramme (ERG) et la sensibilité circadienne, par le test de suppression de mélatonine salivaire. Tout au long du protocole, la vigilance, la somnolence et l'humeur ont été évaluées à plusieurs moments de la journée à intervalles prédéterminés. Après 12 jours d’exposition en lumière contrôlée, l’amplitude de l’onde-a au Vmax à l’ERG photopique a diminué en LV alors qu’elle a augmenen LT. À l’ERG scotopique, une différence de sensibilité rétinienne (log K) entre les groupes avant le traitement expérimental s’est amenuisée à la fin du traitement (p=.053). La suppression de mélatonine après 90 minutes d’exposition au test de suppression a diminué en LV alors qu’il n’y a pas eu de modification en LT, cependant cette interaction n’était pas significative (p=.16). La phase circadienne des sujets exposés à LV a été devancée de 58 minutes (p=.04) alors qu’elle a été retardée de 26 minutes en LT (p=.32). Les mesures de vigilance subjective (EVA) ont indiqué que les sujets LV se considéraient plus éveillés que les sujets LT après le traitement (p=.02). Par contre, aucune différence n’est apparue quant aux mesures de performance psychomotrice ni de l’humeur. L’histoire lumineuse n’a pas modifié la sensibilité rétinienne dans le sens prévu par les hypothèses alors qu’il y a eu une tendance vers une augmentation de la sensibilité circadienne en condition de lumière tamisée. L’amélioration de la vigilance subjective après l’exposition en LV n’a pas été soutenue par les résultats de la performance psychomotrice. L’histoire lumineuse n’a eu aucun effet sur l’humeur des sujets. Cette étude souligne l’importance d’utiliser des mesures permettant de départager les effets immédiats d’un traitement lumineux des effets à long terme autant sur le plan rétinien que circadien. Il reste également complexe d’étudier en laboratoire des changements adaptatifs qui se produisent dans le milieu naturel en raison du confinement et des modifications physiologiques et psychologiques pouvant y être associées.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Thèse réalisée en cotutelle avec la faculté de droit de l'Université d'Orléans en France.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les personnes atteintes de schizophrénie peuvent présenter un sommeil anormal même lorsqu’elles sont stables cliniquement sous traitements pharmacologiques. Les études présentées dans cette thèse ont pour but de mesurer le sommeil afin de mieux comprendre les dysfonctions des mécanismes cérébraux pouvant être impliqués dans la physiopathologie de la schizophrénie. Les trois études présentées dans cette thèse rapportent des résultats sur le sommeil dans la schizophrénie à trois niveaux d’analyse chez trois groupes différents de patients. Le premier niveau est subjectif et décrit le sommeil à l’aide d’un questionnaire administré chez des personnes atteintes de schizophrénie cliniquement stables sous traitements pharmacologiques. Le deuxième niveau est objectif et évalue le sommeil par une méta-analyse des études polysomnographiques chez des patients atteints de schizophrénie ne recevant pas de traitement pharmacologique. Le troisième niveau est micro-structurel et utilise l’analyse spectrale de l’électroencéphalogramme (EEG) afin de caractériser le sommeil paradoxal de patients en premier épisode aigu de schizophrénie avant le début du traitement pharmacologique. La première étude montre que, lorsqu’évaluées par un questionnaire de sommeil, les personnes atteintes de schizophrénie cliniquement stables sous traitements pharmacologiques rapportent prendre plus de temps à s’endormir, se coucher plus tôt et se lever plus tard, passer plus de temps au lit et faire plus de siestes comparativement aux participants sains. Aussi, tout comme les participants sains, les personnes atteintes de schizophrénie rapportent un nombre normal d’éveils nocturnes, se disent normalement satisfaites de leur sommeil et se sentent normalement reposées au réveil. La deuxième étude révèle qu’objectivement, lorsque les études polysomnographiques effectuées chez des patients non traités sont soumises à une méta-analyse, les personnes atteintes de schizophrénie montrent une augmentation du délai d’endormissement, une diminution du temps total en sommeil, une diminution de l’efficacité du sommeil et une augmentation de la durée des éveils nocturnes comparativement aux participants sains. Les patients en arrêt aigu de traitement ont des désordres plus sévères au niveau de ces variables que les patients jamais traités. Seulement les patients jamais traités ont une diminution du pourcentage de stade 2 comparativement aux participants sains. La méta-analyse ne révèle pas de différence significative entre les groupes en ce qui concerne le sommeil lent profond et le sommeil paradoxal. La troisième étude, portant sur l’analyse spectrale de l’EEG en sommeil paradoxal, montre une diminution de l’amplitude relative de la bande de fréquence alpha dans les régions frontales, centrales et temporales et montre une augmentation de l’amplitude relative de la bande de fréquence bêta2 dans la région occipitale chez les personnes en premier épisode de schizophrénie jamais traitées comparativement aux participants sains. L’activité alpha absolue est positivement corrélée aux symptômes négatifs dans les régions frontales, centrales et temporales et négativement corrélée aux symptômes positifs dans la région occipitale. L’activité beta2 absolue ne montre pas de corrélation significative avec les symptômes positifs et négatifs de la schizophrénie. Ces résultats sont discutés suivant la possibilité que des dysfonctions au niveau des mécanismes de la vigilance seraient impliquées dans la physiopathologie de la schizophrénie.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Depuis l’adoption de la politique de l’adaptation scolaire en 1999, le ministère de l’Éducation, du Loisir et du Sport a mis en place un plan d’action pour permettre l’intégration des élèves handicapés ou en difficulté d’adaptation ou d’apprentissage. L’intégration des élèves handicapés a fait l’objet de plusieurs études ; toutefois, peu d’entre elles se sont intéressées à l’intégration d’élèves présentant une déficience auditive et utilisant le langage parlé complété. Le but de cette étude est de mettre en lumière les perceptions d’élèves présentant une déficience auditive quant à l’utilisation du langage parlé complété en contexte d’intégration scolaire. Les concepts exploités dans ce mémoire sont relatifs à la surdité, aux élèves présentant une déficience auditive, aux modes de communication utilisés auprès de ces élèves, et plus particulièrement le langage parlé complété, de même qu’au contexte d’intégration scolaire québécois. Cette recherche est de type exploratoire et la méthode utilisée est qualitative. Cinq étudiants présentant une déficience auditive et âgés entre 12 et 17 ans ont participé à une entrevue semi-dirigée. Les résultats de ces entretiens montrent que ces élèves ont des perceptions positives et négatives face à l’utilisation du langage parlé complété en contexte d’intégration. Quoique de façon générale cela n’entrave pas leur intégration scolaire, les perceptions négatives se rapportent davantage à l’intégration sociale qu’à l’intégration scolaire.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Durant le dernier demi-siècle, la religion, comme tous les autres domaines d’activité humaine, a connu plusieurs transformations importantes. La diminution considérable, durant cette période, de la pratique religieuse institutionnalisée est accompagnée de l’apparition d’une multitude de nouvelles formes de spiritualités qui tentent de répondre aux besoins religieux de l’homme occidental. Parmi les multiples manifestations de ce genre, on découvre une spiritualité distincte, appelée néo-chamanisme ou chamanisme urbain, réunissant de nombreuses pratiques contemporaines qui se définissent comme chamaniques. Dans le cadre de ce mémoire, nous nous sommes concentrés sur l’étude du phénomène néo-chamanique de Michael Harner, ex-professeur et directeur du département d’anthropologie au Graduate Faculty of the New School for Social Research à New York, et fondateur de la Foundation for Shamanic Studies (à l’avenir : FSS). La présente recherche a pour but d’analyser le néo-chamanisme de Harner et de définir sa place parmi les nouvelles formes de religiosités. La théorie de la recomposition du religieux de Danièle Hervieu-Léger sert de cadre d’analyse pour cette nouvelle forme de spiritualité. Dans la première partie, nous traitons le phénomène religieux contemporain sous l’angle socioreligieux. Nous présentons un aperçu global des transformations que celui-ci subit en modernité sous l’impact de la sécularisation. À l’aide de la théorie des nouvelles formes religieuses de Danièle Hervieu-Léger, nous mettons en lumière les principales règles selon lesquelles une nouvelle configuration du religieux se déploie dans le contexte occidental contemporain. Dans la seconde partie, nous examinons le chamanisme traditionnel sous l’angle anthropologique. Nous faisons la lecture d’études classiques sur le chamanisme. Il apparaît que le chamanisme classique est communautaire, réservé à quelques personnes choisies par les esprits et que le processus laborieux d’initiation permettant d’accéder à cette fonction implique certains éléments spécifiques parmi lesquels on compte la maladie initiatique, la mort rituelle et la résurrection de la personne. Dans la troisième partie, nous examinons le néo-chamanisme de Harner. Nous rendons compte de son ouvrage majeur La voie spirituelle du chamane : Le Secret d'un sorcier indien d’Amérique du Nord et nous examinons l’expérience chamanique de la Foundation for Shamanic Studies (FSS). Il se dégage de cette étude que l’approche de Harner se veut l’expression d’un chamanisme fondamental et universel adapté à la société contemporaine. La pratique néo-chamanique de Harner se focalise sur le voyage chamanique et sur le contact avec le monde des esprits comme des éléments qui sont au cœur du chamanisme traditionnel. C’est une pratique axée principalement sur l’individu à des fins d’accomplissement de soi et d’(auto)guérison. Elle attire généralement des personnes dont le niveau de scolarité est élevé, disposées à payer pour les services fournis par la fondation. À la fin de notre étude, nous dégageons les conclusions générales suivantes : le néo-chamanisme de Harner s’éloigne de la tradition chamanique et la transforme en une spiritualité nouvelle adaptée aux besoins des Occidentaux; il reflète les transformations subies par le fait religieux pendant la période moderne; il s’adresse principalement à un public en quête de services spirituels ciblés et ponctuels et il favorise une forme de communalisation temporaire et intense; cependant, l’individuation de la pratique chamanique est porteuse de ses effets politiques et néocoloniaux.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Ce mémoire s'attarde à la notion d'hyperréalisme en littérature contemporaine et à son incarnation spécifique dans trois romans de Suzanne Jacob : L'Obéissance (1991), Rouge mère et fils (2001) et Fugueuses (2005). Le recours à la théorie et à l'histoire de la peinture est essentiel puisque l'hyperréalisme est d'abord endossé par l'art pictural. De plus, la peinture, la photographie, le cinéma, la musique, la télévision, la sculpture, l'architecture et la littérature sont autant de médiations fortement présentes dans le roman hyperréaliste. Cette présence multiple des médias est essentielle au caractère hyperréaliste d'une œuvre ; la tentative d'intégrer le réel passe par un détour représentationnel. Les manifestations stylistiques et narratives de l'hyperréalisme sont associées à l'intégration de formes empruntées à d'autres arts ou médias comme la fugue et le fait divers. Les effets de l'hyperréalisme sur la narration se manifestent également par un éclatement des focalisations, en témoignent la fragmentation narrative ainsi que l'importance accordée au détail. Enfin, l'hyperréalisme joue sur une tension constante entre continuité et rupture. Les conséquences sont à envisager dans une sorte d'appréhension du réel, tant par le personnage que par le roman, qui doivent composer avec une multiplicité de représentations.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Débat public, participation, délibération, autant de termes utilisés pour parler de normes et de dispositifs qui participeraient au nouvel « impératif délibératif » (Blondiaux et Sintomer 2002). Ce mémoire présente une analyse du débat public sur le plan d'urbanisme de Montréal avec un schéma d'analyse inspiré de celui de Simard et Fourniau (2007). Notre discussion du processus de débat porte non seulement sur la phase formelle des audiences publiques, mais aussi sur les étapes de concertation en amont et sur divers processus plus ou moins publicisés en aval. Ceci permet une réflexion d'ordre procédural plus riche qui considère la diversité des dispositifs dans une perspective de complémentarité. Pour chercher des effets du débat public sur le plan d'urbanisme, nous adoptons le parti de la congruence (Offner 1993), ce qui nous amène à une analyse de l'interaction entre des dynamiques contextuelles et des mobilisations des participants au débat. Certaines de ces congruences concordent avec des modifications au plan d'urbanisme. Notre étude propose aussi des implications du contexte particulier de la nouvelle ville de Montréal (avec la création des arrondissements) sur le contenu du débat public, sur certaines de ses manifestations procédurales ainsi que sur sa portée. Notre dernier chapitre montre que la dynamique du débat public en aval, dans la phase de mise en oeuvre du plan d'urbanisme, se déploie beaucoup plus dans les débats sur les grands projets que sur les mécanismes prévus à cette fin, qui comportent des embûches de par leur faible publicité et le caractère technique du processus réglementaire. Dans l'ensemble, notre étude met en lumière l'importance du contexte : autant le processus de débat que ses effets s'inscrivent dans des dynamiques contextuelles.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les avancés dans le domaine de l’intelligence artificielle, permettent à des systèmes informatiques de résoudre des tâches de plus en plus complexes liées par exemple à la vision, à la compréhension de signaux sonores ou au traitement de la langue. Parmi les modèles existants, on retrouve les Réseaux de Neurones Artificiels (RNA), dont la popularité a fait un grand bond en avant avec la découverte de Hinton et al. [22], soit l’utilisation de Machines de Boltzmann Restreintes (RBM) pour un pré-entraînement non-supervisé couche après couche, facilitant grandement l’entraînement supervisé du réseau à plusieurs couches cachées (DBN), entraînement qui s’avérait jusqu’alors très difficile à réussir. Depuis cette découverte, des chercheurs ont étudié l’efficacité de nouvelles stratégies de pré-entraînement, telles que l’empilement d’auto-encodeurs traditionnels(SAE) [5, 38], et l’empilement d’auto-encodeur débruiteur (SDAE) [44]. C’est dans ce contexte qu’a débuté la présente étude. Après un bref passage en revue des notions de base du domaine de l’apprentissage machine et des méthodes de pré-entraînement employées jusqu’à présent avec les modules RBM, AE et DAE, nous avons approfondi notre compréhension du pré-entraînement de type SDAE, exploré ses différentes propriétés et étudié des variantes de SDAE comme stratégie d’initialisation d’architecture profonde. Nous avons ainsi pu, entre autres choses, mettre en lumière l’influence du niveau de bruit, du nombre de couches et du nombre d’unités cachées sur l’erreur de généralisation du SDAE. Nous avons constaté une amélioration de la performance sur la tâche supervisée avec l’utilisation des bruits poivre et sel (PS) et gaussien (GS), bruits s’avérant mieux justifiés que celui utilisé jusqu’à présent, soit le masque à zéro (MN). De plus, nous avons démontré que la performance profitait d’une emphase imposée sur la reconstruction des données corrompues durant l’entraînement des différents DAE. Nos travaux ont aussi permis de révéler que le DAE était en mesure d’apprendre, sur des images naturelles, des filtres semblables à ceux retrouvés dans les cellules V1 du cortex visuel, soit des filtres détecteurs de bordures. Nous aurons par ailleurs pu montrer que les représentations apprises du SDAE, composées des caractéristiques ainsi extraites, s’avéraient fort utiles à l’apprentissage d’une machine à vecteurs de support (SVM) linéaire ou à noyau gaussien, améliorant grandement sa performance de généralisation. Aussi, nous aurons observé que similairement au DBN, et contrairement au SAE, le SDAE possédait une bonne capacité en tant que modèle générateur. Nous avons également ouvert la porte à de nouvelles stratégies de pré-entraînement et découvert le potentiel de l’une d’entre elles, soit l’empilement d’auto-encodeurs rebruiteurs (SRAE).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les polymères amphiphiles sont largement utilisés pour les applications biomédicales et pharmaceutiques. Afin d’améliorer les chances de biocompatibilité des nouveaux polymères que nous voulons développer, nous avons utilisé des composés naturels, les acides biliaires, comme produits de départ dans la synthèse de ces polymères. De nouveaux polymères anioniques amphiphiles dérivés de l’acide cholique ont été préparés par polymérisation radicalaire par transfert d’atomes. Par un contrôle rigoureux des conditions de polymérisation, des bras de poly(acide acrylique) de différentes longueurs ont été greffés sur le squelette de l’acide cholique. L’architecture moléculaire des polymères a été étudiée par spectroscopie 1H RMN et par spectrométrie de masse. Ces polymères en étoile formés par l’acide biliaire modifié sont capables de s’agréger dans l’eau même si les groupements hydroxyles ont été remplacés par des segments plus volumineux. Il a été observé que les liaisons ester entre le polymère et le cœur d’acide cholique sont sensibles à l’hydrolyse en solution aqueuse. Pour remédier au problème de stabilité en solution aqueuse et pour avoir, en même temps, des bras hydrophiles non ioniques et biocompatibles, de l’oxyde d’éthylène a été polymérisé sur l’acide cholique par polymérisation anionique. Les liaisons éther formées entre le polymère et les groupements hydroxyles de l’acide biliaire sont plus stables que les liaisons ester sur le polymère de poly(acide acrylique). Les conditions de réaction de la polymérisation anionique ont été optimisées et ont donné des polymères aux architectures et aux masses molaires contrôlées. Les nouveaux polymères forment des agrégats sphériques tel qu’observé par microscopie électronique à transmission avec des échantillons préparés par la méthode de fracture à froid. Leur morphologie est différente de celle des agrégats cylindriques formés par les acides biliaires. Avec la méthode optimisée pour la polymérisation anionique, l’éther d’allyle et glycidyle a été polymérisé sur un dérivé d’acide cholique, suivi par une thiolation des liaisons doubles pour introduire l’amine ou l’acide sur la chaîne polymère. Cette addition radicalaire est efficace à plus de 90%. Les polymères qui en résultent sont solubles dans l’eau et s’agrègent à une certaine concentration critique. Il est particulièrement intéressant d’observer la thermosensibilité des polymères ayant des groupements amine, laquelle peut être modulée en acétylant partiellement les amines, donnant des points nuages entre 15 et 48°C.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les récents progrès en neuroimagerie ont permis, au cours des dernières années, de faire avancer les connaissances sur les maladies neurologiques et psychiatriques en offrant la possibilité de mieux comprendre l’évolution des maladies neurodégénératives et la nature du comportement, des émotions, de la personnalité, et de la cognition. Plusieurs défis éthiques ont émergés suite à l’utilisation de ces nouvelles technologies d’imagerie cérébrale. La perspective des chercheurs concernant les pratiques d’évaluation des protocoles de recherche en neuroimagerie ainsi que les défis éthiques, sociaux et légaux auxquels font face les chercheurs n'ont pas encore été étudiés, même s’ils constituent des acteurs clés. Nous avons entrepris une étude empirique sur les perspectives des chercheurs quant au processus d'évaluation par les comités d’éthique de la recherche (CÉR) afin d’examiner les enjeux éthiques, légaux et sociaux liés à la pratique de la neuroimagerie au Canada. Pour ce faire, nous avons expédié un questionnaire en ligne et réalisé des entrevues semi-structurées avec des chercheurs en neuroimagerie et des présidents des CÉR. Les entrevues ont été transcrites et analysées à l'aide du logiciel d'analyse qualitative Nvivo. Nos résultats ont mis en lumière plusieurs aspects éthiques légaux et sociaux suscitant une attention particulière afin de remédier aux défis actuels dans la recherche en neuroimagerie ainsi qu’au processus d’évaluation de la recherche par les CÉR. Nos données comportent également des recommandations provenant des chercheurs eux-mêmes afin d'améliorer le processus d'évaluation. Finalement, notre propre expérience avec cette étude multicentrique nous a permis de constater plusieurs des défis mentionnés par les chercheurs.