995 resultados para diffusion anisotropy
Resumo:
Un fichier intitulé Charbonneau_Nathalie_2008_AnimationAnnexeT accompagne la thèse. Il contient une séquence animée démontrant le type de parcours pouvant être effectué au sein des environnements numériques développés. Il s'agit d'un fichier .wmv qui a été compressé.
La diffusion des archives historiques par le biais des expositions virtuelles : survol des avantages
Resumo:
Travail de recherche réalisé à l’hiver 2009 dans le cadre du cours Arv1050 Introduction à l’archivistique sous la direction de la professeure Sabine Mas.
Resumo:
Comprendre le mode d’existence de l’organisation est certainement l’un des plus grands défis que se sont donnés les chercheurs qui s’intéressent à ce domaine d’étude. La littérature nous présente ainsi plusieurs images, métaphores et perspectives qui, combinées, dressent un portrait hybride de ce type de collectif. Je propose, dans cette thèse, de reconnaître et exploiter ce caractère hybride de l’organisation en partant d’une réflexion centrée sur l'espace. En m’inspirant particulièrement des travaux de la géographe Doreen Massey (1999, 2005), le concept d'espace auquel je souscris est celui d’un espace ouvert et dynamique (qui incorpore le temps), basé sur une relationalité matérielle et hétérogène, supposant des acteurs humains et non humains en interaction. L'espace peut donc être compris comme la coexistence d’ontologies hétérogènes, ce que Massey (2005) nomme une coexistence de trajectoires comme stories-so-far. Il s’agit ici d’une vision performative de l’espace organisationnel qui est constitué dans la relation de trajectoires distinctes qui coexistent, se rencontrent, s’affectent, entrent en conflit ou coopèrent (Massey, 1999). Je postule que pour assurer une certaine continuité et cohérence dans la coexistence de trajectoires hétérogènes, un travail d’alignement et d’ordonnancement est mis à l’oeuvre, et ce, par le suivi d’une trajectoire principale — ce que je nomme une trajectoire scriptée. Suivre cette trajectoire permet ainsi à l’organisation de s’étendre, de se rendre présente dans le temps et dans l’espace, sans pour autant perdre son identité : to be here and there at the same time, now and then at the same place. À partir de cette définition de l’espace, je propose d’« espacer l’organisation », et plus particulièrement d’« espacer » Explora, un programme d’éducation non formelle du gouvernement du Chili visant la diffusion et la valorisation de la science et de la technologie. Cette proposition est double : elle renvoie aux pratiques d’espacements — des pratiques hybrides, collectives et situées — des agents organisationnels (dans ce cas, aux pratiques des agents d’Explora impliqués dans l’organisation d’un projet, celui de la Semaine de la science 2006),mais aussi à une pratique de recherche. « Espacer l’organisation » veut donc dire déployer ces espaces pleins, déplier l’organisation, accroître la série des simultanéités-successions pour ainsi créer plus d’espace-temps.
Resumo:
Nous investiguons dans ce travail la dynamique des excitons dans une couche mince d’agrégats H autoassemblés hélicoïdaux de molécules de sexithiophène. Le couplage intermoléculaire (J=100 meV) place ce matériau dans la catégorie des semi-conducteurs à couplage de type intermédiaire. Le désordre énergétique et la forte interaction électronsphonons causent une forte localisation des excitons. Les espèces initiales se ramifient en deux états distincts : un état d’excitons autopiégés (rendement de 95 %) et un état à transfert de charge (rendement de 5%). À température de la pièce (293K), les processus de sauts intermoléculaires sont activés et l’anisotropie de la fluorescence décroît rapidement à zéro en 5 ns. À basse température (14K), les processus de sauts sont gelés. Pour caractériser la dynamique de diffusion des espèces, une expérience d’anisotropie de fluorescence a été effectuée. Celle-ci consiste à mesurer la différence entre la photoluminescence polarisée parallèlement au laser excitateur et celle polarisée perpendiculairement, en fonction du temps. Cette mesure nous donne de l’information sur la dépolarisation des excitons, qui est directement reliée à leur diffusion dans la structure supramoléculaire. On mesure une anisotropie de 0,1 après 20 ns qui perdure jusqu’à 50ns. Les états à transfert de charge causent une remontée de l’anisotropie vers une valeur de 0,15 sur une plage temporelle allant de 50 ns jusqu’à 210 ns (période entre les impulsions laser). Ces résultats démontrent que la localisation des porteurs est très grande à 14K, et qu’elle est supérieure pour les espèces à transfert de charge. Un modèle numérique simple d’équations différentielles à temps de vie radiatif et de dépolarisation constants permet de reproduire les données expérimentales. Ce modèle a toutefois ses limitations, notamment en ce qui a trait aux mécanismes de dépolarisation des excitons.
Resumo:
Le présent mémoire comprend un survol des principales méthodes de rendu en demi-tons, de l’analog screening à la recherche binaire directe en passant par l’ordered dither, avec une attention particulière pour la diffusion d’erreur. Ces méthodes seront comparées dans la perspective moderne de la sensibilité à la structure. Une nouvelle méthode de rendu en demi-tons par diffusion d’erreur est présentée et soumise à diverses évaluations. La méthode proposée se veut originale, simple, autant à même de préserver le caractère structurel des images que la méthode à l’état de l’art, et plus rapide que cette dernière par deux à trois ordres de magnitude. D’abord, l’image est décomposée en fréquences locales caractéristiques. Puis, le comportement de base de la méthode proposée est donné. Ensuite, un ensemble minutieusement choisi de paramètres permet de modifier ce comportement de façon à épouser les différents caractères fréquentiels locaux. Finalement, une calibration détermine les bons paramètres à associer à chaque fréquence possible. Une fois l’algorithme assemblé, toute image peut être traitée très rapidement : chaque pixel est attaché à une fréquence propre, cette fréquence sert d’indice pour la table de calibration, les paramètres de diffusion appropriés sont récupérés, et la couleur de sortie déterminée pour le pixel contribue en espérance à souligner la structure dont il fait partie.
Resumo:
Afin d'étudier la diffusion et la libération de molécules de tailles inférieures dans un gel polymère, les coefficients d'auto-diffusion d'une série de polymères en étoile avec un noyau d'acide cholique et quatre branches de poly(éthylène glycol) (PEG) ont été déterminés par spectroscopie RMN à gradient de champ pulsé dans des solutions aqueuses et des gels de poly(alcool vinylique). Les coefficients de diffusion obtenus ont été comparés avec ceux des PEGs linéaires et dendritiques pour étudier l'effet de l'architecture des polymères. Les polymères en étoile amphiphiles ont des profils de diffusion en fonction de la concentration similaires à leurs homologues linéaires dans le régime dilué. Ils diffusent plus lentement dans le régime semi-dilué en raison de leur noyau hydrophobe. Leurs conformations en solution ont été étudiées par des mesures de temps de relaxation spin-réseau T1 du noyau et des branches. L'imagerie RMN a été utilisée pour étudier le gonflement des comprimés polymères et la diffusion dans la matrice polymère. Les comprimés étaient constitués d'amidon à haute teneur en amylose et chargés avec de l'acétaminophène (de 10 à 40% en poids). Le gonflement des comprimés, ainsi que l'absorption et la diffusion de l'eau, augmentent avec la teneur en médicament, tandis que le pourcentage de libération du médicament est similaire pour tous les comprimés. Le gonflement in vitro des comprimés d'un complexe polyélectrolyte à base d'amidon carboxyméthylé et de chitosane a également été étudié par imagerie RMN. Ces comprimés sont sensibles au pH : ils gonflent beaucoup plus dans les milieux acides que dans les milieux neutres en raison de la dissociation des deux composants et de la protonation des chaînes du chitosane. La comparaison des résultats avec ceux d'amidon à haute teneur en amylose indique que les deux matrices ont des gonflements et des profils de libération du médicament semblables dans les milieux neutres, alors que les comprimés complexes gonflent plus dans les milieux acides en raison de la dissociation du chitosane et de l'amidon.
Resumo:
De nos jours, la voiture est devenue le mode de transport le plus utilisé, mais malheureusement, il est accompagné d’un certain nombre de problèmes (accidents, pollution, embouteillages, etc.), qui vont aller en s’aggravant avec l’augmentation prévue du nombre de voitures particulières, malgré les efforts très importants mis en œuvre pour tenter de les réduire ; le nombre de morts sur les routes demeure très important. Les réseaux sans fil de véhicules, appelés VANET, qui consistent de plusieurs véhicules mobiles sans infrastructure préexistante pour communiquer, font actuellement l’objet d'une attention accrue de la part des constructeurs et des chercheurs, afin d’améliorer la sécurité sur les routes ou encore les aides proposées aux conducteurs. Par exemple, ils peuvent avertir d’autres automobilistes que les routes sont glissantes ou qu’un accident vient de se produire. Dans VANET, les protocoles de diffusion (broadcast) jouent un rôle très important par rapport aux messages unicast, car ils sont conçus pour transmettre des messages de sécurité importants à tous les nœuds. Ces protocoles de diffusion ne sont pas fiables et ils souffrent de plusieurs problèmes, à savoir : (1) Tempête de diffusion (broadcast storm) ; (2) Nœud caché (hidden node) ; (3) Échec de la transmission. Ces problèmes doivent être résolus afin de fournir une diffusion fiable et rapide. L’objectif de notre recherche est de résoudre certains de ces problèmes, tout en assurant le meilleur compromis entre fiabilité, délai garanti, et débit garanti (Qualité de Service : QdS). Le travail de recherche de ce mémoire a porté sur le développement d’une nouvelle technique qui peut être utilisée pour gérer le droit d’accès aux médias (protocole de gestion des émissions), la gestion de grappe (cluster) et la communication. Ce protocole intègre l'approche de gestion centralisée des grappes stables et la transmission des données. Dans cette technique, le temps est divisé en cycles, chaque cycle est partagé entre les canaux de service et de contrôle, et divisé en deux parties. La première partie s’appuie sur TDMA (Time Division Multiple Access). La deuxième partie s’appuie sur CSMA/CA (Carrier Sense Multiple Access / Collision Avoidance) pour gérer l’accès au medium. En outre, notre protocole ajuste d’une manière adaptative le temps consommé dans la diffusion des messages de sécurité, ce qui permettra une amélioration de la capacité des canaux. Il est implanté dans la couche MAC (Medium Access Control), centralisé dans les têtes de grappes (CH, cluster-head) qui s’adaptent continuellement à la dynamique des véhicules. Ainsi, l’utilisation de ce protocole centralisé nous assure une consommation efficace d’intervalles de temps pour le nombre exact de véhicules actifs, y compris les nœuds/véhicules cachés; notre protocole assure également un délai limité pour les applications de sécurité, afin d’accéder au canal de communication, et il permet aussi de réduire le surplus (overhead) à l’aide d’une propagation dirigée de diffusion.
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Thèse diffusée initialement dans le cadre d'un projet pilote des Presses de l'Université de Montréal/Centre d'édition numérique UdeM (1997-2008) avec l'autorisation de l'auteur.
Resumo:
Travail de recherche réalisé à l’EBSI, Université de Montréal, dans le cadre du cours SCI6111 Politique de gestion des archives offert au trimestre d’automne 2011 par le professeur Yvon Lemay.
Resumo:
Ce mémoire explore le concept de diffusion des archives à l’ère du Web 2.0. Dans le contexte nord-américain, la diffusion en archivistique englobe les aspects de promotion, de mise en valeur et de communication des archives. Le Web 2.0 offre un potentiel très intéressant pour la diffusion d’archives. Ce moyen de diffusion est défini comme étant un ensemble de principes et de technologies qui crée et facilite l’interaction entre plusieurs individus. Peu d’études ont été menées sur la diffusion des archives à l’ère du Web 2.0, c’est pourquoi notre recherche s’est intéressée à un milieu qui a intégré le Web 2.0 afin d’instaurer un dialogue avec ses usagers, connus et potentiels, pour exploiter ses archives et augmenter sa visibilité, soit le Musée McCord. Dans cette étude de cas simple certains membres du personnel du Musée McCord ont été rencontrés, afin de découvrir les motivations de l’institution à se lancer dans l’utilisation d’outils issus de ces technologies. De plus, l’étude a permis d’observer quels outils ont été choisis, comment et pourquoi. Ensuite, les avantages et les désavantages de cette nouvelle utilisation ont été mis en lumière. Enfin, les étapes de la mise en place d’outils du Web 2.0 sont exposées.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
Resumo:
La diffusion sur les plateformes néomédiatiques d’œuvres audiovisuelles, comme les sites Internet des télédiffuseurs ou des webdiffuseurs, la vidéo sur demande, la télévision mobile ou la webdistribution, modifie les risques que les producteurs audiovisuels doivent gérer normalement sur les plateformes traditionnelles, comme la télévision. La mutation des risques découle de quatre sources en particulier, soit du marché, des pratiques d’affaires, des lois et règlements et des techniques elles-mêmes. Ces sources peuvent également induire des normes pouvant constituer un cadre juridique afin de moduler ou éliminer les risques. Le présent mémoire analyse les risques encourus lors de la diffusion sur les plateformes néomédiatiques d’œuvres audiovisuelles du point de vue des producteurs par l’entremise du processus de gestion de risques. Il identifie et recense ainsi les risques en mutation et les nouveaux risques auxquels les producteurs sont confrontés. Puis, les risques identifiés y sont définis et le cadre juridique est abordé dans le contexte de la mise en œuvre d’une stratégie de gestion de risques et des mesures afin d’atténuer ou d’éviter les risques encourus par les activités de production et d’exploitation des producteurs.