50 resultados para Diffusion times
Resumo:
Cette thèse a été réalisée en cotutelle. Pour la forme, Gérard Jasniewicz était mon codirecteur 'officiel' en France, bien que mon codirecteur était plutôt Olivier Richard qui m'a encadré lorsque j'étais en France.
Resumo:
Le relevé DEBRIS est effectué par le télescope spatial Herschel. Il permet d’échantillonner les disques de débris autour d’étoiles de l’environnement solaire. Dans la première partie de ce mémoire, un relevé polarimétrique de 108 étoiles des candidates de DEBRIS est présenté. Utilisant le polarimètre de l’Observatoire du Mont-Mégantic, des observations ont été effectuées afin de détecter la polarisation due à la présence de disques de débris. En raison d’un faible taux de détection d’étoiles polarisées, une analyse statistique a été réalisée dans le but de comparer la polarisation d’étoiles possédant un excès dans l’infrarouge et la polarisation de celles n’en possédant pas. Utilisant la théorie de diffusion de Mie, un modèle a été construit afin de prédire la polarisation due à un disque de débris. Les résultats du modèle sont cohérents avec les observations. La deuxième partie de ce mémoire présente des tests optiques du polarimètre POL-2, construit à l’Université de Montréal. L’imageur du télescope James-Clerk-Maxwell passe de l’instrument SCUBA à l’instrument SCUBA-2, qui sera au moins cent fois plus rapide que son prédécesseur. De même, le polarimètre suit l’amélioration et un nouveau polarimètre, POL-2, a été installé sur SCUBA-2 en juillet 2010. Afin de vérifier les performances optiques de POL-2, des tests ont été exécutés dans les laboratoires sub-millimétriques de l’Université de Western Ontario en juin 2009 et de l’Université de Lethbridge en septembre 2009. Ces tests et leurs implications pour les observations futures sont discutés.
Resumo:
Afin d'étudier la diffusion et la libération de molécules de tailles inférieures dans un gel polymère, les coefficients d'auto-diffusion d'une série de polymères en étoile avec un noyau d'acide cholique et quatre branches de poly(éthylène glycol) (PEG) ont été déterminés par spectroscopie RMN à gradient de champ pulsé dans des solutions aqueuses et des gels de poly(alcool vinylique). Les coefficients de diffusion obtenus ont été comparés avec ceux des PEGs linéaires et dendritiques pour étudier l'effet de l'architecture des polymères. Les polymères en étoile amphiphiles ont des profils de diffusion en fonction de la concentration similaires à leurs homologues linéaires dans le régime dilué. Ils diffusent plus lentement dans le régime semi-dilué en raison de leur noyau hydrophobe. Leurs conformations en solution ont été étudiées par des mesures de temps de relaxation spin-réseau T1 du noyau et des branches. L'imagerie RMN a été utilisée pour étudier le gonflement des comprimés polymères et la diffusion dans la matrice polymère. Les comprimés étaient constitués d'amidon à haute teneur en amylose et chargés avec de l'acétaminophène (de 10 à 40% en poids). Le gonflement des comprimés, ainsi que l'absorption et la diffusion de l'eau, augmentent avec la teneur en médicament, tandis que le pourcentage de libération du médicament est similaire pour tous les comprimés. Le gonflement in vitro des comprimés d'un complexe polyélectrolyte à base d'amidon carboxyméthylé et de chitosane a également été étudié par imagerie RMN. Ces comprimés sont sensibles au pH : ils gonflent beaucoup plus dans les milieux acides que dans les milieux neutres en raison de la dissociation des deux composants et de la protonation des chaînes du chitosane. La comparaison des résultats avec ceux d'amidon à haute teneur en amylose indique que les deux matrices ont des gonflements et des profils de libération du médicament semblables dans les milieux neutres, alors que les comprimés complexes gonflent plus dans les milieux acides en raison de la dissociation du chitosane et de l'amidon.
Resumo:
L’objectif principal de cette recherche est de contribuer au développement de biocapteurs commerciaux utilisant des surfaces de papier comme matrices d’immobilisation, capables de produire un signal colorimétrique perceptible dans les limites sensorielles humaines. Ce type de biocapteur, appelé papier bioactif, pourrait servir par exemple à la détection de substances toxiques ou d’organismes pathogènes. Pour atteindre l’objectif énoncé, ce travail propose l’utilisation de systèmes enzymatiques microencapsulés couchés sur papier. Les enzymes sont des catalyseurs biologiques dotés d’une haute sélectivité, et capables d'accélérer la vitesse de certaines réactions chimiques spécifiques jusqu’à des millions des fois. Les enzymes sont toutefois des substances très sensibles qui perdent facilement leur fonctionnalité, raison pour laquelle il faut les protéger des conditions qui peuvent les endommager. La microencapsulation est une technique qui permet de protéger les enzymes sans les isoler totalement de leur environnement. Elle consiste à emprisonner les enzymes dans une sphère poreuse de taille micrométrique, faite de polymère, qui empêche l’enzyme de s’echapper, mais qui permet la diffusion de substrats à l'intérieur. La microencapsulation utilisée est réalisée à partir d’une émulsion contenant un polymère dissous dans une phase aqueuse avec l’enzyme désirée. Un agent réticulant est ensuite ajouté pour provoquer la formation d'un réseau polymérique à la paroi des gouttelettes d'eau dans l'émulsion. Le polymère ainsi réticulé se solidifie en enfermant l’enzyme à l'intérieur de la capsule. Par la suite, les capsules enzymatiques sont utilisées pour donner au papier les propriétés de biocapteur. Afin d'immobiliser les capsules et l'enzyme sur le papier, une méthode courante dans l’industrie du papier connu sous le nom de couchage à lame est utilisée. Pour ce faire, les microcapsules sont mélangées avec une sauce de couchage qui sera appliquée sur des feuilles de papier. Les paramètres de viscosité i de la sauce et ceux du couchage ont été optimisés afin d'obtenir un couchage uniforme répondant aux normes de l'industrie. Les papiers bioactifs obtenus seront d'abord étudiés pour évaluer si les enzymes sont toujours actives après les traitements appliqués; en effet, tel que mentionné ci-dessus, les enzymes sont des substances très sensibles. Une enzyme très étudiée et qui permet une évaluation facile de son activité, connue sous le nom de laccase, a été utilisée. L'activité enzymatique de la laccase a été évaluée à l’aide des techniques analytiques existantes ou en proposant de nouvelles techniques d’analyse développées dans le laboratoire du groupe Rochefort. Les résultats obtenus démontrent la possibilité d’inclure des systèmes enzymatiques microencapsulés sur papier par couchage à lame, et ce, en utilisant des paramètres à grande échelle, c’est à dire des surfaces de papier de 0.75 x 3 m2 modifiées à des vitesses qui vont jusqu’à 800 m/min. Les biocapteurs ont retenu leur activité malgré un séchage par évaporation de l’eau à l’aide d’une lampe IR de 36 kW. La microencapsulation s’avère une technique efficace pour accroître la stabilité d’entreposage du biocapteur et sa résistance à l’exposition au NaN3, qui est un inhibiteur connu de ce biocapteur. Ce projet de recherche fait partie d'un effort national visant à développer et à mettre sur le marché des papiers bioactifs; il est soutenu par Sentinel, un réseau de recherche du CRSNG.
Resumo:
L’arthrite est l’une des causes principales de douleur et d’incapacité auprès de la population canadienne. Les gens atteints d’arthrite rhumatoïde (AR) devraient être évalués par un rhumatologue moins de trois mois suivant l’apparition des premiers symptômes et ce afin de débuter un traitement médical approprié qui leur sera bénéfique. La physiothérapie et l’ergothérapie s’avèrent bénéfiques pour les patients atteints d’ostéoarthrite (OA) et d’AR, et aident à réduire l’incapacité. Notre étude a pour but d’évaluer les délais d’attente afin d’obtenir un rendez-vous pour une consultation en rhumatologie et en réadaptation dans le système de santé public québécois, et d’explorer les facteurs associés. Notre étude est de type observationnel et transversal et s’intéresse à la province de Québec. Un comité d’experts a élaboré trois scénarios pour les consultations en rhumatologie : AR présumée, AR possible, et OA présumée ; ainsi que deux scénarios pour les consultations en réadaptation : AR diagnostiquée, OA diagnostiquée. Les délais d’attente ont été mesurés entre le moment de la requête initiale et la date de rendez-vous fixée. L’analyse statistique consiste en une analyse descriptive de même qu’une analyse déductive, à l’aide de régression logistique et de comparaison bivariée. Parmi les 71 bureaux de rhumatologie contactés, et pour tous les scénarios combinés, 34% ont donné un rendez-vous en moins de trois mois, 32% avaient une attente de plus de trois mois et 34% ont refusé de fixer un rendez-vous. La probabilité d’obtenir une évaluation en rhumatologie en moins de trois mois est 13 fois plus grande pour les cas d’AR présumée par rapport aux cas d’OA présumée (OR=13; 95% Cl [1.70;99.38]). Cependant, 59% des cas d’AR présumés n’ont pas obtenu rendez-vous en moins de trois mois. Cent centres offrant des services publics en réadaptation ont été contactés. Pour tous les scénarios combinés, 13% des centres ont donné un rendez-vous en moins de 6 mois, 13% entre 6 et 12 mois, 24% avaient une attente de plus de 12 mois et 22% ont refusé de fixer un rendez-vous. Les autres 28% restant requéraient les détails d’une évaluation relative à l’état fonctionnel du patient avant de donner un rendez-vous. Par rapport aux services de réadaptation, il n’y avait aucune différence entre les délais d’attente pour les cas d’AR ou d’OA. L’AR est priorisée par rapport à l’OA lorsque vient le temps d’obtenir un rendez-vous chez un rhumatologue. Cependant, la majorité des gens atteints d’AR ne reçoivent pas les services de rhumatologie ou de réadaptation, soit physiothérapie ou ergothérapie, dans les délais prescrits. De meilleures méthodes de triage et davantage de ressources sont nécessaires.
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Thèse diffusée initialement dans le cadre d'un projet pilote des Presses de l'Université de Montréal/Centre d'édition numérique UdeM (1997-2008) avec l'autorisation de l'auteur.
Resumo:
Travail de recherche réalisé à l’EBSI, Université de Montréal, dans le cadre du cours SCI6111 Politique de gestion des archives offert au trimestre d’automne 2011 par le professeur Yvon Lemay.
Resumo:
Ce mémoire explore le concept de diffusion des archives à l’ère du Web 2.0. Dans le contexte nord-américain, la diffusion en archivistique englobe les aspects de promotion, de mise en valeur et de communication des archives. Le Web 2.0 offre un potentiel très intéressant pour la diffusion d’archives. Ce moyen de diffusion est défini comme étant un ensemble de principes et de technologies qui crée et facilite l’interaction entre plusieurs individus. Peu d’études ont été menées sur la diffusion des archives à l’ère du Web 2.0, c’est pourquoi notre recherche s’est intéressée à un milieu qui a intégré le Web 2.0 afin d’instaurer un dialogue avec ses usagers, connus et potentiels, pour exploiter ses archives et augmenter sa visibilité, soit le Musée McCord. Dans cette étude de cas simple certains membres du personnel du Musée McCord ont été rencontrés, afin de découvrir les motivations de l’institution à se lancer dans l’utilisation d’outils issus de ces technologies. De plus, l’étude a permis d’observer quels outils ont été choisis, comment et pourquoi. Ensuite, les avantages et les désavantages de cette nouvelle utilisation ont été mis en lumière. Enfin, les étapes de la mise en place d’outils du Web 2.0 sont exposées.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
Resumo:
Les détecteurs à pixels Medipix ont été développés par la collaboration Medipix et permettent de faire de l'imagerie en temps réel. Leur surface active de près de $2\cm^2$ est divisée en 65536~pixels de $55\times 55\um^2$ chacun. Seize de ces détecteurs, les Medipix2, sont installés dans l'expérience ATLAS au CERN afin de mesurer en temps réel les champs de radiation produits par les collisions de hadrons au LHC. Ils seront prochainement remplacés par des Timepix, la plus récente version de ces détecteurs, qui permettent de mesurer directement l'énergie déposée dans chaque pixel en mode \textit{time-over-threshold} (TOT) lors du passage d'une particule dans le semi-conducteur. En vue d'améliorer l'analyse des données recueillies avec ces détecteurs Timepix dans ATLAS, un projet de simulation Geant4 a été amorcé par John Id\'{a}rraga à l'Université de Montréal. Dans le cadre de l'expérience ATLAS, cette simulation pourra être utilisée conjointement avec Athena, le programme d'analyse d'ATLAS, et la simulation complète du détecteur ATLAS. Sous l'effet de leur propre répulsion, les porteurs de charge créés dans le semi-conducteur sont diffusés vers les pixels adjacents causant un dépôt d'énergie dans plusieurs pixels sous l'effet du partage de charges. Un modèle effectif de cette diffusion latérale a été développé pour reproduire ce phénomène sans résoudre d'équation différentielle de transport de charge. Ce modèle, ainsi que le mode TOT du Timepix, qui permet de mesurer l'énergie déposée dans le détecteur, ont été inclus dans la simulation afin de reproduire adéquatement les traces laissées par les particules dans le semi-conducteur. On a d'abord étalonné le détecteur pixel par pixel à l'aide d'une source de $\Am$ et de $\Ba$. Ensuite, on a validé la simulation à l'aide de mesures d'interactions de protons et de particules $\alpha$ produits au générateur Tandem van de Graaff du Laboratoire René-J.-A.-Lévesque de l'Université de Montréal.
Resumo:
La diffusion sur les plateformes néomédiatiques d’œuvres audiovisuelles, comme les sites Internet des télédiffuseurs ou des webdiffuseurs, la vidéo sur demande, la télévision mobile ou la webdistribution, modifie les risques que les producteurs audiovisuels doivent gérer normalement sur les plateformes traditionnelles, comme la télévision. La mutation des risques découle de quatre sources en particulier, soit du marché, des pratiques d’affaires, des lois et règlements et des techniques elles-mêmes. Ces sources peuvent également induire des normes pouvant constituer un cadre juridique afin de moduler ou éliminer les risques. Le présent mémoire analyse les risques encourus lors de la diffusion sur les plateformes néomédiatiques d’œuvres audiovisuelles du point de vue des producteurs par l’entremise du processus de gestion de risques. Il identifie et recense ainsi les risques en mutation et les nouveaux risques auxquels les producteurs sont confrontés. Puis, les risques identifiés y sont définis et le cadre juridique est abordé dans le contexte de la mise en œuvre d’une stratégie de gestion de risques et des mesures afin d’atténuer ou d’éviter les risques encourus par les activités de production et d’exploitation des producteurs.
Resumo:
Le phénomène de la romanisation étant des plus complexe, il est donc nécessaire de se concentrer sur un seul de ses aspects, mais aussi sur un espace géographique restreint : la diffusion de la citoyenneté romaine en Afrique proconsulaire. Quels sont ses mécanismes et ses processus? Quels sont les motifs pour Rome ou pour les indigènes? Finalement, quels sont les impacts de cette diffusion sur les individus ainsi que sur leur cité? Ultimement, y a-t-il eu une romanisation de l’Afrique par la diffusion de la citoyenneté romaine? Voilà les questions qui ont été posées à travers l’étude des cas de Thugga et de Lepcis Magna. Finlement, il semble que l’empereur ainsi que les notables locaux furent des moteurs importants de cette diffusion, que les motifs pouvaient être stratégiques ou culturels pour l’empereur, mais surtout fiscaux pour les notables et que le principal impact, autant sur les individus que sur la cité, fut bel et bien la transformation, voire la romanisation juridique, de l’Afrique romaine.