999 resultados para Stratégies d’extraction de l’information
Resumo:
Travail de recherche sur le thème de l’évaluation des archives à l’ère du numérique réalisé à l’hiver 2009 dans le cadre du cours BLT6112 L'évaluation des archives sous la direction du professeur Yvon Lemay.
Resumo:
Le Web se caractérise de bien des façons, un de ses traits dominants étant son caractère hautement évolutif. Bien que relativement jeune, il en est déjà à sa deuxième génération – on parle du Web 2.0 – et certains entrevoient déjà le Web 3.0. Cette évolution n’est pas uniquement technologique mais aussi culturelle, modifiant le rapport des internautes à cet univers numérique et à l’information qui s’y trouve. Les technologies phares du Web 2.0 – blogues, fils RSS, sites Wikis, etc. – offrent aux utilisateurs du Web la possibilité de passer d’un rôle passif d’observateurs à un rôle actif de créateurs. Le Web que l’on côtoie actuellement en est ainsi un plus participatif, dynamique et collaboratif. Les organisations doivent ainsi sérieusement considérer non seulement le potentiel de ces nouveaux environnements pour les aider dans le cadre de leurs activités, mais aussi la nouvelle cyberculture qu’ils engendrent chez leurs employés, clients et partenaires. Les plateformes du Web 2.0 viennent renforcer le potentiel déjà perçu par les organisations des systèmes d’information Web (SIW) à plusieurs niveaux : comme le partage d’information, l’augmentation de la compétitivité ou l’amélioration des relations avec leurs clients. Les milieux documentaires peuvent, au même titre que d’autres types d’organisations, tirer profit des outils de ce Web participatif et de la nouvelle culture collaborative qui en découle. Depuis quelque temps déjà, les bibliothèques se penchent activement sur ces questions et la communauté archivistique emboîte le pas… « vers une Archivistique 2.0 ? » se demanderont certains. Cet article se propose d’examiner le potentiel du Web 2.0 pour les organisations en général ainsi que plus particulièrement pour la communauté archivistique. Nous nous attarderons dans un premier temps à définir ce qu’est le Web 2.0 et à détailler ses technologies et concepts clés. Ces précisions aideront à mieux comprendre par la suite l’apport possible du Web 2.0 en contexte organisationnel. Finalement, des exemples d’utilisation du Web 2.0 par la communauté archivistique viendront conclure cette réflexion sur le Web 2.0, les organisations et l’archivistique.
Resumo:
L'acide désoxyribonucléique (ADN) et l'acide ribonucléique (ARN) sont des polymères de nucléotides essentiels à la cellule. À l'inverse de l'ADN qui sert principalement à stocker l'information génétique, les ARN sont impliqués dans plusieurs processus métaboliques. Par exemple, ils transmettent l’information génétique codée dans l’ADN. Ils sont essentiels pour la maturation des autres ARN, la régulation de l’expression génétique, la prévention de la dégradation des chromosomes et le ciblage des protéines dans la cellule. La polyvalence fonctionnelle de l'ARN résulte de sa plus grande diversité structurale. Notre laboratoire a développé MC-Fold, un algorithme pour prédire la structure des ARN qu'on représente avec des graphes d'interactions inter-nucléotidiques. Les sommets de ces graphes représentent les nucléotides et les arêtes leurs interactions. Notre laboratoire a aussi observé qu'un petit ensemble de cycles d'interactions à lui seul définit la structure de n'importe quel motif d'ARN. La formation de ces cycles dépend de la séquence de nucléotides et MC-Fold détermine les cycles les plus probables étant donnée cette séquence. Mon projet de maîtrise a été, dans un premier temps, de définir une base de données des motifs structuraux et fonctionnels d'ARN, bdMotifs, en terme de ces cycles. Par la suite, j’ai implanté un algorithme, MC-Motifs, qui recherche ces motifs dans des graphes d'interactions et, entre autres, ceux générés par MC-Fold. Finalement, j’ai validé mon algorithme sur des ARN dont la structure est connue, tels que les ARN ribosomaux (ARNr) 5S, 16S et 23S, et l'ARN utilisé pour prédire la structure des riborégulateurs. Le mémoire est divisé en cinq chapitres. Le premier chapitre présente la structure chimique, les fonctions cellulaires de l'ARN et le repliement structural du polymère. Dans le deuxième chapitre, je décris la base de données bdMotifs. Dans le troisième chapitre, l’algorithme de recherche MC-Motifs est introduit. Le quatrième chapitre présente les résultats de la validation et des prédictions. Finalement, le dernier chapitre porte sur la discussion des résultats suivis d’une conclusion sur le travail.
Resumo:
En 2004, le gouvernement québécois s’est engagé dans une importante réorganisation de son système de santé en créant les Centres de santé et des services sociaux (CSSS). Conjugué à leur mandat de production de soins et services, les CSSS se sont vus attribuer un nouveau mandat de « responsabilité populationnelle ». Les gestionnaires se voient donc attribuer le mandat d’améliorer la santé et le bien-être d’une population définie géographiquement, en plus de répondre aux besoins des utilisateurs de soins et services. Cette double responsabilité demande aux gestionnaires d’articuler plus formellement au sein d’une gouverne locale, deux secteurs de prestations de services qui ont longtemps évolué avec peu d’interactions, « la santé publique » et « le système de soins ». Ainsi, l’incorporation de la responsabilité populationnelle amène à développer une plus grande synergie entre ces deux secteurs dans une organisation productrice de soins et services. Elle appelle des changements importants au niveau des domaines d’activités investis et demande des transformations dans certains rôles de gestion. L’objectif général de ce projet de recherche est de mieux comprendre comment le travail des gestionnaires des CSSS se transforme en situation de changement mandaté afin d’incorporer la responsabilité populationnelle dans leurs actions et leurs pratiques de gestion. Le devis de recherche s’appuie sur deux études de cas. Nous avons réalisé une étude de deux CSSS de la région de Montréal. Ces cas ont été choisis selon la variabilité des contextes socio-économiques et sanitaires ainsi que le nombre et la variété d’établissements sous la gouverne des CSSS. L’un des cas avait au sein de sa gouverne un Centre hospitalier de courte durée et l’autre non. La collecte de données se base sur trois sources principales; 1) l’analyse documentaire, 2) des entrevues semi-structurées (N=46) et 3) des observations non-participantes sur une période de près de deux ans (2005-2007). Nous avons adopté une démarche itérative, basée sur un raisonnement inductif. Pour analyser la transformation des CSSS, nous nous appuyons sur la théorie institutionnelle en théorie des organisations. Cette perspective est intéressante car elle permet de lier l’analyse du champ organisationnel, soit les différentes pressions issues des acteurs gravitant dans le système de santé québécois et le rôle des acteurs dans le processus de changement. Elle propose d’analyser à la fois les pressions environnementales qui expliquent les contraintes et les opportunités des acteurs gravitant dans le champ organisationnel de même que les pressions exercées par les CSSS et les stratégies d’actions locales que ceux-ci développent. Nous discutons de l’évolution des CSSS en présentant trois phases temporelles caractérisées par des dynamiques d’interaction entre les pressions exercées par les CSSS et celles exercées par les autres acteurs du champ organisationnel; la phase 1 porte sur l’appropriation des politiques dictées par l’État, la phase 2 réfère à l’adaptation aux orientations proposées par différents acteurs du champ organisationnel et la phase 3 correspond au développement de certains projets initiés localement. Nous montrons à travers le processus d’incorporation de la responsabilité populationnelle que les gestionnaires modifient certaines pratiques de gestion. Certains de ces rôles sont plus en lien avec la notion d’entrepreneur institutionnel, notamment, le rôle de leader, de négociateur et d’entrepreneur. À travers le processus de transformation de ces rôles, d’importants changements au niveau des actions entreprises par les CSSS se réalisent, notamment, l’organisation des services de première ligne, le développement d’interventions de prévention et de promotion de la santé de même qu’un rôle plus actif au sein de leur communauté. En conclusion, nous discutons des leçons tirées de l’incorporation de la responsabilité populationnelle au niveau d’une organisation productrice de soins et services. Nous échangeons sur les enjeux liés au développement d’une plus grande synergie entre la santé publique et le système de soins au sein d’une gouverne locale. Également, nous présentons un modèle synthèse d’un processus de mise en œuvre d’un changement mandaté dans un champ organisationnel fortement institutionnalisé en approfondissant les rôles des entrepreneurs institutionnels dans ce processus. Cette situation a été peu analysée dans la littérature jusqu’à maintenant.
Resumo:
La légitimité d’une organisation est fondée sur sa mission, c’est-à-dire sur sa raison d’être. Des responsables des bibliothèques et de nombreux chercheurs craignent que la légitimité des bibliothèques publiques soit contestée dans la société de l’information. De plus, les textes officiels présentant les missions des bibliothèques publiques sont divers et les missions y sont délibérément non définies. Au Québec, où une grande majorité des bibliothèques publiques autonomes sont placées directement sous la tutelle des municipalités, les bibliothèques publiques doivent définir et légitimer leurs missions avec les élus municipaux. L’objectif principal de cette recherche est de comprendre, via les discours, le point de vue des élus municipaux québécois sur les missions des bibliothèques publiques autonomes, en comparaison avec les pratiques et les ressources des bibliothèques au plan local. Basé sur la théorie de la construction sociale de la réalité, un cadre conceptuel est proposé de manière à étudier non seulement les discours dans leur dimension textuelle, mais aussi à contextualiser ces discours et analyser l’écart entre ces discours et les pratiques des bibliothèques.La stratégie de recherche adoptée est une étude de cas multiples. L’objectif est de développer une analyse en profondeur de chaque cas et une analyse inter cas. Les douze cas (municipalités) ont été sélectionnés en fonction de deux critères de variation (la taille de la municipalité et le budget annuel alloué par la municipalité à la bibliothèque) et un critère discriminant (la distance par rapport à l’Université de Montréal). Des entrevues ont été menées auprès des élus municipaux présidant la commission ou le comité dont dépendent les bibliothèques publiques. Ces entrevues et les politiques culturelles ont fait l’objet d’une analyse de discours. Les entrevues auprès des responsables des bibliothèques et la documentation ont fait l’objet d’une analyse de contenu. Ces analyses ont permis la triangulation des méthodes et des sources de données.Les élus municipaux québécois, comme les professionnels, n’offrent pas un discours homogène sur les missions des bibliothèques publiques. Toutefois, un modèle de discours émerge. Il montre un discours « limité » par rapport à la littérature, dans lequel une image passive de la bibliothèque est présentée et dans lequel la tradition perdure malgré le contexte de la société de l’information. Mais l’analyse révèle aussi que les élus municipaux construisent leurs points de vue sur leurs propres convictions en tant qu’individus, sur leur rôle dans la gestion de la municipalité en tant qu’élus et sur l’image qu’ils ont des usagers des bibliothèques publiques. Enfin, l’analyse a révélé un axe de différenciation des points de vue selon que le discours s’appuie sur des valeurs fondamentales ou sur les usages (réels ou supposés) de la bibliothèque.
Resumo:
[Support Institutions:] Department of Administration of Health, University of Montreal, Canada Public Health School of Fudan University, Shanghai, China
Resumo:
Les transformations économiques visant la création d’un marché mondial unique, le progrès technologique et la disponibilité d’une main-d’œuvre qualifiée dans les pays à bas salaire amènent les dirigeants des entreprises à réexaminer l’organisation et la localisation de leurs capacités productives de façon à en accroître la flexibilité qui est, selon plusieurs, seule garante de la pérennité de l’organisation (Atkinson, 1987; Patry, 1994; Purcell et Purcell, 1998; Kennedy 2002; Kallaberg, Reynolds, Marsden, 2003; Berger, 2006). Une stratégie déployée par les entreprises pour parvenir à cette fin est la délocalisation (Kennedy, 2002; Amiti et Wei, 2004; Barthélemy, 2004; Trudeau et Martin, 2006; Olsen, 2006). La technologie, l’ouverture des marchés et l’accès à des bassins nouveaux de main-d’œuvre qualifiée rendent possible une fragmentation de la chaîne de production bien plus grande qu’auparavant, et chaque maillon de cette chaîne fait l’objet d’un choix de localisation optimale (Hertveldt et al., 2005). Dans ces conditions, toutes les activités qui ne requièrent aucune interaction complexe ou physique entre collègues ou entre un employé et un client, sont sujettes à être transférées chez un sous-traitant, ici ou à l’étranger (Farrell, 2005). La plupart des recherches traitant de l’impartition et des délocalisations se concentrent essentiellement sur les motivations patronales d’y recourir (Lauzon-Duguay, 2005) ou encore sur les cas de réussites ou d’échecs des entreprises ayant implanté une stratégie de cette nature (Logan, Faught et Ganster, 2004). Toutefois, les impacts sur les employés de telles pratiques ont rarement été considérés systématiquement dans les recherches (Benson, 1998; Kessler, Coyle-Shapiro et Purcell, 1999; Logan et al., 2004). Les aspects humains doivent pourtant être considérés sérieusement, car ils sont à même d’être une cause d’échec ou de réussite de ces processus. La gestion des facteurs humains entourant le processus de délocalisation semble jouer un rôle dans l’impact de l’impartition sur les employés. Ainsi, selon Kessler et al. (1999), la façon dont les employés perçoivent la délocalisation serait influencée par trois facteurs : la manière dont ils étaient gérés par leur ancien employeur (context), ce que leur offre leur nouvel employeur (pull factor) et la façon dont ils sont traités suite au transfert (landing). La recherche vise à comprendre l’impact de la délocalisation d’activités d’une entreprise sur les employés ayant été transférés au fournisseur. De façon plus précise, nous souhaitons comprendre les effets que peut entraîner la délocalisation d’une entreprise « source » (celle qui cède les activités et les employés) à une entreprise « destination » (celle qui reprend les activités cédées et la main-d’œuvre) sur les employés transférés lors de ce processus au niveau de leur qualité de vie au travail et de leurs conditions de travail. Plusieurs questions se posent. Qu’est-ce qu’un transfert réussi du point de vue des employés? Les conditions de travail ou la qualité de vie au travail sont-elles affectées? À quel point les aspects humains influencent-t-ils les effets de la délocalisation sur les employés? Comment gérer un tel transfert de façon optimale du point de vue du nouvel employeur? Le modèle d’analyse est composé de quatre variables. La première variable dépendante (VD1) de notre modèle correspond à la qualité de vie au travail des employés transférés. La seconde variable dépendante (VD2) correspond aux conditions de travail des employés transférés. La troisième variable, la variable indépendante (VI) renvoie à la délocalisation d’activités qui comporte deux dimensions soit (1) la décision de délocalisation et (2) le processus d’implantation. La quatrième variable, la variable modératrice (VM) est les aspects humains qui sont examinés selon trois dimensions soit (1) le contexte dans l’entreprise « source » (Context), (2) l’attrait du nouvel employeur (pull factor) et (3) la réalité chez le nouvel employeur (landing). Trois hypothèses de recherche découlent de notre modèle d’analyse. Les deux premières sont à l’effet que la délocalisation entraîne une détérioration de la qualité de vie au travail (H1) et des conditions de travail (H2). La troisième hypothèse énonce que les aspects humains ont un effet modérateur sur l’impact de la délocalisation sur les employés transférés (H3). La recherche consiste en une étude de cas auprès d’une institution financière (entreprise « source ») qui a délocalisé ses activités technologiques à une firme experte en technologies de l’information (entreprise « destination »). Onze entrevues semi-dirigées ont été réalisées avec des acteurs-clés (employés transférés et gestionnaires des deux entreprises). Les résultats de la recherche indiquent que la délocalisation a de façon générale un impact négatif sur les employés transférés. Par contre, cette affirmation n’est pas généralisable à tous les indicateurs étudiés de la qualité de vie au travail et des conditions de travail. Les résultats mettent en évidence des conséquences négatives en ce qui a trait à la motivation intrinsèque au travail, à l’engagement organisationnel ainsi qu’à la satisfaction en lien avec l’aspect relationnel du travail. La délocalisation a également entraîné une détérioration des conditions de travail des employés transférés soit au niveau de la sécurité d’emploi, du contenu et de l’évaluation des tâches, de la santé et sécurité au travail et de la durée du travail. Mais, d’après les propos des personnes interviewées, les conséquences les plus importantes sont sans aucun doute au niveau du salaire et des avantages sociaux. Les conséquences de la délocalisation s’avèrent par contre positives lorsqu’il est question de l’accomplissement professionnel et de la satisfaction de l’aspect technique du travail. Au niveau de la confiance interpersonnelle au travail, l’organisation du travail, la formation professionnelle ainsi que les conditions physiques de l’emploi, les effets ne semblent pas significatifs d’après les propos recueillis lors des entrevues. Enfin, les résultats mettent en évidence l’effet modérateur significatif des aspects humains sur les conséquences de la délocalisation pour les employés transférés. L’entreprise « source » a tenté d’amoindrir l’impact de la délocalisation, mais ce ne fut pas suffisant. Comme les employés étaient fortement attachés à l’entreprise « source » et qu’ils ne désiraient pas la quitter pour une entreprise avec une culture d’entreprise différente qui leur paraissait peu attrayante, ces dimensions des aspects humains ont en fait contribué à amplifier les impacts négatifs de la délocalisation, particulièrement sur la qualité de vie au travail des employés transférés. Mots clés : (1) délocalisation, (2) impartition, (3) transfert d’employés, (4) qualité de vie au travail, (5) conditions de travail, (6) technologies de l’information, (7) entreprise, (8) gestion des ressources humaines.
Resumo:
This paper challenges the assumption that youth and youth agencies are in a condition of equality when entering a participatory action research (PAR). By asserting that it is not a state of equality that practitioners nor youth should assume nor be immediately striving for, but a consistently equitable process, this article draws from and reflects on the relationship between young people and researchers who have used a PAR methodology in action oriented projects. Using the UNESCO Growing up in Cities Canada project as a case example, this review extrapolates from and reflects on challenges faced by the project as a whole. Using semi-structured interviews to explore the roles of adults and youth, a number of strategies are highlighted as the techniques used to overcome these challenges. The discussion concludes with further reflection on the complexities of equality and equity, recommending a number of actions that have the potential to create an equitable environment in PAR projects similar to the one examined.
Resumo:
Le design d'éclairage est une tâche qui est normalement faite manuellement, où les artistes doivent manipuler les paramètres de plusieurs sources de lumière pour obtenir le résultat désiré. Cette tâche est difficile, car elle n'est pas intuitive. Il existe déjà plusieurs systèmes permettant de dessiner directement sur les objets afin de positionner ou modifier des sources de lumière. Malheureusement, ces systèmes ont plusieurs limitations telles qu'ils ne considèrent que l'illumination locale, la caméra est fixe, etc. Dans ces deux cas, ceci représente une limitation par rapport à l'exactitude ou la versatilité de ces systèmes. L'illumination globale est importante, car elle ajoute énormément au réalisme d'une scène en capturant toutes les interréflexions de la lumière sur les surfaces. Ceci implique que les sources de lumière peuvent avoir de l'influence sur des surfaces qui ne sont pas directement exposées. Dans ce mémoire, on se consacre à un sous-problème du design de l'éclairage: la sélection et la manipulation de l'intensité de sources de lumière. Nous présentons deux systèmes permettant de peindre sur des objets dans une scène 3D des intentions de lumière incidente afin de modifier l'illumination de la surface. De ces coups de pinceau, le système trouve automatiquement les sources de lumière qui devront être modifiées et change leur intensité pour effectuer les changements désirés. La nouveauté repose sur la gestion de l'illumination globale, des surfaces transparentes et des milieux participatifs et sur le fait que la caméra n'est pas fixe. On présente également différentes stratégies de sélection de modifications des sources de lumière. Le premier système utilise une carte d'environnement comme représentation intermédiaire de l'environnement autour des objets. Le deuxième système sauvegarde l'information de l'environnement pour chaque sommet de chaque objet.
Resumo:
Héritière de la tradition fantastique borgésienne, imprégnée d’une réalité composée de mythes précolombiens et des résidus industriels de la modernité, et développée à l’ère de la mondialisation, du post-modernisme, des jeux vidéos, du cinéma numérique et d’animation, la tendance cyberpunk latino-américaine est cultivée du Mexique jusqu’en Argentine, en passant par Cuba et d’autres pays souvent méconnus dans le monde de la science-fiction comme le Paraguay et la Bolivie. Pressenti dans les œuvres de certains écrivains canoniques comme Ricardo Piglia, Carmen Boullosa ou Edmundo Paz-Soldán, le cyberpunk se manifeste avec force dans l’écriture de jeunes artistes interdisciplinaires et de collaborateurs assidus des fanzines. Cette adaptation du sous-genre dans un continent où la référence reste encore le réel merveilleux et le réalisme magique, malgré l’apport des générations plus récentes comme celle de « McOndo » ou celle du « Crack », essaie d’élaborer une série de réponses aux questions issues de la conjoncture historique et artistique dans laquelle nous vivons : comment situer l’identité latino-américaine dans la nouvelle cartographie culturelle mondiale à travers une littérature qui cherche à se renouveler par rapport au canon littéraire et à la marginalité de son propre genre? Quelles sont les stratégies d’assimilation et de résistance qu’adoptent des jeunes auteurs latino-américains devant le cyberpunk anglo-américain littéraire et cinématographique? Peut-on parler d’un impact esthétique et philosophique du cyberpunk sur la culture latino-américaine, perçue habituellement comme une consommatrice passive de ces produits culturels et non comme une productrice? Ce travail cherche à parcourir l’ensemble de ces questions à partir d’une réflexion sur les principaux dispositifs constitutifs du cyberpunk – la dystopie et la virtualité – dans les discours (post)identitaires en Amérique Latine. Représentation presque mimétique de l’espace socioculturel et historique latino-américain à travers la violence et la répression politique, militaire, ethnique ou sexuelle, la dystopie est un moyen d’articuler certaines figures spatiales aux mythes nationaux et à la politique identitaire dans le contexte de la mondialisation. Cette dernière réalité socioculturelle, ainsi que l’idéologie esthétique que véhicule celle-ci à travers le cyberpunk, crée un conflit avec ces discours identitaires nationaux, conflit qui est accentué ou dissous par la représentation de la réalité virtuelle. La réalité virtuelle, comprise ici comme la direction que le récit prend pour défaire ou consolider la figure dystopique, mène à réfléchir également sur les enjeux de la (post)identité. Penser à une (post)identité (en gardant bien à l’esprit cette parenthèse) à travers le cyberpunk signifie poser une question sur la résistance au passé identitaire des mythes nationaux, au présent de la mondialisation culturelle, et aux discours post-humanistes qui semblent marquer le futur. À l’appui de travaux sur la dystopie et la réalité virtuelle dans le cyberpunk anglo-américain, ainsi que des études culturelles latino-américaines, je parcourrai un corpus composé des romans écrits entre 1990 et 2005. Ce corpus comprendra La Primera Calle de la Soledad (1993) de Gerardo Horacio Porcayo, Santa Clara Poltergeist (1991) de Fausto Fawcett, Ygdrasil (2005) de Jorge Baradit, et les films argentins No muera sin decirme adónde vas (1992) d’Eliseo Subiela et La sonámbula (1998) de Fernando Spiner. Dans ces oeuvres, la dystopie se configure aux possibilités narratives de la virtualité et traverse des thématiques identitaires comme les mythes sexuels et nationaux, la mémoire et le traumatisme ainsi que les projets utopiques des minorités.
Resumo:
Les cellules dérivées de la moelle osseuse, principalement les cellules endothéliales progénitrices, sont réduites chez les patients souffrant de maladies cardiovasculaires. Leur mobilisation et leur incorporation aux sites de lésion vasculaire sont des évènements prépondérants dans l’accélération des processus de réendothélialisation. Dans un modèle murin, le 17β-estradiol favorise les processus de guérison vasculaire par la mobilisation et le recrutement des cellules endothéliales progénitrices dérivées de la moelle osseuse. Il existe présentement plusieurs stratégies afin d’augmenter la mobilisation des cellules progénitrices ainsi que leur incorporation à la paroi vasculaire. Cependant, peu d’études privilégient la livraison locale d’un nombre élevé de cellules progénitrices fonctionnelles par un véhicule biodégradable et leur maintien au site de lésion afin de favoriser la réendothélialisation ciblée. Un polymère d’intérêt pour cette application s’avère être le chitosan. Ce biopolymère non toxique et biodégradable est couramment utilisé dans l’ingénierie tissulaire et, depuis peu, est utilisé dans la guérison vasculaire. Le chitosan complexé à la phosphorylcholine voit sa solubilité s’accroître dans les solutions aqueuses ainsi que sa biocompatibilité cellulaire en condition physiologique. Le projet de ce mémoire visait donc : 1) à étudier in vitro, la capacité d’un polymère de chitosan complexé à la phosphorylcholine à influencer l’adhésion, la survie, la différenciation et la fonctionnalité cellulaire dans un modèle murin de culture mixte de cellules dérivées de la moelle osseuse et 2) de déterminer l’impact de la présence du 17β-estradiol sur ces mêmes comportements cellulaires. Nos travaux démontrent que la matrice de chitosan-phosphorylcholine s’avère compatible avec notre modèle de culture cellulaire. En effet, ce polymère est capable de promouvoir l’organisation et le développement des cellules dérivées de la moelle osseuse de façon comparable à la matrice normalement utilisée dans la croissance in vitro des cellules endothéliales progénitrices, la fibronectine. De plus, ce polymère n’a nullement compromis l’activité migratoire des cellules, laissant supposer qu’il pourrait éventuellement être un véhicule approprié pour effectuer une livraison cellulaire à un site de lésion. Il s’avère que le 17β-estradiol, lorsqu’ajouté au milieu de culture ou complexé au polymère de chitosan phosphorylcholine, est capable de moduler le comportement cellulaire, et ce, de façon différente. Le 17β-estradiol complexé au polymère de chitosan-phosphorylcholine démontre, par rapport à sa forme soluble, une plus grande aptitude à accroître le nombre de cellules hématopoïétiques ainsi que des cellules endothéliales progénitrices dérivées de la moelle osseuse in vitro. De plus, le 17β-estradiol complexé au polymère de chitosan-phosphorylcholine permet une amplification marquée des cellules endothéliales progénitrices et leur offre un support adéquat afin de favoriser la guérison vasculaire. L’ensemble de nos travaux suggère que le polymère de chitosan complexé à la phosphorylcholine en présence ou non de 17β-estradiol est une matrice compatible avec les cellules progénitrices dérivées de la moelle osseuse in vitro. Le 17β-estradiol complexé au polymère est toutefois plus efficace que sa forme soluble à promouvoir l’amplification du nombre de cellules progénitrices. Ce polymère représente un outil thérapeutique attrayant et une matrice de livraison d’agent bioactif prometteuse pour le recrutement cellulaire dans l’accélération de la guérison vasculaire.
Resumo:
Depuis quelques années, les statistiques indiquent une croissance exponentielle de l’incidence de certaines infections transmissibles sexuellement chez les jeunes adultes. Certaines enquêtes témoignent en outre des comportements peu responsables en matière de santé sexuelle chez cette population, bien que l’offre d’information sur les conséquences de tels comportements soit importante et diversifiée. Par ailleurs, le comportement informationnel de cette population en matière de santé sexuelle demeure peu documenté. La présente étude porte sur le comportement informationnel de jeunes adultes québécois en matière de santé sexuelle. Plus spécifiquement, elle répond aux quatre questions de recherche suivantes : (1) Quelles sont les situations problématiques auxquelles les jeunes adultes sont confrontés en santé sexuelle?, (2) Quels sont les besoins informationnels exprimés par les jeunes adultes lors de ces situations problématiques?, (3) Quels sont les processus et les sources d’information qui soutiennent la résolution de ces besoins informationnels? et (4) Quelle est l’utilisation de l’information trouvée? Cette recherche descriptive a utilisé une approche qualitative. Le milieu retenu est l’Université de Montréal pour deux raisons : il s’agit d’un milieu cognitivement riche qui fournit un accès sur place à des ressources en santé sexuelle. Les huit jeunes adultes âgés de 18 à 25 ans qui ont pris part à cette étude ont participé à une entrevue en profondeur utilisant la technique de l’incident critique. Chacun d’entre eux a décrit une situation problématique par rapport à sa santé sexuelle et les données recueillies ont été l’objet d’une analyse de contenu basée sur la théorisation ancrée. Les résultats indiquent que les jeunes adultes québécois vivent des situations problématiques relatives à l’aspect physique de leur santé sexuelle qui peuvent être déclenchées par trois types d’éléments : un événement à risques, un symptôme physique subjectif et de l’information acquise passivement. Ces situations problématiques génèrent trois catégories de besoins informationnels : l’état de santé actuel, les conséquences possibles et les remèdes. Pour répondre à ces besoins, les participants se sont tournés en majorité vers des sources professionnelles, personnelles et verbales. La présence de facteurs contextuels, cognitifs et affectifs a particularisé leur processus de recherche d’information en modifiant les combinaisons des quatre activités effectuées, soit débuter, enchaîner, butiner et différencier. L’automotivation et la compréhension du problème représentent les deux principales utilisations de l’information. D’un point de vue théorique, les résultats indiquent que le modèle général de comportement informationnel de Choo (2006), le modèle d’environnement d’utilisation de l’information de Taylor (1986, 1991) et le modèle d’activités de recherche d’information d’Ellis (1989a, 1989b, 2005) peuvent être utilisés dans le contexte personnel de la santé sexuelle. D’un point de vue pratique, cette étude ajoute aux connaissances sur les critères de sélection des sources d’information en matière de santé sexuelle.
Resumo:
La présente thèse étudie la production et la consommation d’images par les révolutionnaires russes avant 1917. L’auteur soutient que l’iconographie révolutionnaire russe émane d’un long processus au cours duquel les révolutionnaires se sont appropriés et ont subverti certaines images et stratégies visuelles, ainsi que leurs moyens de production, déjà disponibles au sein de la culture qu’ils avaient entrepris de transformer. Cette appropriation est comprise comme une tentative d'insuffler une cohérence idéologique à un mouvement révolutionnaire en émergence et, ce faisant, en proie à une relative désorganisation. L’auteur montre comment l’usage de portraits et de stéréotypes visuels joua un rôle important dans la construction de l’identité et de la conscience révolutionnaires, d’une part, et comment un certain imaginaire révolutionnaire fut cristallisé dans la culture visuelle contemporaine, d’autre part.
Resumo:
RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.
Resumo:
Sous l’impulsion de la Loi 83, loi modifiant la Loi sur les services de santé et les services sociaux et d’autres dispositions législatives, sanctionnée en 2005, et fort d’une expérience issue d’une coopération de plus de 30 ans entre les bibliothèques des sciences de la santé de l’Université de Montréal et les bibliothèques de ses hôpitaux affiliés, un consortium est né ayant pour but de regrouper les efforts et augmenter l’offre documentaire pour mieux desservir ses clientèles. Après avoir décrit quelques consortiums canadiens dans le domaine de la santé, les auteurs présentent le nouveau consortium des ressources électroniques du Réseau universitaire intégré de santé de l’Université de Montréal (RUISUM)qui s’est vu confié le mandat de procurer des ressources informationnelles en sciences de la santé ainsi que des services afin de mieux soutenir l’enseignement, la recherche, la formation professionnelle continue et le soutien à la démarche clinique dans les établissements membres. Le territoire desservi par le RUIS de l’Université couvre un bassin de population de 3 millions d’habitants, représente 40% des soins de la santé de la province et s’adresse à plus de 25 000 professionnels de la santé. Dans le respect des stratégies de chaque établissement membre, le consortium du RUISUM a redéfinit le couple produit marché pour se positionner dans le segment des bibliothèques virtuelles. Il met l’accent sur la formation aux compétences informationnelles, sur l’interaction avec le personnel de la bibliothèque et utilise le web comme outil.