62 resultados para plateformes de blogage
Resumo:
La plupart des études sur l'étiquetage social porte sur une plateforme ou un type de plateforme précis, ce qui limite la portée de leurs résultats. Cette étude explore et compare les pratiques d'étiquetage social de quatre plateformes--Goodreads, un catalogue de bibliothèque publique, Last.fm et WordPress--au moyen d'une étude de cas multiples et emboîtés. Le contenu généré par les utilisateurs, principalement les étiquettes ou "tags", lié au livre Casino royale de Ian Fleming ou à ses produits dérivés ou associés (p. ex. : chanson thème, film, billet de blogue) a été analysé avec une approche qualitative et inductive. L'analyse révèle que le contenu généré par les utilisateurs des quatre plateformes mettait l'emphase sur les événements historiques associés au livre tout en fournissant de nombreux points d'accès plus subjectifs : recommandation, ton, ambiance, opinion, expérience de lecture, d'écoute ou de visionnement. On remarque par ailleurs des différences entre les étiquettes associées au livre et à ses produits dérivés : alors que le contenu généré par les utilisateurs en lien avec le produit d'origine dans les catalogues de bibliothèques et dans Goodreads portait essentiellement sur le livre, les étiquettes attribuées par les utilisateurs aux produits dérivés dans Last.fm (la chanson thème du film) et WordPress (des billets de blogues sur le livre ou le film) renvoyaient souvent à d'autres produits culturels, incluant des livres, de la musique et des films.
Resumo:
La plupart des études sur l'étiquetage social porte sur une plateforme ou un type de plateforme précis, ce qui limite la portée de leurs résultats. Cette étude explore et compare les pratiques d'étiquetage social de quatre plateformes--Goodreads, un catalogue de bibliothèque publique, Last.fm et WordPress--au moyen d'une étude de cas multiples et emboîtés. Le contenu généré par les utilisateurs, principalement les étiquettes ou "tags", lié au livre Casino royale de Ian Fleming ou à ses produits dérivés ou associés (p. ex. : chanson thème, film, billet de blogue) a été analysé avec une approche qualitative et inductive. L'analyse révèle que le contenu généré par les utilisateurs des quatre plateformes mettait l'emphase sur les événements historiques associés au livre tout en fournissant de nombreux points d'accès plus subjectifs : recommandation, ton, ambiance, opinion, expérience de lecture, d'écoute ou de visionnement. On remarque par ailleurs des différences entre les étiquettes associées au livre et à ses produits dérivés : alors que le contenu généré par les utilisateurs en lien avec le produit d'origine dans les catalogues de bibliothèques et dans Goodreads portait essentiellement sur le livre, les étiquettes attribuées par les utilisateurs aux produits dérivés dans Last.fm (la chanson thème du film) et WordPress (des billets de blogues sur le livre ou le film) renvoyaient souvent à d'autres produits culturels, incluant des livres, de la musique et des films.
Resumo:
Le succès commercial des jeux vidéo nous montre qu’ils sont devenus une alternative non négligeable en matière de loisir et de divertissement. En observant les tendances, on constate que les concepteurs de jeux vidéo cherchent à transposer ou adapter les loisirs comme la danse, l’interprétation de la musique ou la pratique d’un sport dans le contexte de jeux vidéo (l’univers virtuel) et ceci est devenu encore plus évident depuis l’apparition des nouvelles technologies intégrant le mouvement comme mode d'interaction. En rapport aux activités dont les jeux vidéo s’inspirent, ces tendances entraînent des changements considérables sur l’aspect formel de l’activité ludique et notamment l’interaction. Dans le cas particulier du tennis de table, ou ping-pong dans le langage courant, il semble y avoir des différences en terme de plaisir lors de la pratique de ce loisir de façon traditionnelle ou en mode virtuel dans ses différentes adaptations. Le but de cette recherche est de mettre en évidence les différences entre l’appréciation de l’interaction avec le contrôleur multifonctionnel Wiimote et une raquette traditionnelle de ping-pong et de découvrir les implications sur l’expérience du plaisir de la transposition du jeu ping-pong traditionnel comparé aux adaptations sur la console Wii. Ainsi, en regard du CLASSIC GAME MODEL de Juul (2005) et du modèle THE FOUR FUN KEYS de Lazzaro (2008) nous comparons les deux modes d’interaction, jeu traditionnel avec le jeu virtuel, sur le plan formel du jeu et sur les dimensions du plaisir que chacun procure. Les résultats obtenus par l’observation des tests de jeu et l’entremise des autres outils permettent de souligner le rôle déterminant des interfaces dans l’engagement des joueurs et de montrer les limites des interfaces digitales par rapport à celle des jeux traditionnels.
Resumo:
L'ensemble de mon travail a été réalisé grâce a l'utilisation de logiciel libre.
Resumo:
La diffusion sur les plateformes néomédiatiques d’œuvres audiovisuelles, comme les sites Internet des télédiffuseurs ou des webdiffuseurs, la vidéo sur demande, la télévision mobile ou la webdistribution, modifie les risques que les producteurs audiovisuels doivent gérer normalement sur les plateformes traditionnelles, comme la télévision. La mutation des risques découle de quatre sources en particulier, soit du marché, des pratiques d’affaires, des lois et règlements et des techniques elles-mêmes. Ces sources peuvent également induire des normes pouvant constituer un cadre juridique afin de moduler ou éliminer les risques. Le présent mémoire analyse les risques encourus lors de la diffusion sur les plateformes néomédiatiques d’œuvres audiovisuelles du point de vue des producteurs par l’entremise du processus de gestion de risques. Il identifie et recense ainsi les risques en mutation et les nouveaux risques auxquels les producteurs sont confrontés. Puis, les risques identifiés y sont définis et le cadre juridique est abordé dans le contexte de la mise en œuvre d’une stratégie de gestion de risques et des mesures afin d’atténuer ou d’éviter les risques encourus par les activités de production et d’exploitation des producteurs.
Resumo:
Travail réalisé à l'École de bibliothéconomie et des sciences de l'information (EBSI), Université de Montréal, sous la direction de Mme Audrey Laplante dans le cadre du cours SCI6850 Recherche individuelle, à l'automne 2012.
Resumo:
Ce projet de recherche s’inscrit dans un contexte institutionnel particulier. Depuis 2011, l’ULB rénove ses différentes plateformes informatiques afin d’améliorer les outils et services rendus à la communauté étudiante. Portant le nom de « SMILEY », ce grand projet gère entre autres les outils MonULB, GeHol, Web mail, U.V. etc. et a pour objectif une gestion plus simple, plus efficace et plus flexible de l’Université. Étant donné la complexité initiale du système de gestion de l’ULB, la mise en place du projet Smiley ne s’est pas faite sans difficultés. Divers bugs et imprévus ont été et sont encore rencontrés. Dans ce cadre, les autorités de l’ULB ont décidé de créer un observatoire pour mener des recherches sur les usages étudiants des outils informatiques liés à SMILEY EE (pour Études et Étudiants) afin d’améliorer l’acceptation des outils concernés. Au cours de ces recherches, différentes variables en lien avec l’utilisabilité et l’expérience utilisateur seront envisagées :connaissance du web, connaissance des TIC, sentiment d’efficacité personnel, perception de l’utilité et de la facilité d’utilisation des interfaces, stratégies de recherche d’information utilisées, sentiment d’autonomie t de contrôle, satisfaction cognitive et affective, identification à l’institution… Dès lors, les objectifs sont ;outre l’étude des déterminants de l’acceptation des Tic étudiants, de collecter l’avis des utilisateurs concernés, de fournir des recommandations, d’accompagner la mise en œuvre des améliorations et d’anticiper les besoins/attentes futures en matière de TIC à l’université.Pour cela, les méthodologies employées seront qualitatives et quantitatives. Des groupes de discussions exploratoire seront organisés afin d’identifier plus précisément les facteurs de satisfaction et d’insatisfaction, et des tests d’utilisabilités seront élaborés pour déterminer in situ les difficultés rencontrées. Des questionnaires en ligne seront aussi diffusés afin de déterminer le rôle des variables susmentionnées auprès d’un échantillon représentatif de la communauté estudiantine. L’ensemble des résultats permettra alors de guider des actions concrètes sur les outils étudiés.
Resumo:
Les universités recourent de plus en plus souvent à des plateformes technologiques afin d’administrer les processus éducatifs et faciliter les tâches administratives des étudiants. Cependant, ces changements sont conséquents et engendrent souvent de nombreuses difficultés d’implémentation. C’est dans ce cadre qu’un Observatoire des usages étudiants d’un système éducatif de gestion intégré a été créé. Cet observatoire a pour missions d’identifier les facteurs de satisfaction et de fournir des recommandations à l’université. Plusieurs méthodologies (groupes de discussion, tests d’utilisabilité, questionnaires) ont été utilisées. Les résultats montrent que ce sont les difficultés et insatisfactions dues au système utilisé et aux informations présentes sur ce système qui influencent négativement l’acceptabilité du système. La création d’un tel observatoire permet tout à la fois d’étudier l’acceptabilité et la satisfaction des utilisateurs, de différencier l’impact des facteurs personnels et techniques, de s’interroger sur les processus d’évaluation des outils lors de leur implémentation.
Resumo:
Le Web se caractérise de bien des façons, un de ses traits dominants étant son caractère hautement évolutif. Bien que relativement jeune, il en est déjà à sa deuxième génération – on parle du Web 2.0 – et certains entrevoient déjà le Web 3.0. Cette évolution n’est pas uniquement technologique mais aussi culturelle, modifiant le rapport des internautes à cet univers numérique et à l’information qui s’y trouve. Les technologies phares du Web 2.0 – blogues, fils RSS, sites Wikis, etc. – offrent aux utilisateurs du Web la possibilité de passer d’un rôle passif d’observateurs à un rôle actif de créateurs. Le Web que l’on côtoie actuellement en est ainsi un plus participatif, dynamique et collaboratif. Les organisations doivent ainsi sérieusement considérer non seulement le potentiel de ces nouveaux environnements pour les aider dans le cadre de leurs activités, mais aussi la nouvelle cyberculture qu’ils engendrent chez leurs employés, clients et partenaires. Les plateformes du Web 2.0 viennent renforcer le potentiel déjà perçu par les organisations des systèmes d’information Web (SIW) à plusieurs niveaux : comme le partage d’information, l’augmentation de la compétitivité ou l’amélioration des relations avec leurs clients. Les milieux documentaires peuvent, au même titre que d’autres types d’organisations, tirer profit des outils de ce Web participatif et de la nouvelle culture collaborative qui en découle. Depuis quelque temps déjà, les bibliothèques se penchent activement sur ces questions et la communauté archivistique emboîte le pas… « vers une Archivistique 2.0 ? » se demanderont certains. Cet article se propose d’examiner le potentiel du Web 2.0 pour les organisations en général ainsi que plus particulièrement pour la communauté archivistique. Nous nous attarderons dans un premier temps à définir ce qu’est le Web 2.0 et à détailler ses technologies et concepts clés. Ces précisions aideront à mieux comprendre par la suite l’apport possible du Web 2.0 en contexte organisationnel. Finalement, des exemples d’utilisation du Web 2.0 par la communauté archivistique viendront conclure cette réflexion sur le Web 2.0, les organisations et l’archivistique.
Resumo:
Nous montrons l’utilisation de la puce exon d’Affymetrix pour l’analyse simultanée de l’expression des gènes et de la variation d’isoformes. Nous avons utilisé les échantillons d’ARN du cerveau et des tissus de référence qui ont été antérieurement utilisés dans l’étude du consortium MicroArray Quality Control (MAQC). Nous démontrons une forte concordance de la quantification de l’expression des gènes entre trois plateformes d’expression populaires à savoir la puce exon d’Affymetrix, la puce Illumina et la puce U133A d’Affymetrix. Plus intéressant nous montrons que la majorité des discordances entre les trois plateformes résulterait des positions différentes des sondes à travers les plateformes et que les variations d’isoforme exactes ne peuvent être identifiées que par la puce exon. Nous avons détecté avec succès, entre les tissus de référence et ceux du cerveau, une centaine de cas d’évènements d’épissage alternatif. La puce exon est requise dans l’analyse de l’épissage alternatif associé aux pathologies telles que les cancers et les troubles neurologiques. Comme application de cette technologie, nous avons analysé les variations d’épissage dans la métastase du cancer de sein développé dans le model de la souris. Nous avons utilisé une gamme bien définie de trois lignées de tumeur mammaire ayant différents potentiels métastatiques. Par des analyses statistiques, nous avons répertorié 2623 transcripts présentant des variations d’expression et d’isoformes entre les types de tumeur. Une analyse du réseau de gènes montre qu’environ la moitié d’entre eux est impliquée dans plusieurs activités cellulaires, ainsi que dans nombreux cancers et désordres génétiques.
Resumo:
Les systèmes Matériels/Logiciels deviennent indispensables dans tous les aspects de la vie quotidienne. La présence croissante de ces systèmes dans les différents produits et services incite à trouver des méthodes pour les développer efficacement. Mais une conception efficace de ces systèmes est limitée par plusieurs facteurs, certains d'entre eux sont: la complexité croissante des applications, une augmentation de la densité d'intégration, la nature hétérogène des produits et services, la diminution de temps d’accès au marché. Une modélisation transactionnelle (TLM) est considérée comme un paradigme prometteur permettant de gérer la complexité de conception et fournissant des moyens d’exploration et de validation d'alternatives de conception à des niveaux d’abstraction élevés. Cette recherche propose une méthodologie d’expression de temps dans TLM basée sur une analyse de contraintes temporelles. Nous proposons d'utiliser une combinaison de deux paradigmes de développement pour accélérer la conception: le TLM d'une part et une méthodologie d’expression de temps entre différentes transactions d’autre part. Cette synergie nous permet de combiner dans un seul environnement des méthodes de simulation performantes et des méthodes analytiques formelles. Nous avons proposé un nouvel algorithme de vérification temporelle basé sur la procédure de linéarisation des contraintes de type min/max et une technique d'optimisation afin d'améliorer l'efficacité de l'algorithme. Nous avons complété la description mathématique de tous les types de contraintes présentées dans la littérature. Nous avons développé des méthodes d'exploration et raffinement de système de communication qui nous a permis d'utiliser les algorithmes de vérification temporelle à différents niveaux TLM. Comme il existe plusieurs définitions du TLM, dans le cadre de notre recherche, nous avons défini une méthodologie de spécification et simulation pour des systèmes Matériel/Logiciel basée sur le paradigme de TLM. Dans cette méthodologie plusieurs concepts de modélisation peuvent être considérés séparément. Basée sur l'utilisation des technologies modernes de génie logiciel telles que XML, XSLT, XSD, la programmation orientée objet et plusieurs autres fournies par l’environnement .Net, la méthodologie proposée présente une approche qui rend possible une réutilisation des modèles intermédiaires afin de faire face à la contrainte de temps d’accès au marché. Elle fournit une approche générale dans la modélisation du système qui sépare les différents aspects de conception tels que des modèles de calculs utilisés pour décrire le système à des niveaux d’abstraction multiples. En conséquence, dans le modèle du système nous pouvons clairement identifier la fonctionnalité du système sans les détails reliés aux plateformes de développement et ceci mènera à améliorer la "portabilité" du modèle d'application.
Resumo:
Avec l’émergence des nouveaux médias, une nouvelle façon de raconter les histoires s’impose. Les structures connues de l’esthétisme classique semblent désuètes par rapport aux dispositions des nouvelles plateformes de diffusion. Mieux encore, ces plateformes propulsent le récit, lui permettent de sortir de la rigidité de la ligne narrative : elles intègrent la technique au logos. L’intermédialité devient omniprésente; la diversité des types médiatiques employés dans une œuvre sont rendus visibles et sont articulés par la mise en récit. Méchoulan dira que dans l’« être-entre », dans l’espace reliant chacune des unités sémantiques, que l’événement de la pensée advient; pour Rodowick c’est le « figural ». Une figure particulière s’impose : le labyrinthe. Multipliant les possibilités narratives spécifiques aux nouveaux médias, le labyrinthe fait converger les composantes intermédiales. Bleeding Through : Layers of Los Angeles 1920-1986, une œuvre dirigée par Norman Klein, pose le labyrinthe comme élément structurel en y tissant un réseau où s’inscrit une pratique intermédiale. On y adresse le temps comme une opération fragmentaire, qui se sectionne, se réorganise en rompant avec la linéarité classique. Il nous faudra alors voir comment le labyrinthe réfléchit dans l’étude du temps certains éléments de la mythologie grecque. Les réflexions de Gervais sur le labyrinthe permettront d’étayer pareille hypothèse. Nous analyserons Bleeding Through à la lumière de ces théories pour ainsi dégager l’essence de cette figure qui a infiltrée la narration contemporaine. En somme, le labyrinthe se présente dans l’écologie médiatique actuelle comme une figure inhérente à la mise en récit.
Resumo:
La technologie des microarrays demeure à ce jour un outil important pour la mesure de l'expression génique. Au-delà de la technologie elle-même, l'analyse des données provenant des microarrays constitue un problème statistique complexe, ce qui explique la myriade de méthodes proposées pour le pré-traitement et en particulier, l'analyse de l'expression différentielle. Toutefois, l'absence de données de calibration ou de méthodologie de comparaison appropriée a empêché l'émergence d'un consensus quant aux méthodes d'analyse optimales. En conséquence, la décision de l'analyste de choisir telle méthode plutôt qu'une autre se fera la plupart du temps de façon subjective, en se basant par exemple sur la facilité d'utilisation, l'accès au logiciel ou la popularité. Ce mémoire présente une approche nouvelle au problème de la comparaison des méthodes d'analyse de l'expression différentielle. Plus de 800 pipelines d'analyse sont appliqués à plus d'une centaine d'expériences sur deux plateformes Affymetrix différentes. La performance de chacun des pipelines est évaluée en calculant le niveau moyen de co-régulation par l'entremise de scores d'enrichissements pour différentes collections de signatures moléculaires. L'approche comparative proposée repose donc sur un ensemble varié de données biologiques pertinentes, ne confond pas la reproductibilité avec l'exactitude et peut facilement être appliquée à de nouvelles méthodes. Parmi les méthodes testées, la supériorité de la sommarisation FARMS et de la statistique de l'expression différentielle TREAT est sans équivoque. De plus, les résultats obtenus quant à la statistique d'expression différentielle corroborent les conclusions d'autres études récentes à propos de l'importance de prendre en compte la grandeur du changement en plus de sa significativité statistique.
Resumo:
Travail d'intégration réalisé dans le cadre du cours PHT-6113.
Resumo:
L'étude vise à évaluer l'exposition professionnelle au bruit des travailleurs d'une plateforme gazière en Algérie et à mettre en évidence des déterminants influençant cette exposition. Des groupes d'exposition homogène (GEH) ont été constitués sur la base de ressemblances quant à l'exposition au bruit, aux titres d'emploi et aux lieux de travail. Deux stratégies d'échantillonnage ont été suivies, la première selon la norme internationale ISO 9612 : 2009 et la seconde selon la stratégie aléatoire de l'AIHA. Pour les deux approches, les niveaux de bruit (Lex, 8h, niveaux d'exposition au bruit pondéré (A) ajustés à une journée de travail de 8 heures) des opérateurs et des superviseurs étaient généralement > 85 dB(A) alors que pour les techniciens-tableau, les niveaux de bruit (Lex, 8h) étaient en tout temps < 85 dB(A). Pour les trois GEH du titre d'emploi des maintenanciers, il y a eu régulièrement des dépassements de la valeur de référence. Plusieurs travailleurs oeuvrant sur les plateformes gazières sont exposés à des niveaux importants de bruit et sont à risque de développer des problèmes auditifs.