990 resultados para Google API


Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this thesis we study the properties of two large dynamic networks, the competition network of advertisers on the Google and Bing search engines and the dynamic network of friend relationships among avatars in the massively multiplayer online game (MMOG) Planetside 2. We are particularly interested in removal patterns in these networks. Our main finding is that in both of these networks the nodes which are most commonly removed are minor near isolated nodes. We also investigate the process of merging of two large networks using data captured during the merger of servers of Planetside 2. We found that the original network structures do not really merge but rather they get gradually replaced by newcomers not associated with the original structures. In the final part of the thesis we investigate the concept of motifs in the Barabási-Albert random graph. We establish some bounds on the number of motifs in this graph.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cet article illustre la pertinence d’une théorie du document le représentant en trois dimensions complémentaires : forme, texte, médium. Deux exemples sont proposés : l’évolution de la conception du web par son inventeur Tim Berners-Lee qui passe progressivement d’une dimension à l’autre ; le classement des stratégies des principales firmes investissant le web du document, Amazon, Apple, Google et Facebook et privilégiant chaque fois une des dimensions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

MicroARN (miARN) ont récemment émergé comme un acteur central du gène réseau de régulation impliqués dans la prise du destin cellulaire. L'apoptose, un actif processus, par lequel des cellules déclenchent leur auto-destruction en réponse à un signal, peut être contrôlé par les miARN. Il a également été impliqué dans une variété de maladies humaines, comme les maladies du cœur, et a été pensé comme une cible pour le traitement de la maladie. Tanshinone IIA (TIIA), un monomère de phenanthrenequinones utilisé pour traiter maladies cardiovasculaires, est connu pour exercer des effets cardioprotecteurs de l'infarctus du myocarde en ciblant l'apoptose par le renforcement de Bcl-2 expression. Pour explorer les liens potentiels entre le miARN et l'action anti-apoptotique de TIIA, nous étudié l'implication possible des miARN. Nous avons constaté que l'expression de tous les trois membres de la famille miR-34, miR-34a, miR-34b et miR-34c ont été fortement régulée à la hausse après l'exposition soit à la doxorubicine, un agent endommageant l'ADN ou de pro-oxydant H2O2 pendant 24 heures. Cette régulation à la hausse causé significativement la mort cellulaire par apoptose, comme déterminé par fragmentation de l'ADN, et les effets ont été renversés par les ARNs antisens de ces miARN. Le prétraitement des cellules avec TIIA avant l'incubation avec la doxorubicine ou H2O2 a empêché surexpression de miR-34 et a réduit des apoptose. Nous avons ensuite établi BCL2L2, API5 et TCL1, en plus de BCL2, comme les gènes nouveaux cibles pour miR-34. Nous avons également élucidé que la répression des ces gènes par MiR-34 explique l'effet proapoptotique dans les cardiomyocytes. Ce que la régulation positive de ces gènes par TIIA realisée par la répression de l'expression de miR-34 est probable le mécanisme moléculaire de son effet bénéfique contre ischémique lésions cardiaques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le présent projet vise à documenter la nécessité d’augmenter notre connaissance de la présence des contaminants organiques tels que les médicaments dans l’environnement et d’évaluer leur devenir environnemental. On a étudié la présence de composés pharmaceutiques dans différents échantillons d'eau. On a focalisé nos efforts spécialement sur les échantillons d'eau de l'usine d'épuration de la Ville de Montréal et ses effluents, les eaux de surface avoisinantes et l’eau du robinet dans la région de Montréal. Pour ce faire, on a tout d’abord développé deux méthodes analytiques automatisées basées sur la chromatographie liquide avec extraction en phase solide (SPE) couplée à la chromatographie liquide couplée à la spectrométrie de masse en tandem (LC-MS/MS). On a également étudié les performances des trois techniques d'ionisation à pression atmosphérique (API), pour ensuite les utiliser dans la méthode analytique développée. On a démontré que l'ionisation par électronébulisation (ESI) est une méthode d'ionisation plus efficace pour l'analyse des contaminants pharmaceutiques dans des échantillons de matrices très complexes comme les eaux usées. Une première méthode analytique SPE couplée à la LC-MS/MS a été développée et validée pour l'étude des échantillons complexes provenant de l'usine d'épuration de la Ville de Montréal et des eaux de surface près de l'usine. Cinq médicaments de prescription ont été étudiés: le bézafibrate (un régulateur de lipides), le cyclophosphamide et le méthotrexate (deux agents anticancéreux), l'orlistat (un agent anti-obésité) et l’énalapril (utilisé dans le traitement de l'hypertension). La plupart de ces drogues sont excrétées par le corps humain et rejetées dans les eaux usées domestiques en faisant par la suite leur chemin vers les usines municipales de traitement des eaux usées. On a pu démontrer qu'il y a un faible taux d’élimination à l'usine d'épuration pour le bézafibrate et l'énalapril. Ces deux composés ont aussi été détectés dans les eaux de surface sur un site à proximité immédiate de la décharge de l’effluent de la station d'épuration. i En observant la nécessité de l'amélioration des limites de détection de la première méthode analytique, une deuxième méthode a été développée. Pour la deuxième méthode, un total de 14 contaminants organiques, incluant trois agents anti-infectieux (clarithromycin, sulfaméthoxazole et triméthoprime), un anticonvulsant (carbamazépine) et son produit de dégradation (10,11-dihydrocarbamazépine), l'agent antihypertensif (enalapril), deux antinéoplastiques utilisés en chimiothérapie (cyclophosphamide et méthotrexate), des herbicides (atrazine, cyanazine, et simazine) et deux produits de transformation de l’atrazine (deséthylatrazine et déisopropylatrazine) ainsi qu’un agent antiseptique (triclocarban). Ces produits ont été quantifiés dans les eaux de surface ainsi que dans l’eau du robinet. L'amélioration des limites de détection pour cette méthode a été possible grâce à la charge d'un volume d'échantillon supérieur à celui utilisé dans la première méthode (10 mL vs 1 mL). D'autres techniques de confirmation, telles que les spectres des ions produits utilisant une pente d’énergie de collision inverse dans un spectromètre de masse à triple quadripôle et la mesure des masses exactes par spectrométrie de masse à temps d’envol, ont été explorées. L'utilisation d'un analyseur de masse à temps d’envol a permis la confirmation de 6 des 14 analytes. Finalement, étant donné leur haute toxicité et pour évaluer leur persistance et leur transformation au niveau du traitement des eaux potables, la cinétique d'oxydation du cyclophosphamide et de méthotrexate avec l'ozone moléculaire et des radicaux OH a été étudiée. Les constantes de dégradation avec l'ozone moléculaire ont été calculées et la qualité de l'eau après traitement a pu être évaluée. Le rendement du processus d'ozonation a été amélioré pour la cyclophosphamide dans les eaux naturelles, en raison de la combinaison de réactions directes et indirectes. Cette étude a montré que l'ozone est très efficace pour oxyder le méthotrexate mais que le cyclophosphamide serait trop lent à s’oxyder pour un traitement efficace aux conditions usuelles de traitement de l’eau potable.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La planification intégrée du développement urbain et des transports durables est aujourd’hui cruciale au double impératif d’une plus grande maîtrise des déplacements automobiles et d’une diminution de la « dépendance automobile », éléments essentiels au développement durable des grandes métropoles. La présente recherche visait l‘approfondissement des connaissances sur l‘évolution récente de la forme urbaine dans les trois régions métropolitaines canadiennes de Toronto, Montréal et Vancouver, sous l’angle particulier de l’intégration « forme urbaine – transports durables ». Notre stratégie de recherche a consisté en l’élaboration d’un cadre d‘analyse qui devait permettre une opérationnalisation complète du paradigme d‘aménagement à l‘étude ainsi qu’une évaluation de sa mise en œuvre. Ce cadre tire parti des opportunités analytiques qu‘offrent les systèmes d‘information géographique (SIG) ainsi que certains outils Internet courants de « visite virtuelle des lieux » tel que Google Earth. Il en est résulté une approche méthodologique originale, multidimensionnelle et multi-échelle. Son application a permis des analyses particulières de la forme urbaine pour chacune des trois régions cibles, structurées selon trois axes principaux : leur performance globale (autour de 2006), leur performance en périphérie métropolitaine ainsi que l’évolution de leur performance entre 2001 et 2006. De nos analyses comparatives, Vancouver se démarque avec des performances supérieures pour les trois axes, tout particulièrement pour l‘évolution de ses performances. Montréal arrive quant à elle troisième, en raison notamment de sa faible performance en périphérie. Globalement, les trois régions métropolitaines affichent de faibles niveaux d’intégration entre la forme urbaine et les réseaux de transport durable et souffrent d’une grande dépendance automobile structurelle, particulièrement en leur périphérie. Par ailleurs, en dépit d’objectifs de planification adéquats, les déficiences de leur forme urbaine et leurs progrès relativement modestes laissent présager une prédominance de la dépendance automobile qui perdurera au cours des prochaines années. Il nous apparaît primordial que tous les acteurs du domaine public fassent preuve d‘une plus grande « lucidité », voire maturité, face aux lourds constats exposant la difficile mise en œuvre de leurs objectifs ainsi que la dichotomie entre ce qui « se passe sur le terrain » et le contenu de leurs politiques. Une première étape obligée vers un raffinement des politiques et, peut-être, vers leur plus grande efficacité passe sans doute par la pleine reconnaissance des limites du paradigme d’aménagement actuel et de l‘immense défi que représente un inversement des tendances. Cela implique notamment une plus grande transparence en matière d‘évaluation des politiques ainsi que des efforts communs pour le développement et la diffusion de données de qualité dans les domaines connexes de la forme urbaine et des transports urbains, de meilleurs outils de monitoring, etc., qui pourraient aider à instituer une nouvelle synergie entre tous les acteurs impliqués tant dans la recherche urbaine, le développement urbain que les politiques d’aménagement et de transport. Le raffinement de notre propre approche méthodologique pourrait aussi bénéficier de telles avancées, approche qui constitue une des avenues possibles pour la poursuite de l‘exploration de l‘enjeu de l‘intégration « forme urbaine – transports durables » dans les régions métropolitaines canadiennes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis longtemps déjà, les arts visuels se démarquent par leurs rapports proches quoique créatifs avec les développements technologiques des sociétés modernes. Pour les musées, Internet constitue une opportunité de rejoindre des publics qui s’avèrent de prime abord moins accessibles. Ce nouvel acteur dans le monde de l'art occupe une place croissante dans la présentation des oeuvres tout en jouant un rôle déterminant dans la diffusion et donc dans le retentissement qu'elles ont auprès de publics aux attentes changeantes. Alors que le musée diffusait autrefois ses collections et connaissances par les expositions et les catalogues, le cyberespace est aujourd’hui un nouveau lieu public qu’il lui convient d’investir. L’internaute est souvent isolé dans sa quête d’une « trouvaille » parmi la diversité de l’offre technologique. Nous proposons l’image alternative du flâneur comme métaphore opérationnelle afin d’analyser la relation entre l’internaute et l’exposition. Les oeuvres sont transposées dans le virtuel par le médium numérique, le même langage qui sous-tend l’exposition dans son ensemble, un transfert dont les implications sont nombreuses. La reproduction, par sa nature désacralisée, autorise la manipulation virtuelle. C’est une nouvelle forme de participation qui est exigée des spectateurs, non pas en termes d’acquisition rationnelle de connaissances, mais de manière ludoéducative, par cette même manipulation de l’image. Dans le but de souligner l’authenticité de l’oeuvre originale par la présentation de son équivalent numérique, l’exposition virtuelle est souvent médiatrice et documentaire avant tout, privilégiant l’observation technologique didactique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Travail d'intégration réalisé dans le cadre du cours PHT-6113.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

"Le droit de la protection des données à caractère personnel ne semble pas à première vue concerner directement les relations extérieures de l’Union européenne. Cependant, dans notre « société globale de l’information », caractérisée par les défis qu'impliquent les nouvelles technologies et la mondialisation, les questions relatives à la circulation des informations et notamment à la circulation des données personnelles sont devenues cruciales. Il suffit pour s’en convaincre de se reporter aux succès des entreprises Google ou Facebook, dont l’essentiel des revenus repose sur la collecte et le traitement de ces dernières données précisément. Aussi et puisque « désormais (…), nulle culture nationale, nulle économie ne sont plus à l’abri de leurs frontières naturelles » 2 ; il apparaît que l’Union européenne (UE) ne peut plus définir de façon autonome un standard de protection des données personnelles de ses ressortissants, sans que ce celui-ci ne soit continuellement remis en cause."

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Travail d'intégration présenté à la Faculté de médecine en vue de l’obtention du grade de maîtrise professionnelle en physiothérapie

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Travail dirigé présenté à la Faculté des sciences infirmières en vue de l’obtention du grade de Maître ès sciences (M.Sc.) en sciences infirmières option administration en sciences infirmières

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le web et les images qui y foisonnent font désormais partie de notre quotidien et ils façonnent notre manière de penser le monde. Certaines œuvres d’art permettent, semble-t-il, de réfléchir à la fois sur l’image, les technologies web, les relations qu’elles entretiennent et les enjeux sociopolitiques qui les sous-tendent. C’est dans cette perspective que ce mémoire s’intéresse aux travaux de la série des Googlegrams (2004-2006) de Joan Fontcuberta, particulièrement à deux œuvres qui reprennent les photographies de torture de la prison d’Abu Ghraib devenues iconiques. Ce sont des photomosaïques utilisant ces images comme matrices dans lesquelles viennent s’insérer des milliers de petites images qui ont été trouvées dans le web grâce au moteur de recherche d’images de Google, selon certains mots-clés choisis par l’artiste de façon à faire écho à ces photographies-matrices. Ces œuvres sont ici considérées en tant qu’outils d’études actifs nous permettant de déployer les assemblages d’images et de technologies qu’elles font interagir. Il s’agit de suivre les acteurs et les réseaux qui se superposent et s’entremêlent dans les Googlegrams : d’abord les photographies d’Abu Ghraib et leur iconisation ; ensuite le moteur de recherche et sa relation aux images ; finalement les effets de la photomosaïque. Cette étude s’effectue donc à partir des interactions entre ces différents éléments qui constituent les œuvres afin de réfléchir sur leurs rôles dans le façonnement de la représentation de l’information.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire de maîtrise a été rédigé dans l’objectif d’explorer une inégalité. Une inégalité dans les pratiques liées à la saisie et l’exploitation des données utilisateur dans la sphère des technologies et services Web, plus particulièrement dans la sphère des GIS (Geographic Information Systems). En 2014, de nombreuses entreprises exploitent les données de leurs utilisateurs afin d’améliorer leurs services ou générer du revenu publicitaire. Du côté de la sphère publique et gouvernementale, ce changement n’a pas été effectué. Ainsi, les gouvernements fédéraux et municipaux sont démunis de données qui permettraient d’améliorer les infrastructures et services publics. Des villes à travers le monde essayent d’améliorer leurs services et de devenir « intelligentes » mais sont dépourvues de ressources et de savoir faire pour assurer une transition respectueuse de la vie privée et des souhaits des citadins. Comment une ville peut-elle créer des jeux de données géo-référencés sans enfreindre les droits des citadins ? Dans l’objectif de répondre à ces interrogations, nous avons réalisé une étude comparative entre l’utilisation d’OpenStreetMap (OSM) et de Google Maps (GM). Grâce à une série d’entretiens avec des utilisateurs de GM et d’OSM, nous avons pu comprendre les significations et les valeurs d’usages de ces deux plateformes. Une analyse mobilisant les concepts de l’appropriation, de l’action collective et des perspectives critiques variées nous a permis d’analyser nos données d’entretiens pour comprendre les enjeux et problèmes derrière l’utilisation de technologies de géolocalisation, ainsi que ceux liés à la contribution des utilisateurs à ces GIS. Suite à cette analyse, la compréhension de la contribution et de l’utilisation de ces services a été recontextualisée pour explorer les moyens potentiels que les villes ont d’utiliser les technologies de géolocalisation afin d’améliorer leurs infrastructures publiques en respectant leurs citoyens.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif de cette thèse par articles est de présenter modestement quelques étapes du parcours qui mènera (on espère) à une solution générale du problème de l’intelligence artificielle. Cette thèse contient quatre articles qui présentent chacun une différente nouvelle méthode d’inférence perceptive en utilisant l’apprentissage machine et, plus particulièrement, les réseaux neuronaux profonds. Chacun de ces documents met en évidence l’utilité de sa méthode proposée dans le cadre d’une tâche de vision par ordinateur. Ces méthodes sont applicables dans un contexte plus général, et dans certains cas elles on tété appliquées ailleurs, mais ceci ne sera pas abordé dans le contexte de cette de thèse. Dans le premier article, nous présentons deux nouveaux algorithmes d’inférence variationelle pour le modèle génératif d’images appelé codage parcimonieux “spike- and-slab” (CPSS). Ces méthodes d’inférence plus rapides nous permettent d’utiliser des modèles CPSS de tailles beaucoup plus grandes qu’auparavant. Nous démontrons qu’elles sont meilleures pour extraire des détecteur de caractéristiques quand très peu d’exemples étiquetés sont disponibles pour l’entraînement. Partant d’un modèle CPSS, nous construisons ensuite une architecture profonde, la machine de Boltzmann profonde partiellement dirigée (MBP-PD). Ce modèle a été conçu de manière à simplifier d’entraînement des machines de Boltzmann profondes qui nécessitent normalement une phase de pré-entraînement glouton pour chaque couche. Ce problème est réglé dans une certaine mesure, mais le coût d’inférence dans le nouveau modèle est relativement trop élevé pour permettre de l’utiliser de manière pratique. Dans le deuxième article, nous revenons au problème d’entraînement joint de machines de Boltzmann profondes. Cette fois, au lieu de changer de famille de modèles, nous introduisons un nouveau critère d’entraînement qui donne naissance aux machines de Boltzmann profondes à multiples prédictions (MBP-MP). Les MBP-MP sont entraînables en une seule étape et ont un meilleur taux de succès en classification que les MBP classiques. Elles s’entraînent aussi avec des méthodes variationelles standard au lieu de nécessiter un classificateur discriminant pour obtenir un bon taux de succès en classification. Par contre, un des inconvénients de tels modèles est leur incapacité de générer deséchantillons, mais ceci n’est pas trop grave puisque la performance de classification des machines de Boltzmann profondes n’est plus une priorité étant donné les dernières avancées en apprentissage supervisé. Malgré cela, les MBP-MP demeurent intéressantes parce qu’elles sont capable d’accomplir certaines tâches que des modèles purement supervisés ne peuvent pas faire, telles que celle de classifier des données incomplètes ou encore celle de combler intelligemment l’information manquante dans ces données incomplètes. Le travail présenté dans cette thèse s’est déroulé au milieu d’une période de transformations importantes du domaine de l’apprentissage à réseaux neuronaux profonds qui a été déclenchée par la découverte de l’algorithme de “dropout” par Geoffrey Hinton. Dropout rend possible un entraînement purement supervisé d’architectures de propagation unidirectionnel sans être exposé au danger de sur- entraînement. Le troisième article présenté dans cette thèse introduit une nouvelle fonction d’activation spécialement con ̧cue pour aller avec l’algorithme de Dropout. Cette fonction d’activation, appelée maxout, permet l’utilisation de aggrégation multi-canal dans un contexte d’apprentissage purement supervisé. Nous démontrons comment plusieurs tâches de reconnaissance d’objets sont mieux accomplies par l’utilisation de maxout. Pour terminer, sont présentons un vrai cas d’utilisation dans l’industrie pour la transcription d’adresses de maisons à plusieurs chiffres. En combinant maxout avec une nouvelle sorte de couche de sortie pour des réseaux neuronaux de convolution, nous démontrons qu’il est possible d’atteindre un taux de succès comparable à celui des humains sur un ensemble de données coriace constitué de photos prises par les voitures de Google. Ce système a été déployé avec succès chez Google pour lire environ cent million d’adresses de maisons.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Travail dirigé présenté à la Faculté des sciences infirmières en vue de l’obtention du grade de Maître ès sciences (M.Sc.) en sciences infirmières option administration des services infirmiers