871 resultados para Content-Base Image Retrieval


Relevância:

30.00% 30.00%

Publicador:

Resumo:

A retrieval model describes the transformation of a query into a set of documents. The question is: what drives this transformation? For semantic information retrieval type of models this transformation is driven by the content and structure of the semantic models. In this case, Knowledge Organization Systems (KOSs) are the semantic models that encode the meaning employed for monolingual and cross-language retrieval. The focus of this research is the relationship between these meanings’ representations and their role and potential in augmenting existing retrieval models effectiveness. The proposed approach is unique in explicitly interpreting a semantic reference as a pointer to a concept in the semantic model that activates all its linked neighboring concepts. It is in fact the formalization of the information retrieval model and the integration of knowledge resources from the Linguistic Linked Open Data cloud that is distinctive from other approaches. The preprocessing of the semantic model using Formal Concept Analysis enables the extraction of conceptual spaces (formal contexts)that are based on sub-graphs from the original structure of the semantic model. The types of conceptual spaces built in this case are limited by the KOSs structural relations relevant to retrieval: exact match, broader, narrower, and related. They capture the definitional and relational aspects of the concepts in the semantic model. Also, each formal context is assigned an operational role in the flow of processes of the retrieval system enabling a clear path towards the implementations of monolingual and cross-lingual systems. By following this model’s theoretical description in constructing a retrieval system, evaluation results have shown statistically significant results in both monolingual and bilingual settings when no methods for query expansion were used. The test suite was run on the Cross-Language Evaluation Forum Domain Specific 2004-2006 collection with additional extensions to match the specifics of this model.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Rapid developments in display technologies, digital printing, imaging sensors, image processing and image transmission are providing new possibilities for creating and conveying visual content. In an age in which images and video are ubiquitous and where mobile, satellite, and three-dimensional (3-D) imaging have become ordinary experiences, quantification of the performance of modern imaging systems requires appropriate approaches. At the end of the imaging chain, a human observer must decide whether images and video are of a satisfactory visual quality. Hence the measurement and modeling of perceived image quality is of crucial importance, not only in visual arts and commercial applications but also in scientific and entertainment environments. Advances in our understanding of the human visual system offer new possibilities for creating visually superior imaging systems and promise more accurate modeling of image quality. As a result, there is a profusion of new research on imaging performance and perceived quality.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The electrochemical behavior of the hydrolysis products of oxadiazon was studied by cyclic and square-wave voltammetry using a glassy carbon electrode. Maximum currents were obtained at pH 12.8 in an aqueous electrolyte solution containing 30% ethanol and the current did not decrease with time showing that there was little adsorption of the reaction products on the electrode surface. The hydrolysis products of oxadiazon were identi®ed, after isolation and puri®cation, as 1-trimethylacetyl-2-(2,4-dichloro-5-isopropoxyphenyl)-2-ethoxycarbonylhydrazine (Oxa1) and 1-trimethylacetyl-2-(2,4-dichloro-5-isopropoxyphenyl) hydrazine (Oxa2) with redox potentials 0.6Vand 70.1V (vs. Ag=AgCl), respectively. Based on the electrochemical behavior of 1-trimethylacetyl-2-(2,4-dichloro-5-isopropoxyphenyl) hydrazine (Oxa2) a simple electroanalytical procedure was developed for the determination of oxadiazon in commercial products used in the treatment of rice crops in Portugal that contain oxadiazon as the active ingredient. The detection limit was 161074 M, the mean content and relative standard deviation obtained for seven samples of two different commercial products by the electrochemical method were 28.4 0.8% (Ronstar) and 1.9 0.2% (Ronstar GR), and the recoveries were 100.3 5.4% and 101.1 5.3 %, respectively.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Field lab: Entrepreneurial and innovative ventures

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This paper presents a semisupervised support vector machine (SVM) that integrates the information of both labeled and unlabeled pixels efficiently. Method's performance is illustrated in the relevant problem of very high resolution image classification of urban areas. The SVM is trained with the linear combination of two kernels: a base kernel working only with labeled examples is deformed by a likelihood kernel encoding similarities between labeled and unlabeled examples. Results obtained on very high resolution (VHR) multispectral and hyperspectral images show the relevance of the method in the context of urban image classification. Also, its simplicity and the few parameters involved make the method versatile and workable by unexperienced users.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

TUTKIMUKSEN TAVOITTEET Tutkielman tavoitteena oli luoda ensin yleiskäsitys tuotemerkkimarkkinoinnin roolista teollisilla markkinoilla, sekä suhdemarkkinoinnin merkityksestä teollisessa merkkituotemarkkinoinnissa. Toisena oleellisena tavoitteena oli kuvata teoreettisesti merkkituoteidentiteetin rakenne teollisessa yrityksessä ja sen vaikutukset myyntihenkilöstöön, ja lisäksi haluttiin tutkia tuotemerkkien lisäarvoa sekä asiakkaalle että myyjälle. Identiteetti ja sen vaikutukset, erityisesti imago haluttiin tutkia myös empiirisesti. LÄHDEAINEISTO JA TUTKIMUSMENETELMÄT Tämän tutkielman teoreettinen osuus perustuu kirjallisuuteen, akateemisiin julkaisuihin ja aikaisempiin tutkimuksiin; keskittyen merkkituotteiden markkinointiin, identiteettiin ja imagoon, sekä suhdemarkkinointiin osana merkkituotemarkkinointia. Tutkimuksen lähestymistapa on kuvaileva eli deskriptiivinen ja sekä kvalitatiivinen että kvantitatiivinen. Tutkimus on tapaustutkimus, jossa caseyritykseksi valittiin kansainvälinen pakkauskartonki-teollisuuden yritys. Empiirisen osuuden toteuttamiseen käytettiin www-pohjaista surveytä, jonka avulla tietoja kerättiin myyntihenkilöstöltä case-yrityksessä. Lisäksi empiiristä osuutta laajennettiin tutkimalla sekundäärilähteitä kuten yrityksen sisäisiä kirjallisia dokumentteja ja tutkimuksia. TULOKSET. Teoreettisen ja empiirisen tutkimuksen tuloksena luotiin malli jota voidaan hyödyntää merkkituotemarkkinoinnin päätöksenteon tukena pakkauskartonki-teollisuudessa. Teollisen brandinhallinnan tulee keskittyä erityisesti asiakas-suhteiden brandaukseen – tätä voisi kutsua teolliseksi suhdebrandaukseksi. Tuote-elementit ja –arvot, differointi ja positiointi, sisäinen yrityskuva ja viestintä ovat teollisen brandi-identiteetin peruskiviä, jotka luovat brandi-imagon. Case-yrityksen myyntihenkilöstön tuote- ja yritysmielikuvat osoittautuivat kokonaisuudessaan hyviksi. Paras imago on CKB tuotteilla, kun taas heikoin on WLC tuotteilla. Teolliset brandit voivat luoda monenlaisia lisäarvoja sekä asiakas- että myyjäyritykselle.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In 1818 Parkhurst Whitney built stairs leading to the river’s edge at Prospect Point. In 1825 Porter Brother replaced that staircase with a spiral one. In 1844 Whitney started a water powered incline railway there although the staircase was also used until 1890. In 1906 the water wheel was replaced by an electric power plant. There were lower buildings which included Shadow of the Rock which was a concession stand and also rented raincoats to the tourists. This was destroyed by fire and ice in 1892 and replaced by a chalet-style building in 1894-95. On July 6th, 1907 a cable on the incline railway broke. One person was killed and several sustained injuries. An elevator was constructed and it opened in January of 1910. It was condemned in 1954 when water entered the shaft, this was at the time of the collapse of Prospect Point which occurred at 4:50 pm. on July 28, 1954. This photograph was taken prior to 1954. Today the New York State Observation Tower stands at Prospect Point and The Maid of the Mist boat ride is available from the base of the tower. with information from: Niagara Falls Canada: a History by the Kiwanis Club of Stamford, Ontario

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This mixed methods investigation examined the nutritional knowledge and habits of adolescent girls in grades 9 through 12 at a secondary school in southern Ontario. Through questionnaires, interviews, and the use of teaching and curriculum documents, this study attempted to understand whether the current nutrition curriculum is influential in developing students' nutritional knowledge, healthy eating habits, and a favourable body image. Data collection occurred over a 2-month period, involving 90 female participants, and the data analysis program SPSS was used for analysis of the quantitative questionnaire data. Interview data were organized into categories, and analysis of any emerging themes occurred. Teaching and curriculum documents were examined to determine any overlap and develop an understanding of the participants' exposure and experience within nutrition within the classroom setting. The findings of this study suggest that the current nutrition education did have an impact on the participants' nutrition knowledge. However, the impact on their eating habits and body image was limited in the context it was measured and tested. The knowledge learned within the classroom may not always be applied outside of the classroom. This study suggests that improvement in the current nutrition curriculum may be needed to have a bigger impact on adolescent females. The findings from the study shine light on areas of improvements for educators as well as development of future curriculum. Changes may need to be made not only in the specific curriculum content and expectations but also the delivery of it by the classroom teacher.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

There has been an increasing concern among researchers and the general population of our culture's increasing emphasis on "ideal" physical attractiveness-for both females and males. Despite this growing concern, research on body image has focused primarily on women and girls, with little research aimed specifically for males. Prior research (Grogan & Richards, 2002; Hargreaves & Tiggemann, 2006) stated that body image was a "feminine" or a "gay" issue, according to men and boys. The present study investigates this issue, particularly within the theoretical framework of multiple selves and gender theories. This exploratory case study involved semi-structured interviews with six male adolescents between the ages of 13 and 18 years. Researcher's fieldnotes were taken after the interviews. Content analysis of the interviews and fieldnotes revealed that for these six male adolescents, body image is not relevant to them, as they think about and discuss their issues of physical appearance with family and close peers. Traditional stereotypic notions of masculinity and what it means to be an adolescent male for the participants are discussed within the context of developmentally appropriate and gender-inclusive curriculum.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The description for the image reads "Niagara in winter, huge bank of frozen water below the American Falls. The beginning of the ice-bridge".

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Un atout majeur des organisations consiste en leur capacité à créer et exploiter l’information et les connaissances, capacité déterminée entre autres par les comportements informationnels. Chargés de décisions stratégiques, tactiques et opérationnelles, les cadres intermédiaires sont au cœur du processus de création des connaissances, et leurs comportements informationnels doivent être soutenus par des systèmes d’information. Toutefois, leurs comportements informationnels sont peu documentés. La présente recherche porte sur la modélisation des comportements informationnels de cadres intermédiaires d’une organisation municipale. Plus spécifiquement, elle examine comment ces cadres répondent à leurs besoins d’information courante dans le contexte de leurs activités de gestion, c’est-à-dire dans leur environnement d’utilisation d’information. L’étude répond aux questions de recherche suivantes : (1) Quelles sont les situations problématiques auxquelles font face les cadres intermédiaires municipaux ? (2) Quels sont les besoins informationnels exprimés par les cadres intermédiaires municipaux lors de situations problématiques ? (3) Quelles sont les sources d’information qui soutiennent les comportements informationnels des cadres intermédiaires municipaux ? Cette recherche descriptive s’inscrit dans une approche qualitative. Les 21 cadres intermédiaires ayant participé à l’étude proviennent de deux arrondissements d’une municipalité québécoise fusionnée en 2002. Les modes de collecte de données sont l’entrevue en profondeur en personne et l’observation directe auprès de ces cadres, et la collecte de documentation pertinente. L’incident critique est utilisé comme technique de collecte de données et comme unité d’analyse. Les données recueillies font l’objet d’une analyse de contenu qualitative basée sur la théorisation ancrée. Les résultats indiquent que les rôles de gestion proposés dans les écrits pour les cadres supérieurs s’appliquent aussi aux cadres intermédiaires, bien que le rôle conseil ressorte comme étant particulier à ces derniers. Ceux-ci ont des responsabilités de gestion aux trois niveaux d’intervention opérationnel, tactique et stratégique, bien qu’ils œuvrent davantage au plan tactique. Les situations problématiques dont ils sont chargés s’inscrivent dans l’environnement d’utilisation d’information constitué des composantes suivantes : leurs rôles et responsabilités de gestion et le contexte organisationnel propre à une municipalité en transformation. Les cadres intermédiaires ont eu à traiter davantage de situations nouvelles que récurrentes, caractérisées par des sujets portant principalement sur les ressources matérielles et immobilières ou sur des aspects d’intérêt juridique, réglementaire et normatif. Ils ont surtout manifesté des besoins pour de l’information de nature processuelle et contextuelle. Pour y répondre, ils ont consulté davantage de sources verbales que documentaires, même si le nombre de ces dernières reste élevé, et ont préféré utiliser des sources d’information internes. Au plan théorique, le modèle de comportement informationnel proposé pour les cadres intermédiaires municipaux enrichit les principales composantes du modèle général d’utilisation de l’information (Choo, 1998) et du modèle d’environnement d’utilisation d’information (Taylor, 1986, 1991). L’étude permet aussi de préciser les concepts d’« utilisateur » et d’« utilisation de l’information ». Au plan pratique, la recherche permet d’aider à la conception de systèmes de repérage d’information adaptés aux besoins des cadres intermédiaires municipaux, et aide à évaluer l’apport des systèmes d’information archivistiques à la gestion de la mémoire organisationnelle.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La légitimité d’une organisation est fondée sur sa mission, c’est-à-dire sur sa raison d’être. Des responsables des bibliothèques et de nombreux chercheurs craignent que la légitimité des bibliothèques publiques soit contestée dans la société de l’information. De plus, les textes officiels présentant les missions des bibliothèques publiques sont divers et les missions y sont délibérément non définies. Au Québec, où une grande majorité des bibliothèques publiques autonomes sont placées directement sous la tutelle des municipalités, les bibliothèques publiques doivent définir et légitimer leurs missions avec les élus municipaux. L’objectif principal de cette recherche est de comprendre, via les discours, le point de vue des élus municipaux québécois sur les missions des bibliothèques publiques autonomes, en comparaison avec les pratiques et les ressources des bibliothèques au plan local. Basé sur la théorie de la construction sociale de la réalité, un cadre conceptuel est proposé de manière à étudier non seulement les discours dans leur dimension textuelle, mais aussi à contextualiser ces discours et analyser l’écart entre ces discours et les pratiques des bibliothèques.La stratégie de recherche adoptée est une étude de cas multiples. L’objectif est de développer une analyse en profondeur de chaque cas et une analyse inter cas. Les douze cas (municipalités) ont été sélectionnés en fonction de deux critères de variation (la taille de la municipalité et le budget annuel alloué par la municipalité à la bibliothèque) et un critère discriminant (la distance par rapport à l’Université de Montréal). Des entrevues ont été menées auprès des élus municipaux présidant la commission ou le comité dont dépendent les bibliothèques publiques. Ces entrevues et les politiques culturelles ont fait l’objet d’une analyse de discours. Les entrevues auprès des responsables des bibliothèques et la documentation ont fait l’objet d’une analyse de contenu. Ces analyses ont permis la triangulation des méthodes et des sources de données.Les élus municipaux québécois, comme les professionnels, n’offrent pas un discours homogène sur les missions des bibliothèques publiques. Toutefois, un modèle de discours émerge. Il montre un discours « limité » par rapport à la littérature, dans lequel une image passive de la bibliothèque est présentée et dans lequel la tradition perdure malgré le contexte de la société de l’information. Mais l’analyse révèle aussi que les élus municipaux construisent leurs points de vue sur leurs propres convictions en tant qu’individus, sur leur rôle dans la gestion de la municipalité en tant qu’élus et sur l’image qu’ils ont des usagers des bibliothèques publiques. Enfin, l’analyse a révélé un axe de différenciation des points de vue selon que le discours s’appuie sur des valeurs fondamentales ou sur les usages (réels ou supposés) de la bibliothèque.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le présent mémoire comprend un survol des principales méthodes de rendu en demi-tons, de l’analog screening à la recherche binaire directe en passant par l’ordered dither, avec une attention particulière pour la diffusion d’erreur. Ces méthodes seront comparées dans la perspective moderne de la sensibilité à la structure. Une nouvelle méthode de rendu en demi-tons par diffusion d’erreur est présentée et soumise à diverses évaluations. La méthode proposée se veut originale, simple, autant à même de préserver le caractère structurel des images que la méthode à l’état de l’art, et plus rapide que cette dernière par deux à trois ordres de magnitude. D’abord, l’image est décomposée en fréquences locales caractéristiques. Puis, le comportement de base de la méthode proposée est donné. Ensuite, un ensemble minutieusement choisi de paramètres permet de modifier ce comportement de façon à épouser les différents caractères fréquentiels locaux. Finalement, une calibration détermine les bons paramètres à associer à chaque fréquence possible. Une fois l’algorithme assemblé, toute image peut être traitée très rapidement : chaque pixel est attaché à une fréquence propre, cette fréquence sert d’indice pour la table de calibration, les paramètres de diffusion appropriés sont récupérés, et la couleur de sortie déterminée pour le pixel contribue en espérance à souligner la structure dont il fait partie.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Ce mémoire est composé de trois articles qui s’unissent sous le thème de la recommandation musicale à grande échelle. Nous présentons d’abord une méthode pour effectuer des recommandations musicales en récoltant des étiquettes (tags) décrivant les items et en utilisant cette aura textuelle pour déterminer leur similarité. En plus d’effectuer des recommandations qui sont transparentes et personnalisables, notre méthode, basée sur le contenu, n’est pas victime des problèmes dont souffrent les systèmes de filtrage collaboratif, comme le problème du démarrage à froid (cold start problem). Nous présentons ensuite un algorithme d’apprentissage automatique qui applique des étiquettes à des chansons à partir d’attributs extraits de leur fichier audio. L’ensemble de données que nous utilisons est construit à partir d’une très grande quantité de données sociales provenant du site Last.fm. Nous présentons finalement un algorithme de génération automatique de liste d’écoute personnalisable qui apprend un espace de similarité musical à partir d’attributs audio extraits de chansons jouées dans des listes d’écoute de stations de radio commerciale. En plus d’utiliser cet espace de similarité, notre système prend aussi en compte un nuage d’étiquettes que l’utilisateur est en mesure de manipuler, ce qui lui permet de décrire de manière abstraite la sorte de musique qu’il désire écouter.