13 resultados para Copyright -- Electronic information resources
em Université de Montréal, Canada
Resumo:
With the great advancement of computer technologies, electronic information starts to play a more and more important role in modern business transactions. Therefore, electronic data, such as e-mail, is frequently required in the process of litigation. Companies, on the one hand, have the legal obligations to produce this kind of e-mail evidence. On the other hand, they also undertake a high cost of e-mail evidence preservation due to the great volume on a daily basis. This Article firstly analyzed features of e-mail evidence with the comparison of paper evidence. Then, it discussed about how e-mail is authenticated and admitted into evidence. By using the case laws in different legal aspects and current Canadian legislations, the Author demonstrated the importance of e-mail evidence preservation in ordinary business course. After that, the Article focused on the practical dilemma of the companies between their legal obligation and the expensive cost to preserve e-mail evidence. Finally, the Author proposed suggestions to both companies and courts on how to coordinate the obligation and cost. More specifically, while companies should adopt a document management policy to implement e-mail evidence preservation, courts need to take into consideration of the high cost of e-mail evidence preservation in electronic discovery.
Resumo:
Notre recherche s’insère dans la mouvance des humanités numériques; nous y faisons dialoguer les arts et les sciences de l’information. Depuis quelques décennies, la danse est un sujet d’études et de recherche à part entière. Il devient donc nécessaire de mieux décrire la danse dans les archives, sachant que la description en amont influe grandement sur l’accès en aval. Les méthodes d’extraction automatique de connaissances nous semblent offrir de nouvelles possibilités. L’objectif de notre recherche est de contribuer au développement d’outils de gestion de l’information dans les archives de la danse en comparant un vocabulaire de description de la danse dans les archives et un vocabulaire de représentation de la danse dans la littérature, recueilli grâce à des méthodes d’extraction automatique de connaissances, pour en distinguer une possible complémentarité, particulièrement en ce qui a trait au vocabulaire de l’expérience esthétique. D’abord, nous analysons un vocabulaire de description de la danse dans les archives. Nous décrivons certains outils de description des archives de la danse et nous analysons le thésaurus de descripteurs Collier. Nous constatons que le vocabulaire de description de la danse dans les archives ne semble pas prendre en compte l’expérience esthétique. Ensuite, nous analysons un vocabulaire de représentation de la danse dans la littérature. Un vocabulaire structuré de l’expérience esthétique de la danse moderne est ainsi extrait d’un corpus de textes de l’écrivain français Stéphane Mallarmé et analysé. Puis nous comparons les deux vocabulaires afin d'en distinguer la complémentarité quant à la description de l’expérience esthétique. Nous formulons une première suggestion d’amélioration de certains thésaurus employés dans les archives de la danse : un thésaurus au vocabulaire essentiellement factuel, comme le thésaurus de descripteurs Collier, peut être enrichi de termes à propos de l’expérience esthétique. Le vocabulaire de représentation de la danse dans la littérature est jusqu’à un certain point complémentaire au vocabulaire de description de l’expérience esthétique de la danse dans les archives. Nous menons ainsi une première expérimentation qui justifie en partie la pertinence de certaines méthodes d’extraction de connaissances dans le développement et la maintenance de ressources documentaires pour le domaine des arts d’interprétation tels que la danse.
Resumo:
"Mémoire présenté à la Faculté des études supérieures en vue de l'obtention du grade de Maître en droit (LL.M.)"
Resumo:
Cette thèse présente une série d'études qui visent la compréhension de la structure électronique de complexes de métaux de transition en employant diverses méthodes de spectroscopie. L'information sur la structure électronique aide à comprendre et développer des nouveaux matériaux, des nouvelles voies de synthèses, ainsi que des nouveaux modèles théoriques. Habituellement, afin d'explorer la structure électronique d'un système qui comporte en son centre un métal de transition, l'information fournie par les spectres d'un seul composé n'est pas suffisante. On étudie une série de composés similaires, qui ont le même métal de transition à un degré d'oxydation donné, ainsi que des ligands qui forment des liaisons de différentes forces et caractéristiques avec le métal. Cependant, ces changements, bien qu'on les désire de faible impact, créent une grande perturbation de la structure électronique visée par les études. Afin d'étudier en profondeur une seule structure électronique, nous employons une stratégie d'analyse moins perturbante. Nous appliquons une pression hydrostatique sur les complexes de métaux de transition. Cette pression perturbe le système suffisamment pour nous livrer davantage d'informations sur la structure électronique, sans la « dénaturer ». Afin d'étudier précisément ces systèmes perturbés, la technique d'application de pression est conjuguée, dans la littérature, aux diverses techniques de spectroscopie d'absorption UV-visible, de luminescence, ainsi que de diffusion Raman. Pour extraire un maximum d'informations de ces expériences, on emploie des techniques de calculs de structure électronique ainsi que de dynamique des noyaux. Dans cette thèse, on tente de mettre en lumière la structure électronique de composés de molybdène(IV), de platine(II) et palladium(II) à l'aide de la technique de pression couplée aux spectroscopies de luminescence et de diffusion Raman. Dans le chapitre 3, on observe un déplacement de la bande de luminescence de +12 cm-1/kbar entre la pression ambiante et 25 kbar pour le complexe trans-[MoOCl(CN-t-Bu)4]BPh4, dont le centre métallique molybdène(IV)est de configuration électronique 4d2. Il s'agit de la première variation positive observée pour un complexe de type métal-oxo. À des pressions plus élevées, la tendance s'inverse. Le maximum d'énergie de la bande de luminescence se déplace de -8 cm-1/kbar. Ce changement de variation présage d'une compétition interne entre les ligands situés sur les différents axes de l'octaèdre. À l'aide de calculs basés sur la théorie de la fonctionnelle de la densité, on propose un mécanisme pour expliquer ce phénomène. Au cours du chapitre 4, on étudie des complexes de palladium(II) et de platine(II) qui ont les mêmes ligands. Un de ces ligands est le 1,4,7-trithiacyclononane (ttcn). On constate qu'à basse pression le ligand est bidentate. Par contre, lorsque la pression augmente, on constate, par exemple à l'aide du complexe [Pt(ttcn)Cl2], qu'une interaction anti-liante supplémentaire se produit entre le ligand ttcn et le métal, ce qui change la nature de l'orbitale HOMO. On observe un déplacement de la bande de luminescence de -19 cm-1/kbar. Tel que pour le complexe de molybdène(IV), le déplacement de la bande de luminescence dépend de la compétition entre les ligands situés sur les différents axes de l'octaèdre. L'interaction liante entre l'ion platine(II) et l'atome de soufre axial est l'effet le plus plausible qui peut induire un déplacement de la bande de luminescence vers les basses énergies. Ceci nous indique que cette interaction domine. Par contre, pour ce qui est du complexe palladium(II), la compétition est remportée par d'autres effets, car le déplacement de la bande de luminescence est de +6 cm-1/kbar. Encore une fois, des calculs, basés sur la théorie de la fonctionnelle de la densité, aident à explorer les causes de ces observations en suggérant des explications corroborées simultanément par les diverses expériences de spectroscopie. Lors du chapitre 5, une étude plus exacte de la structure électronique ainsi que de la dynamique des noyaux de complexes de métaux de transition est présentée. En effet, les complexes de palladium(II) et de platine(II), de type [M(X)4]2-, ont une structure simple, très symétrique. Le premier état excité de ces molécules subit la distorsion Jahn-Teller. On veut établir un protocole de travail pour les expérimentateurs afin d'analyser des spectres de molécules pour lesquelles l'approximation de Born-Oppenheimer n'est pas valide. On utilise la théorie de la fonctionnelle de la densité dépendante du temps ainsi que le modèle de Heidelberg afin de décrire des effets non adiabatique. On tente d'établir l'influence des effets non adiabatiques sur les spectres de ce type de complexe.
Resumo:
Un résumé en français est également disponible.
Resumo:
RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.
Resumo:
Au Québec, la compétence professionnelle à intégrer les technologies de l’information et de la communication (TIC) est une compétence professionnelle à acquérir par les étudiants en enseignement. Cependant, son acquisition est problématique à plusieurs niveaux. Afin d’évaluer et mieux comprendre la compétence, cette thèse présente trois objectifs : 1) décrire le degré de maitrise des TIC et leurs usages dans les salles de classe 2) identifier les facteurs qui influencent l’intégration des TIC en fonction de la compétence professionnelle, et finalement 3) décrire le niveau d’atteinte des composantes de la compétence. Pour atteindre les objectifs de l’étude, une méthodologie mixte fut employée. Ce sont 2065 futurs enseignants du Québec provenant de neuf universités québécoises qui ont complété le questionnaire en plus de 34 participants à des groupes de discussion (n = 5). Cette thèse rédigée sous forme d’articles, répondra à chacun des objectifs visés. Dans le but de mieux comprendre l’utilisation actuelle des TIC par les futurs maitres, le premier article fournira un aperçu de la maitrise d’outils technologiques susceptibles d’être utilisés lors des stages. Le deuxième article visera à identifier les variables externes ainsi que les différentes composantes de la compétence qui ont une influence sur l’intégration des TIC lors des stages. Dans le troisième article, afin de comprendre où se situent les forces et les faiblesses des futurs maitres quant à la compétence professionnelle à intégrer les TIC, une description du niveau d’atteinte de chacune des composantes sera réalisée afin d’en dégager une appréciation globale. Les principaux résultats montrent que pour la moitié des répondants, seuls cinq outils sur 12 sont intégrés en stage et ce sont principalement les outils peu complexes qui sont bien maitrisés. Le logiciel de présentation Power Point, est le plus fréquemment utilisé. Les données considérées dans le premier article suggèrent aussi l’importance d’augmenter, de façon générale, la maitrise technique des futurs enseignants. Les résultats du second article ont permis de constater que la « prévision d’activités faisant appel aux TIC » est une variable prédictive majeure pour l’intégration des TIC. L’analyse des résultats suggèrent le besoin d’enseigner aux futurs maitres comment développer le réflexe d’inclure les TIC dans leurs plans de leçons. De plus, l’appropriation de la sixième composante de la compétence joue un rôle important sur la probabilité d’intégrer les TIC. Les résultats du troisième article indiquent que les composantes 2, 4, 5 et 6 de la compétence sont partiellement maitrisées. La mieux maitrisée est la première composante. Finalement, la troisième composante de la compétence s’est avérée être encore non atteinte et reste à être développer par les futurs enseignants. Cette thèse nous apprend que des efforts considérables restent encore à accomplir quant à la maitrise de la compétence professionnelle à intégrer les TIC. Ces efforts doivent être accomplis à la fois par les futurs enseignants ainsi que par les universités au niveau de la structure des cours de TIC en formation initiale des maitres.
Resumo:
Il est devenu commun de dire que notre société se transforme inexorablement en une société dite de « l'information ». Cette transformation se caractérise entre autres par une utilisation accrue des technologies de l’information afin de communiquer, d’échanger ou de transiger. Les supports traditionnels de communication (tel que le papier) cèdent progressivement leur place à de nouveaux supports technologiques favorisant l’efficacité et la rapidité des échanges, et par la même occasion le développement du commerce électronique. Qu’on le souhaite ou non, un constat s’impose : la montée en puissance des réseaux virtuels a eu raison du monopole du papier. Sur le plan juridique, cette nouvelle réalité bouleverse aussi considérablement les règles de droit civil largement pensées et ancrées dans un contexte papier. L’avènement de la numérisation et du phénomène de la dématérialisation des supports ont effectivement soulevé plusieurs questions d’ordre juridique tout à fait nouvelles que nous pourrions résumer de la manière suivante : Quels sont les rapports entre l’écrit et son support autre que le papier? Quelles sont les caractéristiques de l’écrit faisant appel aux technologies de l’information? Ce type d’écrit peut-il être admis en tant que moyen de preuve? Si oui, quelle sera sa force probante? Ce type d’écrit doit-il être conservé? Le présent mémoire vise précisément à identifier certains éléments de réponses à ces diverses questions en étudiant spécifiquement les cadres juridiques français et québécois. Ce mémoire traite d’une part des enjeux liés à l’évolution et au rôle de l’écrit face à l’avènement des technologies de l’information et d’autre part du cadre juridique de la preuve et de la conservation de l’écrit dans la société de l’information.
Resumo:
Partout dans le monde, des tribunaux empruntent l’autoroute de l’information et choisissent le dépôt électronique comme moyen de faire évoluer les systèmes judiciaires. Certains tribunaux canadiens ont rallié le mouvement, mais la plupart se contentent pour l’instant d’observer, risquant de se voir claquer au nez la porte du cybermonde. Les obstacles invoqués sont divers et vont du manque d’argent et de ressources techniques à l’absence d’une masse critique de dépôts justifiant l’investissement initial nécessaire pour faire entrer le tribunal au XXIe siècle. La Cour fédérale, la Cour suprême et quelques partenaires du secteur privé étudient un modèle de nature à éliminer certains de ces obstacles, qui permettrait de numériser l’information qui circule entre les parties à un litige, leurs avocats et les tribunaux, grâce à la technologie sécurisée de l’Internet, fondée sur le Web. Le présent rapport expose la perspective des praticiens et énonce les avantages, les difficultés et les risques associés au modèle.
Resumo:
Échange automatisé de messages préprogrammés, communication par courrier électronique, gestion électronique de documents (GED), Data warehouse, EDI… Le monde des affaires vibre depuis quelques années au rythme des nouvelles technologies de l’information. Le droit commercial lui, a du mal à emboîter le pas. Pourtant, les problèmes juridiques soulevés par ce règne de l’immatériel sont majeurs et les incertitudes, grandissantes. La mobilité accrue que permettent ces techniques modernes de transmission et de gestion des informations suggère une solution concertée, qui plus est, tiendra compte de l’évolution hâtée dans ce domaine. Le fondement en a été donné à travers la Loi type des Nations unies sur le commerce électronique en 1996. Plusieurs législations l’ont choisi comme modèle. La législation canadienne est de celles-ci, avec notamment sa Loi uniforme sur le commerce électronique adoptée par la Conférence pour l’harmonisation des lois au Canada en 1999. La législation québécoise aussi a suivi le mouvement. Le 16 juin 2000, un avant-projet de loi portant sur la normalisation juridique des technologies de l’information fut déposé devant l’Assemblée nationale. Cet avant-projet de loi est devenu projet de loi 161, Loi concernant le cadre juridique des technologies de l’information. Mais au-delà des apparences, le législateur québécois semble s’être écarté de la philosophie qui a influencé la Loi type et, conséquemment, la Loi uniforme. Si cette remarque est vérifiée, il faudra craindre l’isolement du Québec et, par ricochet, un positionnement peu concurrentiel dans le commerce international.
Resumo:
Dans cet article, l’auteur Ejan Mackaay présente les caractéristiques fondamentales du cyberespace et analyse les relations économiques et juridiques entre les acteurs du marché virtuel de l’Internet. Cette analyse s'inscrit en marge des travaux de Niva Elkin-Koren et Eli Salzberger, dont elle suit le plan. D'une part, il y est précisé que le marché virtuel de l’Internet remet en question l’analyse classique des interactions entre les acteurs économiques. La nouvelle analyse néo-institutionnel présente un cadre analytique qui relève plus adéquatement les relations complexes entre les acteurs économiques du marché virtuel que les théories économiques classiques. Cette nouvelle approche se fonde sur le concept que les acteurs économiques utilisent les ressources afin d’être intégrés au sein des institutions les plus actives et efficaces. D'autre part, il est fait mention que le cyberespace présente plusieurs caractéristiques d’un marché économique. Toutefois, étant virtuel, le cyberespace ne présente pas les mêmes limites qu’un marché physique. En effet, dans ce dernier, certaines limites physiques imposent diverses règles de comportement. Le législateur doit donc prendre conscience de l’absence de telles limites et des normes qu’elles imposaient afin de légiférer adéquatement sur les échanges dans le cyberespace. Ensuite, afin d’illustrer les divergences entre les marchés physiques et virtuels, une analyse est faite au regard des principaux échecs de marchés, soit l’établissement d’un monopole, l’accès aux biens publics, les informations imparfaites et les externalités négatives. Un monopole est un échec de marché qui restreint considérablement la compétition, peut être accrut par l’effet boule de neige et, s’il n’est pas contrôlé, peut mener à un effet de blocage ou d’exclusion de certains acteurs. Le second échec analysé est l’accès aux biens publics. Dans le cyberespace, le principal bien public est l’information qui peut être échangée entre les utilisateurs. Toutefois, certaines règles de droits d’auteur et de propriété intellectuelle peuvent considérablement limiter l’accès à ce bien. L’information incomplète des acteurs économiques constitue un autre échec de marché, mais le cyberespace offre plusieurs moyens d’accéder à l’information pertinente aux transactions éclairées. Enfin, les externalités négatives peuvent généralement être considérées comme des effets secondaires des échanges commerciaux. Toutefois il est souligné que ces dernières ont un effet très limité dans le cyberespace, étant donné le plus grand nombre d’options de retrait et la facilité accrue de l’exercer. Enfin, il est rappelé que le commerce électronique et le cyberespace remettent en questions toutes les théories économiques et politiques traditionnelles et offrent une perspective nouvelle sur le phénomène de la formation des normes.
Resumo:
Le domaine biomédical est probablement le domaine où il y a les ressources les plus riches. Dans ces ressources, on regroupe les différentes expressions exprimant un concept, et définit des relations entre les concepts. Ces ressources sont construites pour faciliter l’accès aux informations dans le domaine. On pense généralement que ces ressources sont utiles pour la recherche d’information biomédicale. Or, les résultats obtenus jusqu’à présent sont mitigés : dans certaines études, l’utilisation des concepts a pu augmenter la performance de recherche, mais dans d’autres études, on a plutôt observé des baisses de performance. Cependant, ces résultats restent difficilement comparables étant donné qu’ils ont été obtenus sur des collections différentes. Il reste encore une question ouverte si et comment ces ressources peuvent aider à améliorer la recherche d’information biomédicale. Dans ce mémoire, nous comparons les différentes approches basées sur des concepts dans un même cadre, notamment l’approche utilisant les identificateurs de concept comme unité de représentation, et l’approche utilisant des expressions synonymes pour étendre la requête initiale. En comparaison avec l’approche traditionnelle de "sac de mots", nos résultats d’expérimentation montrent que la première approche dégrade toujours la performance, mais la seconde approche peut améliorer la performance. En particulier, en appariant les expressions de concepts comme des syntagmes stricts ou flexibles, certaines méthodes peuvent apporter des améliorations significatives non seulement par rapport à la méthode de "sac de mots" de base, mais aussi par rapport à la méthode de Champ Aléatoire Markov (Markov Random Field) qui est une méthode de l’état de l’art dans le domaine. Ces résultats montrent que quand les concepts sont utilisés de façon appropriée, ils peuvent grandement contribuer à améliorer la performance de recherche d’information biomédicale. Nous avons participé au laboratoire d’évaluation ShARe/CLEF 2014 eHealth. Notre résultat était le meilleur parmi tous les systèmes participants.
Resumo:
La théorie de l'information quantique s'est développée à une vitesse fulgurante au cours des vingt dernières années, avec des analogues et extensions des théorèmes de codage de source et de codage sur canal bruité pour la communication unidirectionnelle. Pour la communication interactive, un analogue quantique de la complexité de la communication a été développé, pour lequel les protocoles quantiques peuvent performer exponentiellement mieux que les meilleurs protocoles classiques pour certaines tâches classiques. Cependant, l'information quantique est beaucoup plus sensible au bruit que l'information classique. Il est donc impératif d'utiliser les ressources quantiques à leur plein potentiel. Dans cette thèse, nous étudions les protocoles quantiques interactifs du point de vue de la théorie de l'information et étudions les analogues du codage de source et du codage sur canal bruité. Le cadre considéré est celui de la complexité de la communication: Alice et Bob veulent faire un calcul quantique biparti tout en minimisant la quantité de communication échangée, sans égard au coût des calculs locaux. Nos résultats sont séparés en trois chapitres distincts, qui sont organisés de sorte à ce que chacun puisse être lu indépendamment. Étant donné le rôle central qu'elle occupe dans le contexte de la compression interactive, un chapitre est dédié à l'étude de la tâche de la redistribution d'état quantique. Nous prouvons des bornes inférieures sur les coûts de communication nécessaires dans un contexte interactif. Nous prouvons également des bornes atteignables avec un seul message, dans un contexte d'usage unique. Dans un chapitre subséquent, nous définissons une nouvelle notion de complexité de l'information quantique. Celle-ci caractérise la quantité d'information, plutôt que de communication, qu'Alice et Bob doivent échanger pour calculer une tâche bipartie. Nous prouvons beaucoup de propriétés structurelles pour cette quantité, et nous lui donnons une interprétation opérationnelle en tant que complexité de la communication quantique amortie. Dans le cas particulier d'entrées classiques, nous donnons une autre caractérisation permettant de quantifier le coût encouru par un protocole quantique qui oublie de l'information classique. Deux applications sont présentées: le premier résultat général de somme directe pour la complexité de la communication quantique à plus d'une ronde, ainsi qu'une borne optimale, à un terme polylogarithmique près, pour la complexité de la communication quantique avec un nombre de rondes limité pour la fonction « ensembles disjoints ». Dans un chapitre final, nous initions l'étude de la capacité interactive quantique pour les canaux bruités. Étant donné que les techniques pour distribuer de l'intrication sont bien étudiées, nous nous concentrons sur un modèle avec intrication préalable parfaite et communication classique bruitée. Nous démontrons que dans le cadre plus ardu des erreurs adversarielles, nous pouvons tolérer un taux d'erreur maximal de une demie moins epsilon, avec epsilon plus grand que zéro arbitrairement petit, et ce avec un taux de communication positif. Il s'ensuit que les canaux avec bruit aléatoire ayant une capacité positive pour la transmission unidirectionnelle ont une capacité positive pour la communication interactive quantique. Nous concluons avec une discussion de nos résultats et des directions futures pour ce programme de recherche sur une théorie de l'information quantique interactive.