503 resultados para Linguistique informatique


Relevância:

10.00% 10.00%

Publicador:

Resumo:

"L’auteur Ethan Katsh analyse les problématiques posées par les relations de la communauté virtuelle de l’Internet et son processus en ligne de résolution des conflits. Il explique comment le cyberespace constitue un environnement intégral et indépendant qui développe ses propres règles normatives. L’évolution des normes au sein du cyberespace semble être une conséquence des interactions entre les acteurs, sans intervention législative fondamentale de la part des états. L’auteur trace l’évolution, depuis le début des années 1990, du processus en ligne de résolution des différends, principalement dans le domaine du commerce électronique. L’accroissement rapide des relations commerciales électroniques a entraîné une hausse des litiges dans ce domaine. Dans le cadre de tels litiges, les moyens en ligne de résolution des conflits offrent aux justiciables plus de facilité, de flexibilité et d’accessibilité que les moyens alternatifs traditionnels de résolution des conflits. C’est donc dans ce contexte qu’a été développé le système ""Squaretrade"" qui a pour objectif d’aider la résolution de conflits entre les utilisateurs de ""E-Bay"". Ce système présente l’avantage important d’encadrer et d’uniformiser le processus de résolution en définissant les termes généraux et spécifiques du conflit. L’auteur soutient que la principale fonction d’un tel système est d’organiser et d’administrer efficacement les communications entre les parties. Ainsi, cette fonction préserve le ""paradigme de la quatrième personne"", nécessaire aux processus alternatifs traditionnels de résolution de conflits. Par ailleurs, cette fonction, en tant que partie intégrante du programme informatique, constitue pour les justiciables une alternative intéressante aux règles législatives. Pour l’auteur, l’analyse de ce phénomène soulève des questions importantes concernant la création de normes et leur acceptation par les citoyens. L’auteur analyse par la suite le concept général de la formation des normes dans le contexte d’un environnement non régularisé. Il soutient que les normes émergeantes doivent toujours viser à développer une forme de légitimité auprès des justiciables. Dans le cadre du processus en ligne de résolution des conflits, cette légitimité doit être acquise autant auprès des parties au litige qu’auprès de la population en général. Toutefois, les attentes des parties au litige sont souvent très différentes de celles du public. L’auteur illustre ainsi comment certains processus en ligne de résolution de conflit ne réussissent pas à obtenir une telle légitimité, alors que d’autres s’établissent en tant qu’institutions reconnues. Dans ce contexte, les institutions en ligne de résolution de conflits devront développer leur propre valeur normative. Ainsi, les moyens en ligne de résolution des conflits remettent en question le processus traditionnel de formation des normes et peuvent être considérés comme des éléments d’un nouvel environnement normatif."

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce texte traite de l’évolution des modes alternatifs de résolution de conflit (MARC) en ligne. L’auteur dresse un historique des différents projets de médiation en ligne en passant par ses « débuts » en 1999 lorsque l’Online Ombuds Office (OOO) fut approché pour l’élaboration d’un système de médiation pour les clients d’eBay, par SquareTrade.com, par les règles de l’ICANN, par Cybersettle et Clicknsettle, etc. Il expose ensuite le courrant que prendra la cybermédiation et le cyberarbitrage dans les années à venir. Ainsi, le médium informatique devient lentement une « quatrième partie » aux discussions et peut venir en aide aux arbitres et aux médiateurs dans la gestion et la communication d’informations. De plus les fonctions d’affichages propres aux ordinateurs, c’est-à-dire la possibilité d’incorporer images, graphiques, plans, etc., devront être mis à l’œuvre par les systèmes de MARC en ligne si ceux-ci sont destinés à prendre de l’expansion dans d’autres domaines que ceux leur étant présentement réservés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

"Les juristes partout dans le monde peuvent maintenant, de leur poste informatique personnel, accéder aux données « publiques » (la part des règles juridiques y est majeure) que les États mettent à la disposition de chacun. En plus de modifier les méthodes de travail des praticiens du droit, l’usage des technologies de l’information influera sur l’évolution du droit et de la justice. D’une part, les États ne pourront renoncer à se doter des moyens technologiques requis pour diffuser l’information et, d’autre part, l’institution judiciaire devra répondre à cette nouvelle forme d’exigence de démocratisation. Les technologies de l’information feront surgir un nouveau rapport entre le citoyen et le droit. Dans le domaine judiciaire, il faudra consentir à une réflexion en profondeur sur la manière dont les juridictions sont saisies. Le « dialogue par formulaire » est un exercice de la pensée différent de ceux que les juristes pratiquent habituellement ; dans le domaine judiciaire ou parajudiciaire, la pratique des téléprocédures est, en France, balbutiante. L’utilisation des technologies de l’information et de la communication dans les procédures assurera une meilleure efficacité (effectivité et célérité) de la réponse judiciaire et fera apparaître de nouvelles exigences, en particulier quant à la communication des décisions de justice. Le droit évoluera : la communauté des juristes devient mondiale, les droits internes sont quotidiennement à l’épreuve des autres droits, toutes sortes de comparaisons sont possibles entre les différentes juridictions, entre les législations existantes et entre les solutions théoriquement possibles pour régler tel ou tel cas. On ne peut imaginer que le législateur, que les juridictions suprêmes, que les chercheurs et les théoriciens du droit, que l’ensemble des praticiens se désintéressent des pistes ouvertes par les technologies de l’information."

Relevância:

10.00% 10.00%

Publicador:

Resumo:

« Dissimuler » un trésor a toujours fasciné. Mais à l’heure actuelle, le trésor n’est plus toujours une caisse pleine de pierres précieuses ou d’or, il peut s’agir d’une simple information ou d’une donnée informatique importante que l’on souhaite cacher pour mieux la protéger. Avec le développement d’Internet, le domaine de la stéganographie, technique consistant à dissimuler une information pour la faire passer inaperçue, prend alors une nouvelle ampleur : il est désormais facile de dissimuler un fichier qui n’est qu’une goutte d’eau dans un océan informationnel. Si cette possibilité ouvre de nouvelles perspectives en termes de sécurité de l’information (car si personne ne sait qu’il y a un message secret, personne ne cherchera à le regarder ou le récupérer…), sa couverture sur le plan juridique n’est encore qu’embryonnaire. Dans la première partie, après avoir présenté les principes de la stéganographie informatique, nous montrerons combien un tel procédé est complémentaire et s’accorde bien avec la cryptographie, et le mettrons en perspective avec d’autres techniques voisines de dissimulation d’information (tatouage et empreinte digitale). Nous illustrerons finalement quelques pratiques de stéganographie appliquée à deux catégories de données numériques, l’image et le texte. Dans la seconde partie, nous plaçant résolument sur le plan juridique, nous tenterons tout d’abord de voir si la stéganographie peut faire partie des mesures techniques de protection que doit mettre en place un responsable de système d’information au titre de l’obligation de sécurité informationnelle. Ensuite, après avoir constaté que certains usages déviants de la stéganographie pouvaient impacter la sécurité publique, nous nous interrogerons sur ses répercussions, compte tenu des exigences d’accessibilité et d’intégrité de l’information.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

"L’article a pour objectif d’analyser les relations complexes qu’entretiennent politique et droit dans un contexte d’instabilité institutionnelle marqué, à savoir le cas de la Belgique fédérale. L’objectif est de montrer que, s’il est avéré que l’emprise du droit sur le champ politique se développe et que le cas belge peut l’exemplifier, la relation entre les deux sphères ne peut être caractérisée de linaire. La Belgique connaît depuis quatre décennies des transformations institutionnelles majeures. Mais le réformisme s’étend au-delà de la sphère constitutionnelle pour toucher des domaines très divers. Les multiples variations qu’a connues le droit électoral belge ces dernières années en sont l’illustration. Le contexte belge est donc celui d’un réformisme croissant. L’accent sera cependant davantage mis sur l’impact que ce réformisme peut avoir sur les relations qu’entretiennent droit et politique. Il semblerait au premier abord que ce contexte favorise l’extension de la sphère du droit au détriment de la sphère politique. Néanmoins, deux constats viennent nuancer cette idée. D’un côté, la fuite en avant dans les matières institutionnelles découle en réalité de la polarisation du paysage politique sur le clivage linguistique. Ces développements institutionnels sont essentiellement initiés par la sphère politique elle-même, qui tente d’adapter la structure de l’Etat à une nouvelle réalité politique. D’un autre côté, le fédéralisme consociatif génère un certain nombre de difficultés de gestion. Afin de pouvoir proposer une solution qui attirerait l’approbation des deux segments linguistiques, le politique est de plus en plus régulièrement amené à passer outre certains garde-fous juridiques. Cette mainmise du politique sur le droit semble parfois contagieuse ; celle-ci s’étend alors à des domaines moins déterminants que les domaines institutionnels. La contagion réformiste génère le développement de l’expérimentation et de l’incertitude juridiques. L’ensemble de ces arguments nous amènera à proposer une vision nuancée des rapports qu’entretiennent droit et politique en Belgique fédérale."

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La notion de vie privée, et plus précisément le droit à la protection des renseignements personnels, est reconnue aussi bien dans les textes provinciaux, régionaux, nationaux et internationaux, que dans les politiques mises en place par les sites Web. Il est admis que toutes informations identifiant ou permettant d’identifier une personne peut porter atteinte à sa vie privée, à savoir son nom, prénom, numéro de téléphone, de carte bancaire, de sécurité sociale, ou encore ses adresses électronique et Internet. Cette protection, admise dans le monde réel, doit aussi exister sur les inforoutes, étant entendu que « l ’informatique (…) ne doit porter atteinte ni à l ’identité humaine, ni aux droits de l ’homme, ni à la vie privée, ni aux libertés individuelles ou publiques » (art. 1er de la Loi française dite « Informatique et Libertés » du 6 janvier 1978). Ce principe étant admis, il est pertinent de s’interroger sur les moyens envisagés pour parvenir à le réaliser. Faut-il avoir recours à la réglementation étatique, à l’autoréglementation ou à la corégulation ? Cette dernière notion « n’est pas à proprement parler une nouvelle forme de régulation », mais elle préconise une collaboration entre les acteurs du secteur public et privé. L’idée de partenariat semble retenir l’attention du gouvernement français dans sa mission d’adaptation du cadre législatif à la société de l’information, comme nous le montre le rapport Du droit et des libertés sur l’Internet remis dernièrement au Premier ministre. Par conséquent, cet article a pour objectif de dresser un tableau de la législation française, et de ses multiples rapports, applicables à la protection de la vie privée et, plus particulièrement, aux données personnelles sur le réseau des réseaux. En prenant en considération les solutions étatiques et non étatiques retenues depuis ces deux dernières décennies, nous envisagerons une étude de l’avant-projet de loi du Gouvernement visant à transposer en droit interne la Directive européenne du 24 octobre 1995 relative à la protection des données personnelles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Réalisé en cotutelle avec l'Université de la Sorbonne - Paris IV

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire étudie l'algorithme d'amplification de l'amplitude et ses applications dans le domaine de test de propriété. On utilise l'amplification de l'amplitude pour proposer le plus efficace algorithme quantique à ce jour qui teste la linéarité de fonctions booléennes et on généralise notre nouvel algorithme pour tester si une fonction entre deux groupes abéliens finis est un homomorphisme. Le meilleur algorithme quantique connu qui teste la symétrie de fonctions booléennes est aussi amélioré et l'on utilise ce nouvel algorithme pour tester la quasi-symétrie de fonctions booléennes. Par la suite, on approfondit l'étude du nombre de requêtes à la boîte noire que fait l'algorithme d'amplification de l'amplitude pour amplitude initiale inconnue. Une description rigoureuse de la variable aléatoire représentant ce nombre est présentée, suivie du résultat précédemment connue de la borne supérieure sur l'espérance. Suivent de nouveaux résultats sur la variance de cette variable. Il est notamment montré que, dans le cas général, la variance est infinie, mais nous montrons aussi que, pour un choix approprié de paramètres, elle devient bornée supérieurement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Parmi les méthodes d’estimation de paramètres de loi de probabilité en statistique, le maximum de vraisemblance est une des techniques les plus populaires, comme, sous des conditions l´egères, les estimateurs ainsi produits sont consistants et asymptotiquement efficaces. Les problèmes de maximum de vraisemblance peuvent être traités comme des problèmes de programmation non linéaires, éventuellement non convexe, pour lesquels deux grandes classes de méthodes de résolution sont les techniques de région de confiance et les méthodes de recherche linéaire. En outre, il est possible d’exploiter la structure de ces problèmes pour tenter d’accélerer la convergence de ces méthodes, sous certaines hypothèses. Dans ce travail, nous revisitons certaines approches classiques ou récemment d´eveloppées en optimisation non linéaire, dans le contexte particulier de l’estimation de maximum de vraisemblance. Nous développons également de nouveaux algorithmes pour résoudre ce problème, reconsidérant différentes techniques d’approximation de hessiens, et proposons de nouvelles méthodes de calcul de pas, en particulier dans le cadre des algorithmes de recherche linéaire. Il s’agit notamment d’algorithmes nous permettant de changer d’approximation de hessien et d’adapter la longueur du pas dans une direction de recherche fixée. Finalement, nous évaluons l’efficacité numérique des méthodes proposées dans le cadre de l’estimation de modèles de choix discrets, en particulier les modèles logit mélangés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire s'inscrit dans le domaine de la vision par ordinateur. Elle s'intéresse à la calibration de systèmes de caméras stéréoscopiques, à la mise en correspondance caméra-projecteur, à la reconstruction 3D, à l'alignement photométrique de projecteurs, au maillage de nuages de points, ainsi qu'au paramétrage de surfaces. Réalisé dans le cadre du projet LightTwist du laboratoire Vision3D, elle vise à permettre la projection sur grandes surfaces arbitraires à l'aide de plusieurs projecteurs. Ce genre de projection est souvent utilisé en arts technologiques, en théâtre et en projection architecturale. Dans ce mémoire, on procède au calibrage des caméras, suivi d'une reconstruction 3D par morceaux basée sur une méthode active de mise en correspondance, la lumière non structurée. Après un alignement et un maillage automatisés, on dispose d'un modèle 3D complet de la surface de projection. Ce mémoire introduit ensuite une nouvelle approche pour le paramétrage de modèles 3D basée sur le calcul efficace de distances géodésiques sur des maillages. L'usager n'a qu'à délimiter manuellement le contour de la zone de projection sur le modèle. Le paramétrage final est calculé en utilisant les distances obtenues pour chaque point du modèle. Jusqu'à maintenant, les méthodes existante ne permettaient pas de paramétrer des modèles ayant plus d'un million de points.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les techniques de groupement technologique sont aujourd’hui utilisées dans de nombreux ateliers de fabrication; elles consistent à décomposer les systèmes industriels en sous-systèmes ou cellules constitués de pièces et de machines. Trouver le groupement technologique le plus efficace est formulé en recherche opérationnelle comme un problème de formation de cellules. La résolution de ce problème permet de tirer plusieurs avantages tels que la réduction des stocks et la simplification de la programmation. Plusieurs critères peuvent être définis au niveau des contraintes du problème tel que le flot intercellulaire,l’équilibrage de charges intracellulaires, les coûts de sous-traitance, les coûts de duplication des machines, etc. Le problème de formation de cellules est un problème d'optimisation NP-difficile. Par conséquent les méthodes exactes ne peuvent être utilisées pour résoudre des problèmes de grande dimension dans un délai raisonnable. Par contre des méthodes heuristiques peuvent générer des solutions de qualité inférieure, mais dans un temps d’exécution raisonnable. Dans ce mémoire, nous considérons ce problème dans un contexte bi-objectif spécifié en termes d’un facteur d’autonomie et de l’équilibre de charge entre les cellules. Nous présentons trois types de méthodes métaheuristiques pour sa résolution et nous comparons numériquement ces métaheuristiques. De plus, pour des problèmes de petite dimension qui peuvent être résolus de façon exacte avec CPLEX, nous vérifions que ces métaheuristiques génèrent des solutions optimales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Key agreement is a cryptographic scenario between two legitimate parties, who need to establish a common secret key over a public authenticated channel, and an eavesdropper who intercepts all their messages in order to learn the secret. We consider query complexity in which we count only the number of evaluations (queries) of a given black-box function, and classical communication channels. Ralph Merkle provided the first unclassified scheme for secure communications over insecure channels. When legitimate parties are willing to ask O(N) queries for some parameter N, any classical eavesdropper needs Omega(N^2) queries before being able to learn their secret, which is is optimal. However, a quantum eavesdropper can break this scheme in O(N) queries. Furthermore, it was conjectured that any scheme, in which legitimate parties are classical, could be broken in O(N) quantum queries. In this thesis, we introduce protocols à la Merkle that fall into two categories. When legitimate parties are restricted to use classical computers, we offer the first secure classical scheme. It requires Omega(N^{13/12}) queries of a quantum eavesdropper to learn the secret. We give another protocol having security of Omega(N^{7/6}) queries. Furthermore, for any k>= 2, we introduce a classical protocol in which legitimate parties establish a secret in O(N) queries while the optimal quantum eavesdropping strategy requires Theta(N^{1/2+k/{k+1}}) queries, approaching Theta(N^{3/2}) when k increases. When legitimate parties are provided with quantum computers, we present two quantum protocols improving on the best known scheme before this work. Furthermore, for any k>= 2, we give a quantum protocol in which legitimate parties establish a secret in O(N) queries while the optimal quantum eavesdropping strategy requires Theta(N^{1+{k}/{k+1}})} queries, approaching Theta(N^{2}) when k increases.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’étude de l’orientation mentale (OM), soit l’habileté des parents à concevoir et à traiter leur enfant comme un individu disposant d’une vie mentale autonome et active (Meins, 1997), a gagné en intérêt grâce à la démonstration de ses associations avec plusieurs sphères du développement de l’enfant, entre autres avec le style d’acquisition linguistique chez les enfants de 20 mois ainsi que le développement de la théorie de l’esprit chez les enfants d’âge préscolaire (p. ex., Meins & Fernyhough, 1999). En dépit de ces résultats, l’étude du développement du vocabulaire et des stades initiaux de la théorie de l’esprit chez les enfants a été négligée dans cette littérature. La présente thèse est composée de trois articles empiriques et vise à combler certaines lacunes de la littérature actuelle. Le premier article vise à examiner les liens longitudinaux entre l’OM maternelle et le vocabulaire expressif chez les enfants de 2 ans. Les deuxième et troisième articles ont pour but d’évaluer les relations longitudinales entre l’OM maternelle, la sécurité d’attachement des enfants et les toutes premières articulations de la théorie de l’esprit chez les enfants de 2 ans, puis 2 ans plus tard, avec la théorie de l’esprit chez les enfants de 4 ans. Les données des trois articles proviennent de cinq visites effectuées au domicile de 84 dyades mère-enfant. À 12 mois, l’OM maternelle a été mesurée lors de jeux libres mère-enfant à l’aide du système de codification de Meins et al. (2001). À 15 mois, la sécurité d’attachement de l’enfant a été mesurée par un observateur avec le Q-Sort d’attachement (Waters & Deane, 1985). À 2 ans, les mères ont évalué le langage de leur enfant à l’aide des inventaires MacArthur du développement de la communication (Dionne, Tremblay, Boivin, Laplante, & Pérusse, 2003). Finalement, la théorie de l’esprit de l’enfant a été mesurée à 2 et 4 ans à l’aide de diverses tâches expérimentales (Carlson, Mandell, & Williams, 2004). Les résultats du premier article indiquent que l’OM maternelle est associée au développement du vocabulaire expressif des enfants de 2 ans. Les résultats des deuxième et troisième articles indiquent que la compréhension des enfants de 2 et 4 ans aux tâches de théorie de l’esprit est associée à l’OM maternelle. De plus, ces deux articles ont démontré que les garçons, mais pas les filles, présentant des comportements d’attachement davantage sécures ont obtenu de meilleures performances à une tâche demandant la compréhension des perspectives visuelles de leur mère à 2 ans et de celles d’une étrangère à 4 ans. En conclusion, les résultats de la thèse suggèrent que l’utilisation que les mères font de commentaires mentaux à 12 mois semble favoriser l’acquisition de mots dans le vocabulaire expressif de leur enfant à 2 ans ainsi que le développement d’une meilleure compréhension aux tâches de théorie de l’esprit à 2 et 4 ans.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse de doctorat a été réalisée en cotutelle internationale entre l'Université de Montréal (Canada) et l'Université Sorbonne Nouvelle Paris 3 (France).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette étude s’intéresse à l’évolution formelle du jeu d’aventure de 1976 à 1999. Elle se propose de mieux comprendre les facteurs historiques contribuant à l’apparition du genre, son institution et ses transformations. La recherche est fondée sur l’analyse du discours de la presse spécialisée en jeux d’ordinateur et d’un corpus étendu d’œuvres. L’une des thèses proposées est que l’identité générique du jeu d’aventure est fondée sur une expérience vidéoludique demeurant relativement constante malgré des variations importantes de formes. Cette expérience est assurée par la reproduction des principaux éléments d’une architecture générale de design de jeu inaugurée par Adventure en 1977. Les variations formelles ponctuelles résultent d’une négociation entre la volonté de s’adapter aux changements de contexte de l’écologie du jeu d’ordinateur et la résistance d’une architecture ludique établie. La pertinence d’une histoire d’un genre vidéoludique est justifiée au premier chapitre en fonction de l’état actuel des connaissances sur l’histoire du jeu vidéo et du jeu d’aventure. On y précise également le cadre théorique, la méthodologie et les sources étudiées. Le deuxième chapitre s’intéresse à la genèse d’Adventure de Crowther et Woods (1976; 1977) en fonction des diverses pratiques culturelles dans lesquelles l’œuvre s’inscrit. Cette analyse permet d’en dégager l’architecture ludique. Le troisième chapitre porte sur le « tournant narratif » du jeu d’aventure ayant lieu au début des années 1980. On y décrit différents facteurs historiques poussant le genre vers l’enchâssement d’histoires pré-écrites afin d’en faire un véhicule narratif. Le quatrième chapitre décrit le contexte du « tournant graphique », passage du jeu d’aventure d’une représentation textuelle à un régime visuel, ainsi que ses conséquences expérientielles. Le « tournant ergonomique » décrit au cinquième chapitre traite de l’apparition du modèle « pointer et cliquer » en fonction des avancées des connaissances concernant les interactions humain-machine ainsi que de la maturation du design de jeu comme pratique autonome. Le dernier chapitre relate l’apogée du jeu d’aventure au début de la révolution multimédia sous ses formes de film interactif et « Myst-like » puis du ralentissement – voire de l’arrêt – de son évolution formelle.