143 resultados para Caractérisationi des objets logiques


Relevância:

100.00% 100.00%

Publicador:

Resumo:

clRNG et clProbdist sont deux interfaces de programmation (APIs) que nous avons développées pour la génération de nombres aléatoires uniformes et non uniformes sur des dispositifs de calculs parallèles en utilisant l’environnement OpenCL. La première interface permet de créer au niveau d’un ordinateur central (hôte) des objets de type stream considérés comme des générateurs virtuels parallèles qui peuvent être utilisés aussi bien sur l’hôte que sur les dispositifs parallèles (unités de traitement graphique, CPU multinoyaux, etc.) pour la génération de séquences de nombres aléatoires. La seconde interface permet aussi de générer au niveau de ces unités des variables aléatoires selon différentes lois de probabilité continues et discrètes. Dans ce mémoire, nous allons rappeler des notions de base sur les générateurs de nombres aléatoires, décrire les systèmes hétérogènes ainsi que les techniques de génération parallèle de nombres aléatoires. Nous présenterons aussi les différents modèles composant l’architecture de l’environnement OpenCL et détaillerons les structures des APIs développées. Nous distinguons pour clRNG les fonctions qui permettent la création des streams, les fonctions qui génèrent les variables aléatoires uniformes ainsi que celles qui manipulent les états des streams. clProbDist contient les fonctions de génération de variables aléatoires non uniformes selon la technique d’inversion ainsi que les fonctions qui permettent de retourner différentes statistiques des lois de distribution implémentées. Nous évaluerons ces interfaces de programmation avec deux simulations qui implémentent un exemple simplifié d’un modèle d’inventaire et un exemple d’une option financière. Enfin, nous fournirons les résultats d’expérimentation sur les performances des générateurs implémentés.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

« Pour respecter les droits d'auteur, la version électronique de ce mémoire a été dépouillée de certains documents visuels et audio-visuels. La version intégrale du mémoire a été déposée au Service de la gestion des documents et des archives de l'Université de Montréal ».

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This article attempts to analyze the definition of "electronic literature" as given by the Electronic Literature Organization and to understand the relationship between electronic literature and digital literature. The thesis defended here is that this change of adjective hides a change in the theoretical status of the object that it attempts to define. The definition of electronic literature once concentrated on the tools used in the production of literary works and the critical analysis concentrating on the objects produced with the aid of new technologies. The move to the adjective "digital" marks a change in perception: now, from this perspective, the challenge is no longer to study works produced thanks to computers, but to understand the new status of literature in the age of the digital. To demonstrate this thesis, the article proposes to analyze one recent literary example: the 1984 trilogy by Eric Plamondon.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les langages de programmation typés dynamiquement tels que JavaScript et Python repoussent la vérification de typage jusqu’au moment de l’exécution. Afin d’optimiser la performance de ces langages, les implémentations de machines virtuelles pour langages dynamiques doivent tenter d’éliminer les tests de typage dynamiques redondants. Cela se fait habituellement en utilisant une analyse d’inférence de types. Cependant, les analyses de ce genre sont souvent coûteuses et impliquent des compromis entre le temps de compilation et la précision des résultats obtenus. Ceci a conduit à la conception d’architectures de VM de plus en plus complexes. Nous proposons le versionnement paresseux de blocs de base, une technique de compilation à la volée simple qui élimine efficacement les tests de typage dynamiques redondants sur les chemins d’exécution critiques. Cette nouvelle approche génère paresseusement des versions spécialisées des blocs de base tout en propageant de l’information de typage contextualisée. Notre technique ne nécessite pas l’utilisation d’analyses de programme coûteuses, n’est pas contrainte par les limitations de précision des analyses d’inférence de types traditionnelles et évite la complexité des techniques d’optimisation spéculatives. Trois extensions sont apportées au versionnement de blocs de base afin de lui donner des capacités d’optimisation interprocédurale. Une première extension lui donne la possibilité de joindre des informations de typage aux propriétés des objets et aux variables globales. Puis, la spécialisation de points d’entrée lui permet de passer de l’information de typage des fonctions appellantes aux fonctions appellées. Finalement, la spécialisation des continuations d’appels permet de transmettre le type des valeurs de retour des fonctions appellées aux appellants sans coût dynamique. Nous démontrons empiriquement que ces extensions permettent au versionnement de blocs de base d’éliminer plus de tests de typage dynamiques que toute analyse d’inférence de typage statique.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Thèse réalisée en cotutelle avec l'université Paris1-Sorbonne

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cet article a pour objectif de déceler chez Kant, et plus précisément dans la Critique de la raison pure, une théorie d’altérité. Nous partons de ce que Kant nomme lui-même le « paradoxe » du sens interne, à savoir que le sujet vit son activité de pensée de manière passive, comme tout autre phénomène. C’est dire que le sujet se reçoit comme une intuition et il en est affecté, de même qu’il l’est par l’intuition des objets à l’extérieur de lui. Or si cette structure se présente comme en effet une structure d’altérité où le sujet vit son activité comme celle d’un autre, il nous faut encore tenir compte des remarques de Kant (notamment dans la seconde édition) où le sujet est présenté comme ayant un rapport direct (et donc préphénoménal) à soi. C’est à partir de cette tension interne au texte de la Critique que nous tenterons d’esquisser une théorie d’altérité. Nous voulons montrer que l’aperception pure est douée d’une forme de négativité qui rendra impossible toute immédiateté dans le rapport à soi.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Au lendemain de l’adoption de la sphère de sécurité (ou Safe Harbor Principles) entre l’Union européenne et les États-Unis, il convient de revenir sur les principes mis de l’avant, après une longue période de discussion, pour encadrer le traitement des renseignements personnels entre ces deux systèmes juridiques. Ce rappel permettra de mieux mesurer la portée de ladite sphère de sécurité face aux logiques territoriales de protection des renseignements personnels et à l’absence d’homogénéité de celles-ci.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Notre étude est bipartite. En premier lieu nous avons effectué une étude empirique des différences entre les processus de catégorisation explicite (verbalisable) et implicite (non-verbalisable). Nous avons examiné la difficulté et le temps nécessaire pour apprendre trois tâches de catégorisation dites par air de famille, par règle logique conjonctive et par règle logique disjonctive. Nous avons ensuite utilisé un réseau neuronal pour modéliser la catégorisation en lui faisant compléter les mêmes tâches. La comparaison entre les deux nous permet de juger de l’adéquation du modèle. Les données empiriques ont montré un effet de la typicité et de la familiarité en accord avec la documentation et nous trouvons que la tâche de catégorisation par règle disjonctive est la plus difficile alors que la tâche de catégorisation par air de famille est la plus facile. La modélisation par le réseau est une réussite partielle mais nous présentons des solutions afin qu’un réseau futur puisse modéliser le processus catégoriel humain efficacement

Relevância:

40.00% 40.00%

Publicador:

Resumo:

L’objet de ce mémoire est de comprendre les logiques de localisation des entreprises multinationales au Québec. À l’aide de deux études de cas, basées sur cinq investissements, nous avons examiné les facteurs qui ont permis à deux filiales d’entreprises multinationales étrangères d’obtenir un investissement ou un réinvestissement. La littérature sur la localisation des entreprises multinationales à l’étranger nous a aidé à identifier trois types d’attributs qui sont susceptibles d’influencer l‘obtention d’un investissement par la filiale locale : les attributs internes à la filiale, les attributs liés à la relation qu’entretient la filiale avec son siège social et les attributs liés aux contextes d’affaires dans lesquels la filiale exerce son activité. Nos résultats permettent d’établir plusieurs constats. Premièrement, les facteurs pris en compte dans les décisions d’investissement varient selon les échelles internationales, nationales, provinciales et locales. Les sièges sociaux des entreprises multinationales procèdent à une sélection successive de facteurs dans la perspective d’arriver à un meilleur compromis. Par conséquent, un facteur ne peut à lui seul expliquer un investissement. Le poids et la diversité des facteurs peuvent varier en fonction des situations. Deuxièmement, la complémentarité des attributs internes de la filiale avec son contexte d’affaires local a fortement contribué à l’obtention d’investissements. La technologie de production, les compétences des employés ainsi que la capacité de la direction locale à promouvoir les atouts de la filiale auprès des comités d’investissement représentent des éléments clés. La présence d’institutions locales fortes et coordonnées est également à prendre en compte dans le soutien apporté au développement de la filiale.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Au lendemain de l’adoption de la sphère de sécurité (ou Safe Harbor Principles) entre l’Union européenne et les États-Unis, il convient de revenir sur les principes mis de l’avant, après une longue période de discussion, pour encadrer le traitement des renseignements personnels entre ces deux systèmes juridiques. Ce rappel permettra de mieux mesurer la portée de ladite sphère de sécurité face aux logiques territoriales de protection des renseignements personnels et à l’absence d’homogénéité de celles-ci.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Compte-rendu / Review

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Lors du 30è Congrès de l’Institut international de droit d’expression et d’inspiration françaises (IDEF), Le Caire, 16 au 18 décembre 2006, Pierre TRUDEL a présenté un rapport intitulé « L’encadrement normatif des technologies : une gestion réseautique des risques ». Cynthia Chassigneux, chercheure post-doctorale au CRDP a présenté un rapport sur le droit de la protection des données personnelles et de la vie privée dans le contexte de la généralisation des technologies de l’information. Jacques Frémont a prononcé le discours de présentation de la problématique générale du congrès.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les employés d’un organisme utilisent souvent un schéma de classification personnel pour organiser les documents électroniques qui sont sous leur contrôle direct, ce qui suggère la difficulté pour d’autres employés de repérer ces documents et la perte possible de documentation pour l’organisme. Aucune étude empirique n’a été menée à ce jour afin de vérifier dans quelle mesure les schémas de classification personnels permettent, ou même facilitent, le repérage des documents électroniques par des tiers, dans le cadre d’un travail collaboratif par exemple, ou lorsqu’il s’agit de reconstituer un dossier. Le premier objectif de notre recherche était de décrire les caractéristiques de schémas de classification personnels utilisés pour organiser et classer des documents administratifs électroniques. Le deuxième objectif consistait à vérifier, dans un environnement contrôlé, les différences sur le plan de l’efficacité du repérage de documents électroniques qui sont fonction du schéma de classification utilisé. Nous voulions vérifier s’il était possible de repérer un document avec la même efficacité, quel que soit le schéma de classification utilisé pour ce faire. Une collecte de données en deux étapes fut réalisée pour atteindre ces objectifs. Nous avons d’abord identifié les caractéristiques structurelles, logiques et sémantiques de 21 schémas de classification utilisés par des employés de l’Université de Montréal pour organiser et classer les documents électroniques qui sont sous leur contrôle direct. Par la suite, nous avons comparé, à partir d'une expérimentation contrôlée, la capacité d’un groupe de 70 répondants à repérer des documents électroniques à l’aide de cinq schémas de classification ayant des caractéristiques structurelles, logiques et sémantiques variées. Trois variables ont été utilisées pour mesurer l’efficacité du repérage : la proportion de documents repérés, le temps moyen requis (en secondes) pour repérer les documents et la proportion de documents repérés dès le premier essai. Les résultats révèlent plusieurs caractéristiques structurelles, logiques et sémantiques communes à une majorité de schémas de classification personnels : macro-structure étendue, structure peu profonde, complexe et déséquilibrée, regroupement par thème, ordre alphabétique des classes, etc. Les résultats des tests d’analyse de la variance révèlent des différences significatives sur le plan de l’efficacité du repérage de documents électroniques qui sont fonction des caractéristiques structurelles, logiques et sémantiques du schéma de classification utilisé. Un schéma de classification caractérisé par une macro-structure peu étendue et une logique basée partiellement sur une division par classes d’activités augmente la probabilité de repérer plus rapidement les documents. Au plan sémantique, une dénomination explicite des classes (par exemple, par utilisation de définitions ou en évitant acronymes et abréviations) augmente la probabilité de succès au repérage. Enfin, un schéma de classification caractérisé par une macro-structure peu étendue, une logique basée partiellement sur une division par classes d’activités et une sémantique qui utilise peu d’abréviations augmente la probabilité de repérer les documents dès le premier essai.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

"Thèse présentée à la Faculté des études supérieures en vue de l'obtention du grade de docteur en droit (LL.D.)". Cette thèse a été acceptée à l'unanimité et classée parmi les 10% des thèses de la discipline.