987 resultados para SLA-Technologie


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans une société mondialisée, où les relations sont intégrées à une vitesse différente avec l'utilisation des technologies de l'information et des communications, l'accès à la justice gagne de nouveaux concepts, mais elle est encore confrontée à de vieux obstacles. La crise mondiale de l'accès à la justice dans le système judiciaire provoque des débats concernant l'égalité en vertu de la loi, la capacité des individus, la connaissance des droits, l'aide juridique, les coûts et les délais. Les deux derniers ont été les facteurs les plus importants du mécontentement des individus avec le système judiciaire. La présente étude a pour objet d'analyser l'incidence de l'utilisation de la technologie dans l’appareil judiciaire, avec l'accent sur la réalité brésilienne, la voie législative et des expériences antérieures dans le développement de logiciels de cyberjustice. La mise en œuvre de ces instruments innovants exige des investissements et de la planification, avec une attention particulière sur l'incidence qu'ils peuvent avoir sur les routines traditionnelles des tribunaux. De nouveaux défis sont sur la voie de ce processus de transformation et doivent être traités avec professionnalisme afin d'éviter l'échec de projets de qualité. En outre, si la technologie peut faire partie des différents aspects de notre quotidien et l'utilisation de modes alternatifs de résolution des conflits en ligne sont considérés comme un succès, pourquoi serait-il difficile de faire ce changement dans la prestation de la justice par le système judiciaire? Des solutions technologiques adoptées dans d'autres pays ne sont pas facilement transférables à un environnement culturel différent, mais il y a toujours la possibilité d'apprendre des expériences des autres et d’éviter de mauvaises voies qui pourraient compromettre la définition globale de l'accès à la justice.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le domaine biomédical est probablement le domaine où il y a les ressources les plus riches. Dans ces ressources, on regroupe les différentes expressions exprimant un concept, et définit des relations entre les concepts. Ces ressources sont construites pour faciliter l’accès aux informations dans le domaine. On pense généralement que ces ressources sont utiles pour la recherche d’information biomédicale. Or, les résultats obtenus jusqu’à présent sont mitigés : dans certaines études, l’utilisation des concepts a pu augmenter la performance de recherche, mais dans d’autres études, on a plutôt observé des baisses de performance. Cependant, ces résultats restent difficilement comparables étant donné qu’ils ont été obtenus sur des collections différentes. Il reste encore une question ouverte si et comment ces ressources peuvent aider à améliorer la recherche d’information biomédicale. Dans ce mémoire, nous comparons les différentes approches basées sur des concepts dans un même cadre, notamment l’approche utilisant les identificateurs de concept comme unité de représentation, et l’approche utilisant des expressions synonymes pour étendre la requête initiale. En comparaison avec l’approche traditionnelle de "sac de mots", nos résultats d’expérimentation montrent que la première approche dégrade toujours la performance, mais la seconde approche peut améliorer la performance. En particulier, en appariant les expressions de concepts comme des syntagmes stricts ou flexibles, certaines méthodes peuvent apporter des améliorations significatives non seulement par rapport à la méthode de "sac de mots" de base, mais aussi par rapport à la méthode de Champ Aléatoire Markov (Markov Random Field) qui est une méthode de l’état de l’art dans le domaine. Ces résultats montrent que quand les concepts sont utilisés de façon appropriée, ils peuvent grandement contribuer à améliorer la performance de recherche d’information biomédicale. Nous avons participé au laboratoire d’évaluation ShARe/CLEF 2014 eHealth. Notre résultat était le meilleur parmi tous les systèmes participants.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Une étude récente auprès de 302 mathématiciens canadiens révèle un écart intriguant : tandis que 43% des sondés utilisent la programmation informatique dans leur recherche, seulement 18% indiquent qu'ils emploient cette technologie dans leur enseignement (Buteau et coll., 2014). La première donnée reflète le potentiel énorme qu'a la programmation pour faire et apprendre des mathématiques. La deuxième donnée a inspiré ce mémoire : pourquoi existe-t-il un tel écart ? Pour répondre à cette question, nous avons mené une étude exploratoire qui cherche à mieux comprendre la place de la programmation dans la recherche et la formation en mathématiques au niveau universitaire. Des entrevues semi-dirigées ont été conduites avec 14 mathématiciens travaillant dans des domaines variés et à différentes universités à travers le pays. Notre analyse qualitative nous permet de décrire les façons dont ces mathématiciens construisent des programmes informatiques afin d'accomplir plusieurs tâches (p.e., simuler des phénomènes réels, faire des mathématiques « expérimentales », développer de nouveaux outils puissants). Elle nous permet également d'identifier des moments où les mathématiciens exposent leurs étudiants à certains éléments de ces pratiques en recherche. Nous notons toutefois que les étudiants sont rarement invités à concevoir et à écrire leurs propres programmes. Enfin, nos participants évoquent plusieurs contraintes institutionnelles : le curriculum, la culture départementale, les ressources humaines, les traditions en mathématiques, etc. Quelques-unes de ces contraintes, qui semblent limiter l'expérience mathématique des étudiants de premier cycle, pourraient être revues.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La théorie de l'information quantique s'est développée à une vitesse fulgurante au cours des vingt dernières années, avec des analogues et extensions des théorèmes de codage de source et de codage sur canal bruité pour la communication unidirectionnelle. Pour la communication interactive, un analogue quantique de la complexité de la communication a été développé, pour lequel les protocoles quantiques peuvent performer exponentiellement mieux que les meilleurs protocoles classiques pour certaines tâches classiques. Cependant, l'information quantique est beaucoup plus sensible au bruit que l'information classique. Il est donc impératif d'utiliser les ressources quantiques à leur plein potentiel. Dans cette thèse, nous étudions les protocoles quantiques interactifs du point de vue de la théorie de l'information et étudions les analogues du codage de source et du codage sur canal bruité. Le cadre considéré est celui de la complexité de la communication: Alice et Bob veulent faire un calcul quantique biparti tout en minimisant la quantité de communication échangée, sans égard au coût des calculs locaux. Nos résultats sont séparés en trois chapitres distincts, qui sont organisés de sorte à ce que chacun puisse être lu indépendamment. Étant donné le rôle central qu'elle occupe dans le contexte de la compression interactive, un chapitre est dédié à l'étude de la tâche de la redistribution d'état quantique. Nous prouvons des bornes inférieures sur les coûts de communication nécessaires dans un contexte interactif. Nous prouvons également des bornes atteignables avec un seul message, dans un contexte d'usage unique. Dans un chapitre subséquent, nous définissons une nouvelle notion de complexité de l'information quantique. Celle-ci caractérise la quantité d'information, plutôt que de communication, qu'Alice et Bob doivent échanger pour calculer une tâche bipartie. Nous prouvons beaucoup de propriétés structurelles pour cette quantité, et nous lui donnons une interprétation opérationnelle en tant que complexité de la communication quantique amortie. Dans le cas particulier d'entrées classiques, nous donnons une autre caractérisation permettant de quantifier le coût encouru par un protocole quantique qui oublie de l'information classique. Deux applications sont présentées: le premier résultat général de somme directe pour la complexité de la communication quantique à plus d'une ronde, ainsi qu'une borne optimale, à un terme polylogarithmique près, pour la complexité de la communication quantique avec un nombre de rondes limité pour la fonction « ensembles disjoints ». Dans un chapitre final, nous initions l'étude de la capacité interactive quantique pour les canaux bruités. Étant donné que les techniques pour distribuer de l'intrication sont bien étudiées, nous nous concentrons sur un modèle avec intrication préalable parfaite et communication classique bruitée. Nous démontrons que dans le cadre plus ardu des erreurs adversarielles, nous pouvons tolérer un taux d'erreur maximal de une demie moins epsilon, avec epsilon plus grand que zéro arbitrairement petit, et ce avec un taux de communication positif. Il s'ensuit que les canaux avec bruit aléatoire ayant une capacité positive pour la transmission unidirectionnelle ont une capacité positive pour la communication interactive quantique. Nous concluons avec une discussion de nos résultats et des directions futures pour ce programme de recherche sur une théorie de l'information quantique interactive.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En cette ère de «nouvelle santé publique», les professionnels sont exhortés à détourner leur attention de l’individu afin de pouvoir mettre l’accent sur les déterminants sociaux de la santé. Un phénomène contraire s’opère dans le domaine des sciences biomédicales, où un mouvement vers la santé personnalisée permet d’envisager des soins préventifs et curatifs adaptés à chaque individu, en fonction de son profil de risque génétique. Bien qu’elles n’aient que partiellement fait leur entrée dans notre système de santé, ces avancées scientifiques risquent de changer significativement le visage de la prévention, et dans cette foulée, de susciter des débats de société importants. L'étude proposée vise à contribuer à une réflexion sur l'avenir d'une des fonctions essentielles de la santé publique en tentant de mieux comprendre comment le public perçoit la prévention basée sur le risque génétique. Ce projet de recherche qualitative consiste en l'analyse secondaire des échanges ayant eu lieu lors de quatre ateliers délibératifs auxquels ont participé des membres du public d'horizons divers, et durant lesquels ceux-ci ont débattu de la désirabilité d'une technologie préventive fictive, le «rectificateur cardiaque». La théorie de la structuration d'Anthony Giddens est utilisée comme cadre conceptuel guidant l’analyse des échanges. Celle-ci permet d’émettre les trois constats suivants: a- le « rectificateur cardiaque » est loin d’être interprété par tous les participants comme étant une intervention préventive; b- son utilisation est perçue comme étant légitime ou non dépendamment principalement des groupes de personnes qu’elle viserait; c- l’intervention proposée ne se pense pas hors contexte.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire a pour thèse que les fonctions devraient être transparentes lors de la phase de métaprogrammation. En effet, la métaprogrammation se veut une possibilité pour le programmeur d’étendre le compilateur. Or, dans un style de programmation fonctionnelle, la logique du programme se retrouve dans les définitions des diverses fonctions le composant. Puisque les fonctions sont généralement opaques, l’impossibilité d’accéder à cette logique limite les applications possibles de la phase de métaprogrammation. Nous allons illustrer les avantages que procurent les fonctions transparentes pour la métaprogrammation. Nous donnerons notamment l’exemple du calcul symbolique et un exemple de nouvelles optimisations désormais possibles. Nous illustrerons également que la transparence des fonctions permet de faire le pont entre les datatypes du programme et les fonctions. Nous allons également étudier ce qu'implique la présence de fonctions transparentes au sein d'un langage. Nous nous concentrerons sur les aspects reliés à l'implantation de ces dernières, aux performances et à la facilité d'utilisation. Nous illustrerons nos propos avec le langage Abitbol, un langage créé sur mesure pour la métaprogrammation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La modélisation géométrique est importante autant en infographie qu'en ingénierie. Notre capacité à représenter l'information géométrique fixe les limites et la facilité avec laquelle on manipule les objets 3D. Une de ces représentations géométriques est le maillage volumique, formé de polyèdres assemblés de sorte à approcher une forme désirée. Certaines applications, tels que le placage de textures et le remaillage, ont avantage à déformer le maillage vers un domaine plus régulier pour faciliter le traitement. On dit qu'une déformation est \emph{quasi-conforme} si elle borne la distorsion. Cette thèse porte sur l’étude et le développement d'algorithmes de déformation quasi-conforme de maillages volumiques. Nous étudions ces types de déformations parce qu’elles offrent de bonnes propriétés de préservation de l’aspect local d’un solide et qu’elles ont été peu étudiées dans le contexte de l’informatique graphique, contrairement à leurs pendants 2D. Cette recherche tente de généraliser aux volumes des concepts bien maitrisés pour la déformation de surfaces. Premièrement, nous présentons une approche linéaire de la quasi-conformité. Nous développons une méthode déformant l’objet vers son domaine paramétrique par une méthode des moindres carrés linéaires. Cette méthode est simple d'implémentation et rapide d'exécution, mais n'est qu'une approximation de la quasi-conformité car elle ne borne pas la distorsion. Deuxièmement, nous remédions à ce problème par une approche non linéaire basée sur les positions des sommets. Nous développons une technique déformant le domaine paramétrique vers le solide par une méthode des moindres carrés non linéaires. La non-linéarité permet l’inclusion de contraintes garantissant l’injectivité de la déformation. De plus, la déformation du domaine paramétrique au lieu de l’objet lui-même permet l’utilisation de domaines plus généraux. Troisièmement, nous présentons une approche non linéaire basée sur les angles dièdres. Cette méthode définit la déformation du solide par les angles dièdres au lieu des positions des sommets du maillage. Ce changement de variables permet une expression naturelle des bornes de distorsion de la déformation. Nous présentons quelques applications de cette nouvelle approche dont la paramétrisation, l'interpolation, l'optimisation et la compression de maillages tétraédriques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’époque où il n'existait qu'un choix restreint de modes de paiement est à présent révolue. En effet, de l'apparition de la monnaie fiduciaire aux trente glorieuses, ils n’avaient que très peu évolué. Or, depuis quelques décennies, nous assistons à l’apparition de nombreux moyens de paiement, tous plus différents les uns des autres. Notre présente étude a non seulement pour objectif d’en confronter les principaux en vue d’identifier le plus adéquat face à une situation donnée, mais aussi et surtout de discuter de l’anonymat que ces derniers procurent ou non. Pour ce faire, nous avons d’abord présenté chacun de ces moyens tout en en définissant les fonctionnements et les technologies. Par la suite, une comparaison par l'entremise d'une analyse indépendante a été réalisée sur la base d’éléments précis tels que la protection de la vie privée ou encore les propriétés ACID. Des critères omme la confiance des utilisateurs (sécurité) et les attentes qu'ont les institutions financières vis-à-vis de ces derniers ont aussi été considérés. Et enfin, trois méthodes de paiement qui sont en réalité des approches-solutions pour pallier aux problèmes liés à l’anonymat que présentent certains principaux moyens de paiement connus, ont été présentées à leur tour. Ainsi, le premier système de paiement proposé est axé sur les comptes bancaires anonymes, tandis que le second est, lui inspiré du système des jetons; Si bien qu’une combinaison de ces deux approches a conduit à une troisième, afin d’en regrouper les avantages.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire s'intéresse à la reconstruction d'un modèle 3D à partir de plusieurs images. Le modèle 3D est élaboré avec une représentation hiérarchique de voxels sous la forme d'un octree. Un cube englobant le modèle 3D est calculé à partir de la position des caméras. Ce cube contient les voxels et il définit la position de caméras virtuelles. Le modèle 3D est initialisé par une enveloppe convexe basée sur la couleur uniforme du fond des images. Cette enveloppe permet de creuser la périphérie du modèle 3D. Ensuite un coût pondéré est calculé pour évaluer la qualité de chaque voxel à faire partie de la surface de l'objet. Ce coût tient compte de la similarité des pixels provenant de chaque image associée à la caméra virtuelle. Finalement et pour chacune des caméras virtuelles, une surface est calculée basée sur le coût en utilisant la méthode de SGM. La méthode SGM tient compte du voisinage lors du calcul de profondeur et ce mémoire présente une variation de la méthode pour tenir compte des voxels précédemment exclus du modèle par l'étape d'initialisation ou de creusage par une autre surface. Par la suite, les surfaces calculées sont utilisées pour creuser et finaliser le modèle 3D. Ce mémoire présente une combinaison innovante d'étapes permettant de créer un modèle 3D basé sur un ensemble d'images existant ou encore sur une suite d'images capturées en série pouvant mener à la création d'un modèle 3D en temps réel.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le problème d'allocation de postes d'amarrage (PAPA) est l'un des principaux problèmes de décision aux terminaux portuaires qui a été largement étudié. Dans des recherches antérieures, le PAPA a été reformulé comme étant un problème de partitionnement généralisé (PPG) et résolu en utilisant un solveur standard. Les affectations (colonnes) ont été générées a priori de manière statique et fournies comme entrée au modèle %d'optimisation. Cette méthode est capable de fournir une solution optimale au problème pour des instances de tailles moyennes. Cependant, son inconvénient principal est l'explosion du nombre d'affectations avec l'augmentation de la taille du problème, qui fait en sorte que le solveur d'optimisation se trouve à court de mémoire. Dans ce mémoire, nous nous intéressons aux limites de la reformulation PPG. Nous présentons un cadre de génération de colonnes où les affectations sont générées de manière dynamique pour résoudre les grandes instances du PAPA. Nous proposons un algorithme de génération de colonnes qui peut être facilement adapté pour résoudre toutes les variantes du PAPA en se basant sur différents attributs spatiaux et temporels. Nous avons testé notre méthode sur un modèle d'allocation dans lequel les postes d'amarrage sont considérés discrets, l'arrivée des navires est dynamique et finalement les temps de manutention dépendent des postes d'amarrage où les bateaux vont être amarrés. Les résultats expérimentaux des tests sur un ensemble d'instances artificielles indiquent que la méthode proposée permet de fournir une solution optimale ou proche de l'optimalité même pour des problème de très grandes tailles en seulement quelques minutes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans ce mémoire, nous examinons certaines propriétés des représentations distribuées de mots et nous proposons une technique pour élargir le vocabulaire des systèmes de traduction automatique neurale. En premier lieu, nous considérons un problème de résolution d'analogies bien connu et examinons l'effet de poids adaptés à la position, le choix de la fonction de combinaison et l'impact de l'apprentissage supervisé. Nous enchaînons en montrant que des représentations distribuées simples basées sur la traduction peuvent atteindre ou dépasser l'état de l'art sur le test de détection de synonymes TOEFL et sur le récent étalon-or SimLex-999. Finalament, motivé par d'impressionnants résultats obtenus avec des représentations distribuées issues de systèmes de traduction neurale à petit vocabulaire (30 000 mots), nous présentons une approche compatible à l'utilisation de cartes graphiques pour augmenter la taille du vocabulaire par plus d'un ordre de magnitude. Bien qu'originalement développée seulement pour obtenir les représentations distribuées, nous montrons que cette technique fonctionne plutôt bien sur des tâches de traduction, en particulier de l'anglais vers le français (WMT'14).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les cyanobactéries ont une place très importante dans les écosystèmes aquatiques et un nombre important d’espèces considéré comme nuisible de par leur production de métabolites toxiques. Ces cyanotoxines possèdent des propriétés très variées et ont souvent été associées à des épisodes d’empoisonnement. L’augmentation des épisodes d’efflorescence d’origine cyanobactériennes et le potentiel qu’ils augmentent avec les changements climatiques a renchéri l’intérêt de l’étude des cyanobactéries et de leurs toxines. Considérant la complexité chimique des cyanotoxines, le développement de méthodes de détection simples, sensibles et rapides est toujours considéré comme étant un défi analytique. Considérant ces défis, le développement de nouvelles approches analytiques pour la détection de cyanotoxines dans l’eau et les poissons ayant été contaminés par des efflorescences cyanobactériennes nuisibles a été proposé. Une première approche consiste en l’utilisation d’une extraction sur phase solide en ligne couplée à une chromatographie liquide et à une détection en spectrométrie de masse en tandem (SPE-LC-MS/MS) permettant l’analyse de six analogues de microcystines (MC), de l’anatoxine (ANA-a) et de la cylindrospermopsine (CYN). La méthode permet une analyse simple et rapide et ainsi que la séparation chromatographique d’ANA-a et de son interférence isobare, la phénylalanine. Les limites de détection obtenues se trouvaient entre 0,01 et 0,02 μg L-1 et des concentrations retrouvées dans des eaux de lacs du Québec se trouvaient entre 0,024 et 36 μg L-1. Une deuxième méthode a permis l’analyse du b-N-méthylamino-L-alanine (BMAA), d’ANA-a, de CYN et de la saxitoxine (STX) dans les eaux de lac contaminés. L’analyse de deux isomères de conformation du BMAA a été effectuée afin d’améliorer la sélectivité de la détection. L’utilisation d’une SPE manuelle permet la purification et préconcentration des échantillons et une dérivatisation à base de chlorure de dansyle permet une chromatographie simplifiée. L’analyse effectuée par LC couplée à la spectrométrie de masse à haute résolution (HRMS) et des limites de détections ont été obtenues entre 0,007 et 0,01 µg L-1. Des échantillons réels ont été analysés avec des concentrations entre 0,01 et 0,3 µg L-1 permettant ainsi la confirmation de la présence du BMAA dans les efflorescences de cyanobactéries au Québec. Un deuxième volet du projet consiste en l’utilisation d’une technologie d’introduction d’échantillon permettant des analyses ultra-rapides (< 15 secondes/échantillons) sans étape chromatographique, la désorption thermique à diode laser (LDTD) couplée à l’ionisation chimique à pression atmosphérique (APCI) et à la spectrométrie de masse (MS). Un premier projet consiste en l’analyse des MC totales par l’intermédiaire d’une oxydation de Lemieux permettant un bris de la molécule et obtenant une fraction commune aux multiples congénères existants des MC. Cette fraction, le MMPB, est analysée, après une extraction liquide-liquide, par LDTD-APCI-MS/MS. Une limite de détection de 0,2 µg L-1 a été obtenue et des concentrations entre 1 et 425 µg L-1 ont été trouvées dans des échantillons d’eau de lac contaminés du Québec. De plus, une analyse en parallèle avec des étalons pour divers congénères des MC a permis de suggérer la possible présence de congénères ou d’isomères non détectés. Un deuxième projet consiste en l’analyse directe d’ANA-a par LDTD-APCI-HRMS pour résoudre son interférence isobare, la phénylalanine, grâce à la détection à haute résolution. La LDTD n’offre pas de séparation chromatographique et l’utilisation de la HRMS permet de distinguer les signaux d’ANA-a de ceux de la phénylalanine. Une limite de détection de 0,2 µg L-1 a été obtenue et la méthode a été appliquée sur des échantillons réels d’eau avec un échantillon positif en ANA-a avec une concentration de 0,21 µg L-1. Finalement, à l’aide de la LDTD-APCI-HRMS, l’analyse des MC totales a été adaptée pour la chair de poisson afin de déterminer la fraction libre et liée des MC et comparer les résultats avec des analyses conventionnelles. L’utilisation d’une digestion par hydroxyde de sodium précédant l’oxydation de Lemieux suivi d’une purification par SPE a permis d’obtenir une limite de détection de 2,7 µg kg-1. Des échantillons de poissons contaminés ont été analysés, on a retrouvé des concentrations en MC totales de 2,9 et 13,2 µg kg-1 comparativement aux analyses usuelles qui avaient démontré un seul échantillon positif à 2 µg kg-1, indiquant la possible présence de MC non détectés en utilisant les méthodes conventionnelles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif de cette thèse est double. Premièrement, il s’agira de comprendre l’impact que l’internet peut avoir sur la démocratie, c’est-à-dire de montrer ce que cette technologie change à la démocratie, en développant un cadre conceptuel précis et en m’appuyant sur un corpus empirique important. Il s’agira ensuite de développer un projet normatif, afin de montrer ce qu’il est nécessaire de faire afin de garantir que l’impact de l’internet sur la démocratie sera positif. Pour mener à bien ces objectifs, il me faudra d’abord disposer d’une conception claire de la démocratie. C’est pourquoi je proposerai dans une première partie de la comprendre à partir du concept d’autonomie politique dont je proposerai une analyse conceptuelle au premier chapitre. J’analyserai ensuite deux éléments centraux de ce concept, à savoir la vie privée et l’espace public. Je proposerai dans une deuxième partie une analyse à la fois précise et empiriquement fondée de l’impact de l’internet sur ces deux éléments, afin de présenter un argument qui ne sera pas simplement a priori ou spéculatif. Les conclusions que je présenterai ne vaudront, cependant, que pour l’internet tel qu’il est aujourd’hui, car il est certain qu’il peut évoluer. Il est alors tout à fait possible que ses propriétés cessent de permettre l’augmentation de l’autonomie politique que je décris au cours de ma deuxième partie. Il est donc important de mener à bien une réflexion normative afin d’identifier dans quelle mesure il pourrait être nécessaire de faire quelque chose afin de garantir l’impact positif de l’internet sur l’autonomie politique. Je montrerai donc dans une dernière partie qu’il est nécessaire d’assurer à l’internet une architecture non-discriminante, mais qu’il n’est pas nécessaire de protéger outre mesure la générativité de son écosystème. Je conclurai en montrant l’importance d’offrir à tous des éléments d’une littératie numérique, si l’on souhaite que tous puissent bénéficier des opportunités offertes par le réseau des réseaux.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En synthèse d’images, reproduire les effets complexes de la lumière sur des matériaux transluminescents, tels que la cire, le marbre ou la peau, contribue grandement au réalisme d’une image. Malheureusement, ce réalisme supplémentaire est couteux en temps de calcul. Les modèles basés sur la théorie de la diffusion visent à réduire ce coût en simulant le comportement physique du transport de la lumière sous surfacique tout en imposant des contraintes de variation sur la lumière incidente et sortante. Une composante importante de ces modèles est leur application à évaluer hiérarchiquement l’intégrale numérique de l’illumination sur la surface d’un objet. Cette thèse révise en premier lieu la littérature actuelle sur la simulation réaliste de la transluminescence, avant d’investiguer plus en profondeur leur application et les extensions des modèles de diffusion en synthèse d’images. Ainsi, nous proposons et évaluons une nouvelle technique d’intégration numérique hiérarchique utilisant une nouvelle analyse fréquentielle de la lumière sortante et incidente pour adapter efficacement le taux d’échantillonnage pendant l’intégration. Nous appliquons cette théorie à plusieurs modèles qui correspondent à l’état de l’art en diffusion, octroyant une amélioration possible à leur efficacité et précision.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’action humaine dans une séquence vidéo peut être considérée comme un volume spatio- temporel induit par la concaténation de silhouettes dans le temps. Nous présentons une approche spatio-temporelle pour la reconnaissance d’actions humaines qui exploite des caractéristiques globales générées par la technique de réduction de dimensionnalité MDS et un découpage en sous-blocs afin de modéliser la dynamique des actions. L’objectif est de fournir une méthode à la fois simple, peu dispendieuse et robuste permettant la reconnaissance d’actions simples. Le procédé est rapide, ne nécessite aucun alignement de vidéo, et est applicable à de nombreux scénarios. En outre, nous démontrons la robustesse de notre méthode face aux occultations partielles, aux déformations de formes, aux changements d’échelle et d’angles de vue, aux irrégularités dans l’exécution d’une action, et à une faible résolution.