3 resultados para System analysis - Data processing
em Université de Montréal, Canada
Resumo:
La biométrie, appliquée dans un contexte de traitement automatisé des données et de reconnaissance des identités, fait partie de ces technologies nouvelles dont la complexité d’utilisation fait émerger de nouveaux enjeux et où ses effets à long terme sont incalculables. L’envergure des risques suscite des questionnements dont il est essentiel de trouver les réponses. On justifie le recours à cette technologie dans le but d’apporter plus de sécurité, mais, vient-elle vraiment apporter plus de protection dans le contexte actuel? En outre, le régime législatif québécois est-il suffisant pour encadrer tous les risques qu’elle génère? Les technologies biométriques sont flexibles en ce sens qu’elles permettent de saisir une multitude de caractéristiques biométriques et offrent aux utilisateurs plusieurs modalités de fonctionnement. Par exemple, on peut l’utiliser pour l’identification tout comme pour l’authentification. Bien que la différence entre les deux concepts puisse être difficile à saisir, nous verrons qu’ils auront des répercussions différentes sur nos droits et ne comporteront pas les mêmes risques. Par ailleurs, le droit fondamental qui sera le plus touché par l’utilisation de la biométrie sera évidemment le droit à la vie privée. Encore non bien compris, le droit à la vie privée est complexe et son application est difficile dans le contexte des nouvelles technologies. La circulation des données biométriques, la surveillance accrue, le détournement d’usage et l’usurpation d’identité figurent au tableau des risques connus de la biométrie. De plus, nous verrons que son utilisation pourra avoir des conséquences sur d’autres droits fondamentaux, selon la manière dont le système est employé. Les tests de nécessité du projet et de proportionnalité de l’atteinte à nos droits seront les éléments clés pour évaluer la conformité d’un système biométrique. Ensuite, le succès de la technologie dépendra des mesures de sécurité mises en place pour assurer la protection des données biométriques, leur intégrité et leur accès, une fois la légitimité du système établie.
Resumo:
Les rivières reçoivent de l'azote de leurs bassins versants et elles constituent les derniers sites de transformations des nutriments avant leur livraison aux zones côtières. Les transformations de l’azote inorganique dissous en azote gazeux sont très variables et peuvent avoir un impact à la fois sur l’eutrophisation des côtes et les émissions de gaz à effet de serre à l’échelle globale. Avec l’augmentation de la charge en azote d’origine anthropique vers les écosystèmes aquatiques, les modèles d’émissions de gaz à effet de serre prédisent une augmentation des émissions d’oxyde nitreux (N2O) dans les rivières. Les mesures directes de N2O dans le Lac Saint-Pierre (LSP), un élargissement du Fleuve Saint-Laurent (SLR) indiquent que bien qu’étant une source nette de N2O vers l'atmosphère, les flux de N2O dans LSP sont faibles comparés à ceux des autres grandes rivières et fleuves du monde. Les émissions varient saisonnièrement et inter-annuellement à cause des changements hydrologiques. Les ratios d’émissions N2O: N2 sont également influencés par l’hydrologie et de faibles ratios sont observés dans des conditions de débit d'eau plus élevée et de charge en N élevé. Dans une analyse effectuée sur plusieurs grandes rivières, la charge hydraulique des systèmes semble moduler la relation entre les flux de N2O annuels et les concentrations de nitrate dans les rivières. Dans SLR, des tapis de cyanobactéries colonisant les zones à faible concentration de nitrate sont une source nette d’azote grâce à leur capacité de fixer l’azote atmosphérique (N2). Étant donné que la fixation a lieu pendant le jour alors que les concentrations d'oxygène dans la colonne d'eau sont sursaturées, nous supposons que la fixation de l’azote est effectuée dans des micro-zones d’anoxie et/ou possiblement par des diazotrophes hétérotrophes. La fixation de N dans les tapis explique le remplacement de près de 33 % de la perte de N par dénitrification dans tout l'écosystème au cours de la période d'étude. Dans la portion du fleuve Hudson soumis à la marée, la dénitrification et la production de N2 est très variable selon le type de végétation. La dénitrification est associée à la dynamique en oxygène dissous particulière à chaque espèce durant la marée descendante. La production de N2 est extrêmement élevée dans les zones occupées par les plantes envahissantes à feuilles flottantes (Trapa natans) mais elle est négligeable dans la végétation indigène submergée. Une estimation de la production de N2 dans les lits de Trapa durant l’été, suggère que ces lits représentent une zone très active d’élimination de l’azote. En effet, les grands lits de Trapa ne représentent que 2,7% de la superficie totale de la portion de fleuve étudiée, mais ils éliminent entre 70 et 100% de l'azote total retenu dans cette section pendant les mois d'été et contribuent à près de 25% de l’élimination annuelle d’azote.
Resumo:
En synthèse d’images, reproduire les effets complexes de la lumière sur des matériaux transluminescents, tels que la cire, le marbre ou la peau, contribue grandement au réalisme d’une image. Malheureusement, ce réalisme supplémentaire est couteux en temps de calcul. Les modèles basés sur la théorie de la diffusion visent à réduire ce coût en simulant le comportement physique du transport de la lumière sous surfacique tout en imposant des contraintes de variation sur la lumière incidente et sortante. Une composante importante de ces modèles est leur application à évaluer hiérarchiquement l’intégrale numérique de l’illumination sur la surface d’un objet. Cette thèse révise en premier lieu la littérature actuelle sur la simulation réaliste de la transluminescence, avant d’investiguer plus en profondeur leur application et les extensions des modèles de diffusion en synthèse d’images. Ainsi, nous proposons et évaluons une nouvelle technique d’intégration numérique hiérarchique utilisant une nouvelle analyse fréquentielle de la lumière sortante et incidente pour adapter efficacement le taux d’échantillonnage pendant l’intégration. Nous appliquons cette théorie à plusieurs modèles qui correspondent à l’état de l’art en diffusion, octroyant une amélioration possible à leur efficacité et précision.