989 resultados para Multi-asynchronous-channels


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans son texte, l’auteur répond à une question posée lors d’une Conférence organisée conjointement par l’US Department of Commerce et le Groupe de l’article 29 et qui appelle à déterminer la façon dont les règles de protection des données doivent s’appliquer lors des transferts de données personnelles dans une société globale, multi-économique et multiculturelle. La question est pertinente dans une telle société, caractérisée par le besoin, d’une part d’assurer, sans considération de frontières, un certain régime de protection des données et d’autre part, de respecter la diversité des réalités économiques et culturelles qui se côtoient de plus en plus. L’auteur rappelle d’abord comment l’Europe a progressivement mis en place le système du droit à la protection des données personnelles. Il explique ensuite comment l’Union européenne a considéré la question de la réglementation des flux transfrontières pour en arriver au développement d’un système de protection adéquat et efficace lors des transferts de données hors de l’Union européenne. Toutefois, un tel système mis en place ne semble plus répondre de nos jours à la réalité des flux transfrontières, d’où la nécessité éventuelle de le réformer.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans le cadre d’une sociologie des organisations portant sur les liens entre organisations télévisuelles et environnement, la présente thèse a pour objectif de cerner les modalités du développement récent de la télévision au Québec en le comparant à celui de la Belgique francophone et de la Suisse. Une telle comparaison repose sur un principe méthodologique simple: on cerne d’autant mieux la réalité que l’on étudie si on peut la comparer à une réalité équivalente d’autres sociétés. En s’appuyant sur des théories de développement organisationnel reliées au courant néo-fonctionnaliste et en adaptant des « histoires de cas » d’études organisationnelles à la réalité télévisuelle des années 90 et 2000, le chercheur a mis au point une grille de classification des données permettant d’étudier les composantes du développement de la télévision dans trois « petites » sociétés industrialisées. Dans un premier temps, il a pu constater une augmentation très importante du nombre de chaînes de télévision par rapport à ce qu’il était dans les années 50 à 70, le tout encadré par les autorités réglementaires en place. Par la suite, dans chacune de ces trois sociétés et sur une période de vingt-cinq ans, il a pu préciser les interactions et échanges entre organisations télévisuelles et environnement lesquels ont été, selon les cas, harmonieux, difficiles, voire même conflictuels. Après avoir comparé les modalités d’une telle augmentation entre les trois sociétés, le chercheur a pu constater une convergence de surface. On note bien quelques similitudes entre les trois sociétés, mais, surtout, chacune d’entre elles est restée sur son quant-à-soi. En Suisse, l’importance accordée au consensus social a favorisé un développement équilibré de l’augmentation des chaines. En Belgique, pays aux divisions profondes constamment réaffirmées, les oppositions ont permis, malgré tout, l’édification d’un ensemble audiovisuel relativement stable. Au Québec, avec une augmentation exponentielle du nombre de chaines, on a assisté à un véritable surdéveloppement de la télévision encouragé et planifié par les autorités gouvernementales canadiennes en réaction à un supposé envahissement culturel américain. Le CRTC, la régie des ondes canadiennes, a pesé de tout son poids pour favoriser l’augmentation du contenu canadien et de la production locale. Par ailleurs, cette augmentation s’est faite avec des ressources limitées. On en fait trop avec trop peu. C’est ce qui permettrait d’expliquer la baisse de qualité de la télévision québécoise contemporaine. Comme élément de solution aux problèmes que la télévision québécoise connait présentement, il faudrait considérer cette dernière pour ce qu’elle est véritablement: une petite télévision dans un univers industriellement hautement développé. Si une telle conception est très bien acceptée aussi bien en Belgique qu’en Suisse, elle ne l’est pas au Québec

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les milieux humides remplissent plusieurs fonctions écologiques d’importance et contribuent à la biodiversité de la faune et de la flore. Même s’il existe une reconnaissance croissante sur l’importante de protéger ces milieux, il n’en demeure pas moins que leur intégrité est encore menacée par la pression des activités humaines. L’inventaire et le suivi systématique des milieux humides constituent une nécessité et la télédétection est le seul moyen réaliste d’atteindre ce but. L’objectif de cette thèse consiste à contribuer et à améliorer la caractérisation des milieux humides en utilisant des données satellites acquises par des radars polarimétriques en bande L (ALOS-PALSAR) et C (RADARSAT-2). Cette thèse se fonde sur deux hypothèses (chap. 1). La première hypothèse stipule que les classes de physionomies végétales, basées sur la structure des végétaux, sont plus appropriées que les classes d’espèces végétales car mieux adaptées au contenu informationnel des images radar polarimétriques. La seconde hypothèse stipule que les algorithmes de décompositions polarimétriques permettent une extraction optimale de l’information polarimétrique comparativement à une approche multipolarisée basée sur les canaux de polarisation HH, HV et VV (chap. 3). En particulier, l’apport de la décomposition incohérente de Touzi pour l’inventaire et le suivi de milieux humides est examiné en détail. Cette décomposition permet de caractériser le type de diffusion, la phase, l’orientation, la symétrie, le degré de polarisation et la puissance rétrodiffusée d’une cible à l’aide d’une série de paramètres extraits d’une analyse des vecteurs et des valeurs propres de la matrice de cohérence. La région du lac Saint-Pierre a été sélectionnée comme site d’étude étant donné la grande diversité de ses milieux humides qui y couvrent plus de 20 000 ha. L’un des défis posés par cette thèse consiste au fait qu’il n’existe pas de système standard énumérant l’ensemble possible des classes physionomiques ni d’indications précises quant à leurs caractéristiques et dimensions. Une grande attention a donc été portée à la création de ces classes par recoupement de sources de données diverses et plus de 50 espèces végétales ont été regroupées en 9 classes physionomiques (chap. 7, 8 et 9). Plusieurs analyses sont proposées pour valider les hypothèses de cette thèse (chap. 9). Des analyses de sensibilité par diffusiogramme sont utilisées pour étudier les caractéristiques et la dispersion des physionomies végétales dans différents espaces constitués de paramètres polarimétriques ou canaux de polarisation (chap. 10 et 12). Des séries temporelles d’images RADARSAT-2 sont utilisées pour approfondir la compréhension de l’évolution saisonnière des physionomies végétales (chap. 12). L’algorithme de la divergence transformée est utilisé pour quantifier la séparabilité entre les classes physionomiques et pour identifier le ou les paramètres ayant le plus contribué(s) à leur séparabilité (chap. 11 et 13). Des classifications sont aussi proposées et les résultats comparés à une carte existante des milieux humide du lac Saint-Pierre (14). Finalement, une analyse du potentiel des paramètres polarimétrique en bande C et L est proposé pour le suivi de l’hydrologie des tourbières (chap. 15 et 16). Les analyses de sensibilité montrent que les paramètres de la 1re composante, relatifs à la portion dominante (polarisée) du signal, sont suffisants pour une caractérisation générale des physionomies végétales. Les paramètres des 2e et 3e composantes sont cependant nécessaires pour obtenir de meilleures séparabilités entre les classes (chap. 11 et 13) et une meilleure discrimination entre milieux humides et milieux secs (chap. 14). Cette thèse montre qu’il est préférable de considérer individuellement les paramètres des 1re, 2e et 3e composantes plutôt que leur somme pondérée par leurs valeurs propres respectives (chap. 10 et 12). Cette thèse examine également la complémentarité entre les paramètres de structure et ceux relatifs à la puissance rétrodiffusée, souvent ignorée et normalisée par la plupart des décompositions polarimétriques. La dimension temporelle (saisonnière) est essentielle pour la caractérisation et la classification des physionomies végétales (chap. 12, 13 et 14). Des images acquises au printemps (avril et mai) sont nécessaires pour discriminer les milieux secs des milieux humides alors que des images acquises en été (juillet et août) sont nécessaires pour raffiner la classification des physionomies végétales. Un arbre hiérarchique de classification développé dans cette thèse constitue une synthèse des connaissances acquises (chap. 14). À l’aide d’un nombre relativement réduit de paramètres polarimétriques et de règles de décisions simples, il est possible d’identifier, entre autres, trois classes de bas marais et de discriminer avec succès les hauts marais herbacés des autres classes physionomiques sans avoir recours à des sources de données auxiliaires. Les résultats obtenus sont comparables à ceux provenant d’une classification supervisée utilisant deux images Landsat-5 avec une exactitude globale de 77.3% et 79.0% respectivement. Diverses classifications utilisant la machine à vecteurs de support (SVM) permettent de reproduire les résultats obtenus avec l’arbre hiérarchique de classification. L’exploitation d’une plus forte dimensionalitée par le SVM, avec une précision globale maximale de 79.1%, ne permet cependant pas d’obtenir des résultats significativement meilleurs. Finalement, la phase de la décomposition de Touzi apparaît être le seul paramètre (en bande L) sensible aux variations du niveau d’eau sous la surface des tourbières ouvertes (chap. 16). Ce paramètre offre donc un grand potentiel pour le suivi de l’hydrologie des tourbières comparativement à la différence de phase entre les canaux HH et VV. Cette thèse démontre que les paramètres de la décomposition de Touzi permettent une meilleure caractérisation, de meilleures séparabilités et de meilleures classifications des physionomies végétales des milieux humides que les canaux de polarisation HH, HV et VV. Le regroupement des espèces végétales en classes physionomiques est un concept valable. Mais certaines espèces végétales partageant une physionomie similaire, mais occupant un milieu différent (haut vs bas marais), ont cependant présenté des différences significatives quant aux propriétés de leur rétrodiffusion.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’examen de la rétine par des moyens non invasifs et in vivo a été un objectif de recherche pendant plusieurs années. Pour l’œil comme pour tous les organes du corps humain, un apport soutenu en oxygène est nécessaire pour le maintien de l’homéostasie. La concentration en oxygène du sang des vaisseaux rétiniens peut être déterminée principalement à partir des mesures du spectre de réflexion du fond de l’œil. En envoyant une lumière, à différentes longueurs d’onde, sur la rétine et en analysant la nature de la lumière réfléchie par la rétine, il est possible d’obtenir des informations quantitatives sur le niveau d'oxygène dans les vaisseaux sanguins de la rétine ou sur le flux sanguin. Cependant, la modélisation est compliquée due aux différentes interactions et aux chemins que la lumière prend à travers les tissus oculaires avant de quitter l’œil. L’objectif de cette thèse a été de développer et de valider un modèle mathématique afin de calculer les dérivées d’hémoglobine à partir de mesures spectrales de réflectométrie sur les vaisseaux sanguins de la rétine. L’instrument utilisé pour mesurer la fonction spectrale de réflectométrie a été un spectroréflectomètre multi-canal, une technologie capable de mesurer in vivo et en continu 800 spectres simultanément. L'équation mathématique qui décrit la fonction spectrale de réflectométrie dans la zone spectrale de 480 nm à 650 nm a été exprimée comme la combinaison linéaire de plusieurs termes représentant les signatures spectrales de l'hémoglobine SHb, de l'oxyhémoglobine SOHB, l’absorption et la diffusion des milieux oculaires et une famille de fonctions multigaussiennes utilisées pour compenser l’incompatibilité du modèle et les données expérimentales dans la zone rouge du spectre. Les résultats du modèle révèlent que le signal spectral obtenu à partir de mesures de réflectométrie dans l’œil est complexe, contenant la lumière absorbée, réfléchie et diffusée, mais chacun avec une certaine prédominance spécifique en fonction de la zone spectrale. La fonction spectrale d’absorption du sang est dominante dans la zone spectrale 520 à 580 nm, tandis que dans la zone spectrale de longueurs d’ondes plus grandes que 590 nm, la diffusion sur les cellules rouges du sang est dominante. Le modèle a été utilisé afin de mesurer la concentration d’oxygène dans les capillaires de la tête du nerf optique suite à un effort physique dynamique. L’effort physique a entraîné une réduction de la concentration d’oxygène dans les capillaires, ainsi qu’une réduction de la pression intraoculaire, tandis que la saturation sanguine en oxygène, mesurée au niveau du doigt, restait constante. Le modèle mathématique développé dans ce projet a ainsi permis, avec la technique novatrice de spectroréflectométrie multicanal, de déterminer in vivo et d’une manière non invasive l’oxygénation sanguine des vaisseaux rétiniens.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Un système multi-agents est composé de plusieurs agents autonomes qui interagissent entre eux dans un environnement commun. Ce mémoire vise à démontrer l’utilisation d’un système multi-agents pour le développement d’un jeu vidéo. Tout d’abord, une justification du choix des concepts d’intelligence artificielle choisie est exposée. Par la suite, une approche pratique est utilisée en effectuant le développement d’un jeu vidéo. Pour ce faire, le jeu fut développé à partir d’un jeu vidéo mono-agent existant et mo- difié en système multi-agents afin de bien mettre en valeur les avantages d’un système multi-agents dans un jeu vidéo. Le développement de ce jeu a aussi démontré l’applica- tion d’autres concepts en intelligence artificielle comme la recherche de chemins et les arbres de décisions. Le jeu développé pour ce mémoire viens appuyer les conclusions des différentes recherches démontrant que l’utilisation d’un système multi-agents per- met de réaliser un comportement plus réaliste pour les joueurs non humains et bien plus compétitifs pour le joueur humain.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Deux tiers des cancers du sein expriment des récepteurs hormonaux ostrogéniques (tumeur ER-positive) et la croissance de ces tumeurs est stimulée par l’estrogène. Des traitements adjuvant avec des anti-estrogènes, tel que le Tamoxifen et les Inhibiteurs de l’Aromatase peuvent améliorer la survie des patientes atteinte de cancer du sein. Toutefois la thérapie hormonale n’est pas efficace dans toutes les tumeurs mammaires ER-positives. Les tumeurs peuvent présenter avec une résistance intrinsèque ou acquise au Tamoxifen. Présentement, c’est impossible de prédire quelle patiente va bénéficier ou non du Tamoxifen. Des études préliminaires du laboratoire de Dr. Mader, ont identifié le niveau d’expression de 20 gènes, qui peuvent prédire la réponse thérapeutique au Tamoxifen (survie sans récidive). Ces marqueurs, identifié en utilisant une analyse bioinformatique de bases de données publiques de profils d’expression des gènes, sont capables de discriminer quelles patientes vont mieux répondre au Tamoxifen. Le but principal de cette étude est de développer un outil de PCR qui peut évaluer le niveau d’expression de ces 20 gènes prédictif et de tester cette signature de 20 gènes dans une étude rétrospective, en utilisant des tumeurs de cancer du sein en bloc de paraffine, de patients avec une histoire médicale connue. Cet outil aurait donc un impact direct dans la pratique clinique. Des traitements futiles pourraient être éviter et l’indentification de tumeurs ER+ avec peu de chance de répondre à un traitement anti-estrogène amélioré. En conséquence, de la recherche plus appropriée pour les tumeurs résistantes au Tamoxifen, pourront se faire.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’évolution récente des commutateurs de sélection de longueurs d’onde (WSS -Wavelength Selective Switch) favorise le développement du multiplexeur optique d’insertionextraction reconfigurable (ROADM - Reconfigurable Optical Add/Drop Multiplexers) à plusieurs degrés sans orientation ni coloration, considéré comme un équipement fort prometteur pour les réseaux maillés du futur relativement au multiplexage en longueur d’onde (WDM -Wavelength Division Multiplexing ). Cependant, leur propriété de commutation asymétrique complique la question de l’acheminement et de l’attribution des longueur d’ondes (RWA - Routing andWavelength Assignment). Or la plupart des algorithmes de RWA existants ne tiennent pas compte de cette propriété d’asymétrie. L’interruption des services causée par des défauts d’équipements sur les chemins optiques (résultat provenant de la résolution du problème RWA) a pour conséquence la perte d’une grande quantité de données. Les recherches deviennent ainsi incontournables afin d’assurer la survie fonctionnelle des réseaux optiques, à savoir, le maintien des services, en particulier en cas de pannes d’équipement. La plupart des publications antérieures portaient particulièrement sur l’utilisation d’un système de protection permettant de garantir le reroutage du trafic en cas d’un défaut d’un lien. Cependant, la conception de la protection contre le défaut d’un lien ne s’avère pas toujours suffisante en termes de survie des réseaux WDM à partir de nombreux cas des autres types de pannes devenant courant de nos jours, tels que les bris d’équipements, les pannes de deux ou trois liens, etc. En outre, il y a des défis considérables pour protéger les grands réseaux optiques multidomaines composés de réseaux associés à un domaine simple, interconnectés par des liens interdomaines, où les détails topologiques internes d’un domaine ne sont généralement pas partagés à l’extérieur. La présente thèse a pour objectif de proposer des modèles d’optimisation de grande taille et des solutions aux problèmes mentionnés ci-dessus. Ces modèles-ci permettent de générer des solutions optimales ou quasi-optimales avec des écarts d’optimalité mathématiquement prouvée. Pour ce faire, nous avons recours à la technique de génération de colonnes afin de résoudre les problèmes inhérents à la programmation linéaire de grande envergure. Concernant la question de l’approvisionnement dans les réseaux optiques, nous proposons un nouveau modèle de programmation linéaire en nombres entiers (ILP - Integer Linear Programming) au problème RWA afin de maximiser le nombre de requêtes acceptées (GoS - Grade of Service). Le modèle résultant constitue celui de l’optimisation d’un ILP de grande taille, ce qui permet d’obtenir la solution exacte des instances RWA assez grandes, en supposant que tous les noeuds soient asymétriques et accompagnés d’une matrice de connectivité de commutation donnée. Ensuite, nous modifions le modèle et proposons une solution au problème RWA afin de trouver la meilleure matrice de commutation pour un nombre donné de ports et de connexions de commutation, tout en satisfaisant/maximisant la qualité d’écoulement du trafic GoS. Relativement à la protection des réseaux d’un domaine simple, nous proposons des solutions favorisant la protection contre les pannes multiples. En effet, nous développons la protection d’un réseau d’un domaine simple contre des pannes multiples, en utilisant les p-cycles de protection avec un chemin indépendant des pannes (FIPP - Failure Independent Path Protecting) et de la protection avec un chemin dépendant des pannes (FDPP - Failure Dependent Path-Protecting). Nous proposons ensuite une nouvelle formulation en termes de modèles de flots pour les p-cycles FDPP soumis à des pannes multiples. Le nouveau modèle soulève un problème de taille, qui a un nombre exponentiel de contraintes en raison de certaines contraintes d’élimination de sous-tour. Par conséquent, afin de résoudre efficacement ce problème, on examine : (i) une décomposition hiérarchique du problème auxiliaire dans le modèle de décomposition, (ii) des heuristiques pour gérer efficacement le grand nombre de contraintes. À propos de la protection dans les réseaux multidomaines, nous proposons des systèmes de protection contre les pannes d’un lien. Tout d’abord, un modèle d’optimisation est proposé pour un système de protection centralisée, en supposant que la gestion du réseau soit au courant de tous les détails des topologies physiques des domaines. Nous proposons ensuite un modèle distribué de l’optimisation de la protection dans les réseaux optiques multidomaines, une formulation beaucoup plus réaliste car elle est basée sur l’hypothèse d’une gestion de réseau distribué. Ensuite, nous ajoutons une bande pasiv sante partagée afin de réduire le coût de la protection. Plus précisément, la bande passante de chaque lien intra-domaine est partagée entre les p-cycles FIPP et les p-cycles dans une première étude, puis entre les chemins pour lien/chemin de protection dans une deuxième étude. Enfin, nous recommandons des stratégies parallèles aux solutions de grands réseaux optiques multidomaines. Les résultats de l’étude permettent d’élaborer une conception efficace d’un système de protection pour un très large réseau multidomaine (45 domaines), le plus large examiné dans la littérature, avec un système à la fois centralisé et distribué.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les systèmes logiciels sont devenus de plus en plus répondus et importants dans notre société. Ainsi, il y a un besoin constant de logiciels de haute qualité. Pour améliorer la qualité de logiciels, l’une des techniques les plus utilisées est le refactoring qui sert à améliorer la structure d'un programme tout en préservant son comportement externe. Le refactoring promet, s'il est appliqué convenablement, à améliorer la compréhensibilité, la maintenabilité et l'extensibilité du logiciel tout en améliorant la productivité des programmeurs. En général, le refactoring pourra s’appliquer au niveau de spécification, conception ou code. Cette thèse porte sur l'automatisation de processus de recommandation de refactoring, au niveau code, s’appliquant en deux étapes principales: 1) la détection des fragments de code qui devraient être améliorés (e.g., les défauts de conception), et 2) l'identification des solutions de refactoring à appliquer. Pour la première étape, nous traduisons des régularités qui peuvent être trouvés dans des exemples de défauts de conception. Nous utilisons un algorithme génétique pour générer automatiquement des règles de détection à partir des exemples de défauts. Pour la deuxième étape, nous introduisons une approche se basant sur une recherche heuristique. Le processus consiste à trouver la séquence optimale d'opérations de refactoring permettant d'améliorer la qualité du logiciel en minimisant le nombre de défauts tout en priorisant les instances les plus critiques. De plus, nous explorons d'autres objectifs à optimiser: le nombre de changements requis pour appliquer la solution de refactoring, la préservation de la sémantique, et la consistance avec l’historique de changements. Ainsi, réduire le nombre de changements permets de garder autant que possible avec la conception initiale. La préservation de la sémantique assure que le programme restructuré est sémantiquement cohérent. De plus, nous utilisons l'historique de changement pour suggérer de nouveaux refactorings dans des contextes similaires. En outre, nous introduisons une approche multi-objective pour améliorer les attributs de qualité du logiciel (la flexibilité, la maintenabilité, etc.), fixer les « mauvaises » pratiques de conception (défauts de conception), tout en introduisant les « bonnes » pratiques de conception (patrons de conception).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’espace est un élément peu exploré en musique. Méconnu des compositeurs, il n’est généralement pas pensé comme paramètre musical « composable ». Pourtant si la musique peut être perçue comme une organisation et une succession d’éléments dans le temps, pourquoi ne pourrait-elle pas l’être aussi dans l’espace? Ce travail se veut en quelque sorte un pont entre la recherche et la pratique, qui se construit par la synthèse de l’information que j’ai pu trouver sur chacune des quatre méthodes de spatialisation abordées ici. Dans un premier temps, je traiterai de leur développement, leur fonctionnement et des possibilités d’intégration de ces méthodes dans le processus de composition musicale, notamment en discutant les outils disponibles. Dans un second temps, les pièces Minimale Sédation et Fondations, toutes deux composées en octophonie seront discutées. J’expliquerai leurs processus de composition à travers les intentions, les techniques d’écriture et les outils qui ont menés à leurs créations.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Située dans le discours actuel à la mode sur la diversité culturelle, l’objet de cette thèse consiste à comprendre l’orientation pratique d’une organisation internationale en matière de gestion de sa diversité culturelle interne. Il propose que, face aux changements qui ont modifié la configuration sociodémographique de la sphère organisationnelle, il serait intéressant de partir d’une organisation pour laquelle la diversité est une tradition tributaire de son fonctionnement. L’organisation sujet d’étude est internationale, affiliée à l’Unesco. Cette dernière étant reconnue pour son mandat qui valorise et protège les cultures. L’ancrage épistémologique de la thèse est bi-disciplinaire. Il considère deux champs théoriques sur lesquels se construit la diversité culturelle. Le premier est forgé dans les théories de management dites « occidentales » sur la diversité. Le deuxième champ, s’établit sur une approche dynamique de la culture apportée par les « Cross-Cultural Studies ». La méthodologie que nous avons mobilisée pour cette recherche est principalement qualitative. Elle est également diverse puisqu’elle veut identifier trois niveaux d’analyses. D’abord, l’étude historique réalisée se fonde sur l’analyse d’articles choisis tirés des archives de l’« organisation mère » (Unesco). Elle se veut être une étude exhaustive qui révèle l’évolution du discours « global » de cette organisation sur la diversité culturelle depuis sa création. Ensuite, afin de mieux comprendre le discours interne de l’Organisation sur la diversité culturelle, une analyse du contenu d’un « halo » de ses politiques internes a lieu. Elle nous permet de comprendre la valeur que prend la diversité culturelle dans son discours « organisationnel » dans la période de temps que nous traitons. Enfin, les histoires « individuelles » des acteurs de la diversité culturelle, apportent une description riche et, complètent l’analyse avec leurs interprétions des pratiques de gestions mises en place à leur égard. Des éléments de recherche sous adjacentes sont aussi amenés dans la thèse et font également partie du processus de l’analyse de la pratique de la diversité culturelle dans l’Organisation. En effet, la thèse se penche sur le problème conceptuel sur la « diversité culturelle ». Elle apporte des éclaircissements à la terminologie à travers l’analyse de ses différents emplois dans la littérature organisationnelle. Par ailleurs, elle clarifie la notion d’organisation internationale et propose une description du contexte unesquien défini par sa diversité culturelle interne. L’ensemble des niveaux examinés a permis de mettre en évidence une double constatation. D’une part, le paradoxe entre les trois niveaux. D’autre part, la neutralité des pratiques de gestion de la diversité culturelle pour les employés et la demande implicite de reconnaissance de leurs identités culturelles. Des recommandations sont proposées et des suggestions pour de recherches ultérieures sont formulées à la conclusion de la thèse.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La théorie de l'information quantique s'est développée à une vitesse fulgurante au cours des vingt dernières années, avec des analogues et extensions des théorèmes de codage de source et de codage sur canal bruité pour la communication unidirectionnelle. Pour la communication interactive, un analogue quantique de la complexité de la communication a été développé, pour lequel les protocoles quantiques peuvent performer exponentiellement mieux que les meilleurs protocoles classiques pour certaines tâches classiques. Cependant, l'information quantique est beaucoup plus sensible au bruit que l'information classique. Il est donc impératif d'utiliser les ressources quantiques à leur plein potentiel. Dans cette thèse, nous étudions les protocoles quantiques interactifs du point de vue de la théorie de l'information et étudions les analogues du codage de source et du codage sur canal bruité. Le cadre considéré est celui de la complexité de la communication: Alice et Bob veulent faire un calcul quantique biparti tout en minimisant la quantité de communication échangée, sans égard au coût des calculs locaux. Nos résultats sont séparés en trois chapitres distincts, qui sont organisés de sorte à ce que chacun puisse être lu indépendamment. Étant donné le rôle central qu'elle occupe dans le contexte de la compression interactive, un chapitre est dédié à l'étude de la tâche de la redistribution d'état quantique. Nous prouvons des bornes inférieures sur les coûts de communication nécessaires dans un contexte interactif. Nous prouvons également des bornes atteignables avec un seul message, dans un contexte d'usage unique. Dans un chapitre subséquent, nous définissons une nouvelle notion de complexité de l'information quantique. Celle-ci caractérise la quantité d'information, plutôt que de communication, qu'Alice et Bob doivent échanger pour calculer une tâche bipartie. Nous prouvons beaucoup de propriétés structurelles pour cette quantité, et nous lui donnons une interprétation opérationnelle en tant que complexité de la communication quantique amortie. Dans le cas particulier d'entrées classiques, nous donnons une autre caractérisation permettant de quantifier le coût encouru par un protocole quantique qui oublie de l'information classique. Deux applications sont présentées: le premier résultat général de somme directe pour la complexité de la communication quantique à plus d'une ronde, ainsi qu'une borne optimale, à un terme polylogarithmique près, pour la complexité de la communication quantique avec un nombre de rondes limité pour la fonction « ensembles disjoints ». Dans un chapitre final, nous initions l'étude de la capacité interactive quantique pour les canaux bruités. Étant donné que les techniques pour distribuer de l'intrication sont bien étudiées, nous nous concentrons sur un modèle avec intrication préalable parfaite et communication classique bruitée. Nous démontrons que dans le cadre plus ardu des erreurs adversarielles, nous pouvons tolérer un taux d'erreur maximal de une demie moins epsilon, avec epsilon plus grand que zéro arbitrairement petit, et ce avec un taux de communication positif. Il s'ensuit que les canaux avec bruit aléatoire ayant une capacité positive pour la transmission unidirectionnelle ont une capacité positive pour la communication interactive quantique. Nous concluons avec une discussion de nos résultats et des directions futures pour ce programme de recherche sur une théorie de l'information quantique interactive.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce mémoire s'intéresse à la reconstruction d'un modèle 3D à partir de plusieurs images. Le modèle 3D est élaboré avec une représentation hiérarchique de voxels sous la forme d'un octree. Un cube englobant le modèle 3D est calculé à partir de la position des caméras. Ce cube contient les voxels et il définit la position de caméras virtuelles. Le modèle 3D est initialisé par une enveloppe convexe basée sur la couleur uniforme du fond des images. Cette enveloppe permet de creuser la périphérie du modèle 3D. Ensuite un coût pondéré est calculé pour évaluer la qualité de chaque voxel à faire partie de la surface de l'objet. Ce coût tient compte de la similarité des pixels provenant de chaque image associée à la caméra virtuelle. Finalement et pour chacune des caméras virtuelles, une surface est calculée basée sur le coût en utilisant la méthode de SGM. La méthode SGM tient compte du voisinage lors du calcul de profondeur et ce mémoire présente une variation de la méthode pour tenir compte des voxels précédemment exclus du modèle par l'étape d'initialisation ou de creusage par une autre surface. Par la suite, les surfaces calculées sont utilisées pour creuser et finaliser le modèle 3D. Ce mémoire présente une combinaison innovante d'étapes permettant de créer un modèle 3D basé sur un ensemble d'images existant ou encore sur une suite d'images capturées en série pouvant mener à la création d'un modèle 3D en temps réel.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En tant que population majoritairement immigrante, les protestants inhumés au cimetière Saint-Matthew, ville de Québec (1771-1860) ont dû s'adapter à un nouvel environnement à leur arrivée au Québec, et donc à de nouvelles ressources. Parallèlement, les 18e et 19e siècles sont marqués par un contexte socio-économique en pleine mutation avec l'arrivée graduelle de la période industrielle, et la ville de Québec, avec son contexte portuaire, a ainsi été au coeur de ces changements. L'objectif de ce mémoire est d'évaluer si la géochimie des isotopes stables appliquée à plusieurs matériaux du squelette humain (collagène et apatite de l'os, collagène de la dentine, et carbonate de l'émail) permet de mieux comprendre comment les comportements alimentaires des individus analysés provenant de ce cimetière cosmopolite (n=40) ont évolué en cours de vie. L'alimentation étant influencée par des conditions socio-économiques, culturelles et environnementales, cela peut nous informer indirectement sur les processus d'adaptation et l'identité d'un individu. C'est dans cette perspective d'écologie culturelle que nous avons interprété les données recueillies lors de ce projet, en complément aux analyses effectuées précédemment par Morland (2009) et Caron (2013). Nos résultats corroborent les tendances déjà observées, soit des pratiques alimentaires semblables à celles que l'on retrouve en Europe, et des immigrants provenant majoritairement des Îles Britanniques. Ils démontrent également une légère augmentation de la consommation de ressources C4, comme le maïs et la canne à sucre, à l'âge adulte pour 90% des individus analysés, de même qu'une baisse du niveau de protéines. Par ailleurs, les individus étudiés ont généralement eu tendance à conserver le même niveau alimentaire les uns par rapport aux autres tout au cours de leur vie, même si les pratiques étaient moins diversifiés à l'âge adulte. Finalement, on constate des similarités de comportements avec les populations irlandaises et britanniques plus pauvres durant l'enfance, alors qu'ils ressemblent davantage à ceux visibles dans la vallée laurentienne en fin de vie, notamment en ce qui concerne l'apport en protéines. Nos résultats suggèrent donc des changements alimentaires significatifs, fort possiblement liés aux processus de migration et à une adaptation constante à un nouvel environnement de la part des individus étudiés.