848 resultados para Visual surveillance, Human activity recognition, Video annotation
Resumo:
Cette thèse propose une analyse croisée du cinéma et du jeu vidéo sous un angle interdisciplinaire afin de montrer la réappropriation et le remédiatisation des structures narratives et formelles du jeu vidéo dans le cinéma d’effets visuels du tournant du XXIe siècle. Plus spécifiquement, la thèse porte sur l’analyse de trois figures majeures du jeu vidéo et de l’animation dans la trilogie Matrix (Larry et Andy Wachowski, 1999-2003), dans Avalon (Mamoru Oshii, 2001) et dans Kung-Fu Hustle (Stephen Chow, 2004). La première section de la thèse consiste en une mise en place théorique par la présentation de certains paramètres esthétiques du cinéma d’effets visuels et du jeu vidéo. Quelques réflexions préliminaires sur l’esthétique du cinéma d’effets visuels sont d’abord esquissées avant de présenter les principales relations transmédiales entre le cinéma et le jeu vidéo. Ensuite, c’est le cinéma transludique qui est défini alors que le terme découle de la synergie singulière entre le cinéma et le jeu vidéo. Puisque le cinéma transludique concerne spécifiquement la récupération de l’esthétique du jeu vidéo dans le cinéma contemporain, les prémisses d’une esthétique du jeu vidéo sont alors établies. Dans la deuxième section, ce sont les figures et sous-figures au cœur de cette réflexion qui sont développées, pour ensuite les appliquer aux films du corpus. La première figure à l’étude est celle de l’exploration, alors que l’analyse de la signification de cette figure dans la conception de jeu vidéo et dans les récits cinématographiques de science-fiction montre l’importance de la navigation comme expérience spatio-temporelle dans les univers virtuels. Ensuite, c’est l’utilisation récurrente de la figure vidéoludique du niveau (level) dans le cinéma hybride contemporain qui est soulignée, figure qui structure autant le récit que la forme représentationnelle des films transludiques. Enfin, la figure de la métamorphose, indissociable du cinéma d’animation, est étudiée afin de souligner l’importance de cette figure dans la création numérique et d’expliquer la transformation de l’image qui affecte le cinéma transludique, image qualifiée d’image-frontière.
Resumo:
La vision est un élément très important pour la navigation en général. Grâce à des mécanismes compensatoires les aveugles de naissance ne sont pas handicapés dans leurs compétences spatio-cognitives, ni dans la formation de nouvelles cartes spatiales. Malgré l’essor des études sur la plasticité du cerveau et la navigation chez les aveugles, les substrats neuronaux compensatoires pour la préservation de cette fonction demeurent incompris. Nous avons démontré récemment (article 1) en utilisant une technique d’analyse volumétrique (Voxel-Based Morphometry) que les aveugles de naissance (AN) montrent une diminution de la partie postérieure de l’hippocampe droit, structure cérébrale importante dans la formation de cartes spatiales. Comment les AN forment-ils des cartes cognitives de leur environnement avec un hippocampe postérieur droit qui est significativement réduit ? Pour répondre à cette question nous avons choisi d’exploiter un appareil de substitution sensorielle qui pourrait potentiellement servir à la navigation chez les AN. Cet appareil d’affichage lingual (Tongue display unit -TDU-) retransmet l’information graphique issue d’une caméra sur la langue. Avant de demander à nos sujets de naviguer à l’aide du TDU, il était nécessaire de nous assurer qu’ils pouvaient « voir » des objets dans l’environnement grâce au TDU. Nous avons donc tout d’abord évalué l’acuité « visuo »-tactile (article 2) des sujets AN pour les comparer aux performances des voyants ayant les yeux bandées et munis du TDU. Ensuite les sujets ont appris à négocier un chemin à travers un parcours parsemé d’obstacles i (article 3). Leur tâche consistait à pointer vers (détection), et contourner (négociation) un passage autour des obstacles. Nous avons démontré que les sujets aveugles de naissance non seulement arrivaient à accomplir cette tâche, mais encore avaient une performance meilleure que celle des voyants aux yeux bandés, et ce, malgré l’atrophie structurelle de l’hippocampe postérieur droit, et un système visuel atrophié (Ptito et al., 2008). Pour déterminer quels sont les corrélats neuronaux de la navigation, nous avons créé des routes virtuelles envoyées sur la langue par le biais du TDU que les sujets devaient reconnaitre alors qu’ils étaient dans un scanneur IRMf (article 4). Nous démontrons grâce à ces techniques que les aveugles utilisent un autre réseau cortical impliqué dans la mémoire topographique que les voyants quand ils suivent des routes virtuelles sur la langue. Nous avons mis l’emphase sur des réseaux neuronaux connectant les cortex pariétaux et frontaux au lobe occipital puisque ces réseaux sont renforcés chez les aveugles de naissance. Ces résultats démontrent aussi que la langue peut être utilisée comme une porte d’entrée vers le cerveau en y acheminant des informations sur l’environnement visuel du sujet, lui permettant ainsi d’élaborer des stratégies d’évitement d’obstacles et de se mouvoir adéquatement.
Resumo:
Dans cette thèse de sociologie du droit, nous étudions l'influence du droit de l'État sur les sujets de droit. Notre hypothèse générale est que les intermédiaires du droit de l'État contribuent de façon importante à façonner le« rapport au droit» des sujets de droit. C'est-à-dire qu'ils auraient une incidence sur la construction de la relation d'influence du droit sur ces acteurs sociaux et, par là, un effet marqué sur la « légitimité empirique » du droit. Par leurs pratiques professionnelles les intermédiaires du droit auraient une incidence notable, quoique non exclusive, sur les formes concrètes de «rapports au droit» des sujets de droit. Dans l'étude de ce phénomène, nous comparons empiriquement les liens existant entre différents « rapports au droit » des sujets de droit et un droit caractérisé par une rationalité juridique fort différente selon qu'il aurait été porté par un avocat ou un médiateur. Ces deux groupes de professionnels sont les intermédiaires du droit qui font 1’objet de notre observation, laquelle n'est ni générale, ni globale, mais spécifique au divorce, géographiquement localisée à Montréal et historiquement située au début des années 1990. L'intérêt de cette période pour une étude de l'influence du droit sur les sujets de droit est qu'elle constitue un moment unique de l'histoire à Montréal. À cette époque, les différences entre les pratiques professionnelles des avocats et des médiateurs auraient été les plus extrêmes, ce qui favorise un travail de comparaison d'autant plus éclairant. En effet, au début des années 1990, après une dizaine d'années d'expérience, le Service de médiation à la famille de Montréal avait réussi à assurer une solide pratique professionnelle. Par ailleurs, la pratique professionnelle des avocats dans le domaine du divorce était déjà fort « modernisée », mais elle demeurait encore très peu influencée par la médiation familiale. Puisque le « rapport au droit » des personnes qui ont consulté ces intermédiaires du droit en vue de leur divorce est au cœur de 1 'étude, c'est auprès d'eux que nous avons réalisé des entretiens, et c'est l'analyse de ces entretiens qui permet de comprendre leur « rapport au droit». La sociologie de Max Weber est la perspective scientifique dans laquelle nous avons inscrit notre recherche. Une telle ambition exigeait que nous ne restions pas confinée aux seuls concepts les plus populaires. Par conséquent, une partie importante de cette thèse est consacrée à une présentation substantielle de la sociologie wébérienne. Sur cette base, nous avons construit notre stratégie d'enquête et nos instruments d'analyse idéal typiques. Non seulement il n'y a pas, chez Weber, de théorie systémique générale composée de lois explicatives des relations sociales, mais il n'y a pas non plus de modèle de cadre d'analyse particulier préfabriqué qui serait constitué comme un «prêt-à-porter» applicable en vue de réaliser des recherches empiriques, que ce soit dans le domaine du droit ou dans n'importe quel autre domaine d'activité humaine. En revanche, la sociologie wébérienne fournit plusieurs séries de repères conceptuels. Ils permettent d'organiser la recherche empirique sans jamais limiter les objets d'enquêtes possibles, ni l'imagination du chercheur, en autant que celui-ci a pour but de comprendre l'action sociale en l'interprétant et, par-là, de l'expliquer causalement dans son déroulement et ses effets. C'est là le projet de connaissance que Weber désigne par « sociologie ». Il vise ce projet de connaissance, non pas de manière générale et globale, mais toujours de manière particulière selon les domaines d'activité, les lieux, les époques, les sphères de valeurs, etc. Dans cette thèse, nous proposons un cadre d'analyse qui peut servir à poser et à approfondir toutes sortes de questions sur le droit et son influence, sans jamais qu'il soit considéré comme un système de lois à la manière du droit positif. Ce cadre d'analyse vise à appréhender le droit comme une sorte de relation sociale que l'on peut comprendre sociologiquement en considérant, notamment, les représentations juridiques des différentes catégories d'acteurs sociaux. C'est là la première, non pas la seule, condition à rencontrer en vue de respecter les exigences de la connaissance empirique du droit parce que le « droit empirique » ne se trouve pas dans la règle de droit positif. Il se trouve là où il est « porté » par des êtres humains et, en particulier, par des groupes d'humains qui détiennent une importante dose d'influence sociale. Nous souhaitons que cette étude, grâce à 1 'immense apport de la sociologie de Max Weber, contribue à la compréhension sociologique d'un aspect du « droit empirique» de l’État contemporain.
Resumo:
L’œuvre philosophique de Kierkegaard s’apparente à une dialectique du paradoxe. De fait, dans son cheminement existentiel, l’individu parcourt trois sphères d’existence – l’esthétique, l’éthique et le religieux –, chacune d’elle étant une modalité de l’activité humaine qui comporte un paradoxe particulier. Il s’agit d’un itinéraire de l’intériorité qui vise, dans l’existence, le télos qu’est le devenir soi-même. Ainsi l’esthéticien est-il déchiré entre les idées et la réalité dans la réalité immédiate, tandis que l’éthicien, par la médiation du langage, préfère s’affirmer comme individu dans l’immanence concrète, ignorant toutefois qu’il intériorise des règles sociales qui lui sont impersonnelles. Quant au religieux, non seulement découvre-t-il que la vérité vers laquelle il tend ne se trouve pas en son sein, mais il fait face au plus élevé des paradoxes, fondé sur la transcendance – à savoir le paradoxe absolu, où l’éternité se temporalise sous la forme de l’Homme-Dieu. Du reste, le présent mémoire se penche spécifiquement sur le concept du paradoxe, mis de l’avant par Kierkegaard afin de brosser un portrait du devenir individuel de chaque existant.
Resumo:
Dans le cadre de cette thèse, nous investiguons la capacité de chaque hémisphère cérébral à utiliser l’information visuelle disponible lors de la reconnaissance de mots. Il est généralement convenu que l’hémisphère gauche (HG) est mieux outillé pour la lecture que l’hémisphère droit (HD). De fait, les mécanismes visuoperceptifs utilisés en reconnaissance de mots se situent principalement dans l’HG (Cohen, Martinaud, Lemer et al., 2003). Puisque les lecteurs normaux utilisent optimalement des fréquences spatiales moyennes (environ 2,5 - 3 cycles par degré d’angle visuel) pour reconnaître les lettres, il est possible que l’HG les traite mieux que l’HD (Fiset, Gosselin, Blais et Arguin, 2006). Par ailleurs, les études portant sur la latéralisation hémisphérique utilisent habituellement un paradigme de présentation en périphérie visuelle. Il a été proposé que l’effet de l’excentricité visuelle sur la reconnaissance de mots soit inégal entre les hémichamps. Notamment, la première lettre est celle qui porte habituellement le plus d’information pour l’identification d’un mot. C’est aussi la plus excentrique lorsque le mot est présenté à l’hémichamp visuel gauche (HVG), ce qui peut nuire à son identification indépendamment des capacités de lecture de l’HD. L’objectif de la première étude est de déterminer le spectre de fréquences spatiales utilisé par l’HG et l’HD en reconnaissance de mots. Celui de la deuxième étude est d’explorer les biais créés par l’excentricité et la valeur informative des lettres lors de présentation en champs divisés. Premièrement, nous découvrons que le spectre de fréquences spatiales utilisé par les deux hémisphères en reconnaissance de mots est globalement similaire, même si l’HG requière moins d’information visuelle que l’HD pour atteindre le même niveau de performance. Étonnament toutefois, l’HD utilise de plus hautes fréquences spatiales pour identifier des mots plus longs. Deuxièmement, lors de présentation à l’HVG, nous trouvons que la 1re lettre, c’est à dire la plus excentrique, est parmi les mieux identifiées même lorsqu’elle a une plus grande valeur informative. Ceci est à l’encontre de l’hypothèse voulant que l’excentricité des lettres exerce un biais négatif pour les mots présentés à l’HVG. De façon intéressante, nos résultats suggèrent la présence d’une stratégie de traitement spécifique au lexique.
Resumo:
pour plus d'informations concernant l'auteure et sa recherche veuillez consulter le http://www.natalieb.ca
Resumo:
Depuis plus de trente ans, le Québec a pris position en faveur d’un mouvement de professionnalisation de l’enseignement. Ce choix se fonde principalement sur la volonté de moderniser les systèmes d’éducation grâce à la consolidation d’une expertise du travail enseignant. Elle a donc engendré toute une série de réformes visant à formaliser les pratiques des enseignants, à les appuyer sur les résultats de la recherche et à développer un code de pratiques responsables. Cependant, dans une perspective critique, ce processus de professionnalisation entre également dans le cadre plus large d’un processus de rationalisation étatique. Il exige de plus en plus des enseignants de faire preuve d’efficacité à tout prix, mais cette exigence ne tient pas compte de l’incertitude de l’action et des valeurs en jeu. Cette thèse vise à analyser, à partir d’une perspective critique, la conception de l’articulation entre la recherche et la pratique sous-jacente au mouvement de professionnalisation en vue de proposer une conception plus adéquate en regard de la réalité pratique: la traduction. Ce faisant, la thèse propose une réflexion sur le rôle transformateur du langage dans tout processus de transmission des connaissances. L’approche de la traduction s'inspire à la fois de la tradition herméneutique et de la critique poststructuraliste, et remet en question la conception du langage comme véhicule transparent de la pensée et des connaissances. À la lumière de ce cadre, je propose une analyse empirique (analyses discursive et sémiotique) des mécanismes de traduction qui assurent le passage du monde de la recherche vers le monde de l'enseignement. Cette partie repose sur une analyse comparative d’articles provenant de la revue Vie pédagogique, analyse qui se concentre sur les processus de traductions à l’œuvre dans trois concepts centraux du mouvement de professionnalisation : la pratique réflexive, la compétence et la collaboration. Elle met en lumière la manière dont le cadre actuel de la professionnalisation est réducteur, totalisant, et nie le caractère traductif du langage et de l’activité humaine. Je conclus avec une reconceptualisation de l'enseignement en tant que traduction et acte de profession de foi.
Resumo:
Le mouvement de la marche est un processus essentiel de l'activité humaine et aussi le résultat de nombreuses interactions collaboratives entre les systèmes neurologiques, articulaires et musculo-squelettiques fonctionnant ensemble efficacement. Ceci explique pourquoi une analyse de la marche est aujourd'hui de plus en plus utilisée pour le diagnostic (et aussi la prévention) de différents types de maladies (neurologiques, musculaires, orthopédique, etc.). Ce rapport présente une nouvelle méthode pour visualiser rapidement les différentes parties du corps humain liées à une possible asymétrie (temporellement invariante par translation) existant dans la démarche d'un patient pour une possible utilisation clinique quotidienne. L'objectif est de fournir une méthode à la fois facile et peu dispendieuse permettant la mesure et l'affichage visuel, d'une manière intuitive et perceptive, des différentes parties asymétriques d'une démarche. La méthode proposée repose sur l'utilisation d'un capteur de profondeur peu dispendieux (la Kinect) qui est très bien adaptée pour un diagnostique rapide effectué dans de petites salles médicales car ce capteur est d'une part facile à installer et ne nécessitant aucun marqueur. L'algorithme que nous allons présenter est basé sur le fait que la marche saine possède des propriétés de symétrie (relativement à une invariance temporelle) dans le plan coronal.
Resumo:
The research work which was carried out to characterization of wastes from natural rubber and rubber wood processing industries and their utilization for biomethanation. Environmental contamination is an inevitable consequence of human activity. The liquid and solid wastes from natural rubber based industries were: characterized and their use for the production of biogas investigated with a view to conserve conventional energy, and to mitigate environmental degradation.Rubber tree (flevea brasiliensis Muell. Arg.), is the most important commercial source of natural rubber and in india. Recently, pollution from the rubber processing factories has become very serious due to the introduction of modern methods and centralized group processing practices.The possibility of the use of spent slurry as organic manure is discussed.l0 percent level of PSD, the activity of cellulolytic, acid producing,proteolytic, lipolytic and methanogenic bacteria were more in the middle stage of methanogenesis.the liquid wastes from rubber processing used as diluents in combination with PSD, SPE promoted more biogas production with high methane content in the gas.The factors that favour methane production like TS, VS, cellulose and hemicellulose degradation were favoured in this treatment which led to higher methane biogenesis.The results further highlight ways and means to use agricultural wastes as alternative sources of energy.
Resumo:
The research work which was carried out to characterization of wastes from natural rubber and rubber wood processing industries and their utilization for biomethanation. Environmental contamination is an inevitable consequence of human activity. The liquid and solid wastes from natural rubber based industries were: characterized and their use for the production of biogas investigated with a view to conserve conventional energy, and to mitigate environmental degradation.Rubber tree (flevea brasiliensis Muell. Arg.), is the most important commercial source of natural rubber and in india. Recently, pollution from the rubber processing factories has become very serious due to the introduction of modern methods and centralized group processing practices.The possibility of the use of spent slurry as organic manure is discussed.l0 percent level of PSD, the activity of cellulolytic, acid producing,proteolytic, lipolytic and methanogenic bacteria were more in the middle stage of methanogenesis.the liquid wastes from rubber processing used as diluents in combination with PSD, SPE promoted more biogas production with high methane content in the gas.The factors that favour methane production like TS, VS, cellulose and hemicellulose degradation were favoured in this treatment which led to higher methane biogenesis.The results further highlight ways and means to use agricultural wastes as alternative sources of energy.
Resumo:
Lack of a valid shrimp cell line has been hampering the progress of research on shrimp viruses. One of the reasons identified was the absence of an appropriate medium which would satisfy the requirements of the cells in vitro. We report the first attempt to formulate an exclusive shrimp cell culture medium (SCCM) based on the haemolymph components of Penaeus monodon prepared in isosmotic seawater having 27 % salinity. The SCCM is composed of 22 amino acids, 4 sugars, 6 vitamins, cholesterol, FBS, phenol red, three antibiotics, potassium dihydrogen phosphate and di-sodium hydrogen phosphate at pH 6.8–7.2. Osmolality was adjusted to 720 ± 10 mOsm kg-1 and temperature of incubation was 25 8C. The most appropriate composition was finally selected based on the extent of attachment of cells and their proliferation by visual observation. Metabolic activity of cultured cells was measured by MTT assay and compared with that in L-15 (29), modified L-15 and Grace’s insect medium, and found better performance in SCCM especially for lymphoid cells with 107 % increase in activity and 85 ± 9 days of longevity. The cells from ovary and lymphoid organs were passaged twice using the newly designed shrimp cell dissociation ‘‘cocktail’’.
Resumo:
Routine activity theory introduced by Cohen& Felson in 1979 states that criminal acts are caused due to the presenceof criminals, vic-timsand the absence of guardians in time and place. As the number of collision of these elements in place and time increases, criminal acts will also increase even if the number of criminals or civilians remains the same within the vicinity of a city. Street robbery is a typical example of routine ac-tivity theory and the occurrence of which can be predicted using routine activity theory. Agent-based models allow simulation of diversity among individuals. Therefore agent based simulation of street robbery can be used to visualize how chronological aspects of human activity influence the incidence of street robbery.The conceptual model identifies three classes of people-criminals, civilians and police with certain activity areas for each. Police exist only as agents of formal guardianship. Criminals with a tendency for crime will be in the search for their victims. Civilians without criminal tendencycan be either victims or guardians. In addition to criminal tendency, each civilian in the model has a unique set of characteristicslike wealth, employment status, ability for guardianship etc. These agents are subjected to random walk through a street environment guided by a Q –learning module and the possible outcomes are analyzed
Resumo:
Solid waste generation is a natural consequence of human activity and is increasing along with population growth, urbanization and industrialization. Improper disposal of the huge amount of solid waste seriously affects the environment and contributes to climate change by the release of greenhouse gases. Practicing anaerobic digestion (AD) for the organic fraction of municipal solid waste (OFMSW) can reduce emissions to environment and thereby alleviate the environmental problems together with production of biogas, an energy source, and digestate, a soil amendment. The amenability of substrate for biogasification varies from substrate to substrate and different environmental and operating conditions such as pH, temperature, type and quality of substrate, mixing, retention time etc. Therefore, the purpose of this research work is to develop feasible semi-dry anaerobic digestion process for the treatment of OFMSW from Kerala, India for potential energy recovery and sustainable waste management. This study was carried out in three phases in order to reach the research purpose. In the first phase, batch study of anaerobic digestion of OFMSW was carried out for 100 days at 32°C (mesophilic digestion) for varying substrate concentrations. The aim of this study was to obtain the optimal conditions for biogas production using response surface methodology (RSM). The parameters studied were initial pH, substrate concentration and total organic carbon (TOC). The experimental results showed that the linear model terms of initial pH and substrate concentration and the quadratic model terms of the substrate concentration and TOC had significant individual effect (p < 0.05) on biogas yield. However, there was no interactive effect between these variables (p > 0.05). The optimum conditions for maximizing the biogas yield were a substrate concentration of 99 g/l, an initial pH of 6.5 and TOC of 20.32 g/l. AD of OFMSW with optimized substrate concentration of 99 g/l [Total Solid (TS)-10.5%] is a semi-dry digestion system .Under the optimized condition, the maximum biogas yield was 53.4 L/kg VS (volatile solid).. In the second phase, semi-dry anaerobic digestion of organic solid wastes was conducted for 45 days in a lab-scale batch experiment for substrate concentration of 100 g/l (TS-11.2%) for investigating the start-up performances under thermophilic condition (50°C). The performance of the reactor was evaluated by measuring the daily biogas production and calculating the degradation of total solids and the total volatile solids. The biogas yield at the end of the digestion was 52.9 L/kg VS for the substrate concentration of 100 g/l. About 66.7% of volatile solid degradation was obtained during the digestion. A first order model based on the availability of substrate as the limiting factor was used to perform the kinetic studies of batch anaerobic digestion system. The value of reaction rate constant, k, obtained was 0.0249 day-1. A laboratory bench scale reactor with a capacity of 36.8 litres was designed and fabricated to carry out the continuous anaerobic digestion of OFMSW in the third phase. The purpose of this study was to evaluate the performance of the digester at total solid concentration of 12% (semi-dry) under mesophlic condition (32°C). The digester was operated with different organic loading rates (OLRs) and constant retention time. The performance of the reactor was evaluated using parameters such as pH, volatile fatty acid (VFA), alkalinity, chemical oxygen demand (COD), TOC and ammonia-N as well as biogas yield. During the reactor’s start-up period, the process is stable and there is no inhibition occurred and the average biogas production was 14.7 L/day. The reactor was fed in continuous mode with different OLRs (3.1,4.2 and 5.65 kg VS/m3/d) at constant retention time of 30 days. The highest volatile solid degradation of 65.9%, with specific biogas production of 368 L/kg VS fed was achieved with OLR of 3.1 kg VS/m3/d. Modelling and simulation of anaerobic digestion of OFMSW in continuous operation is done using adapted Anaerobic Digestion Model No 1 (ADM1).The proposed model, which has 34 dynamic state variables, considers both biochemical and physicochemical processes and contains several inhibition factors including three gas components. The number of processes considered is 28. The model is implemented in Matlab® version 7.11.0.584(R2010b). The model based on adapted ADM1 was tested to simulate the behaviour of a bioreactor for the mesophilic anaerobic digestion of OFMSW at OLR of 3.1 kg VS/m3/d. ADM1 showed acceptable simulating results.
Resumo:
Little is known about the bacterial ecology of evaporative salt-mining sites (salterns) of which Teguidda-n-Tessoumt at the fringe of the West-African Saharan desert in Niger is a spectacular example with its many-centuries-old and very colorful evaporation ponds. During the different enrichment steps of the salt produced as a widely traded feed supplement for cattle, animal manure is added to the crude brine, which is then desiccated and repeatedly crystallized. This study describes the dominant Bacteria and Archaea communites in the brine from the evaporation ponds and the soil from the mine, which were determined by PCR-DGGE of 16S rDNA. Correspondence analysis of the DGGE-community fingerprints revealed a change in community structure of the brine samples during the sequential evaporation steps which was, however, unaffected by the brine's pH and electric conductivity (EC). The Archaea community was dominated by a phylogenetically diverse group of methanogens, while the Bacteria community was dominated by gamma proteobacteria. Microorganisms contained in the purified salt product have the potential to be broadly disseminated and are fed to livestock across the region. In this manner, the salt mines represent an intriguing example of long-term human activity that has contributed to the continual selection, cultivation, and dissemination of cosmopolitan microorganisms.
Resumo:
Context awareness, dynamic reconfiguration at runtime and heterogeneity are key characteristics of future distributed systems, particularly in ubiquitous and mobile computing scenarios. The main contributions of this dissertation are theoretical as well as architectural concepts facilitating information exchange and fusion in heterogeneous and dynamic distributed environments. Our main focus is on bridging the heterogeneity issues and, at the same time, considering uncertain, imprecise and unreliable sensor information in information fusion and reasoning approaches. A domain ontology is used to establish a common vocabulary for the exchanged information. We thereby explicitly support different representations for the same kind of information and provide Inter-Representation Operations that convert between them. Special account is taken of the conversion of associated meta-data that express uncertainty and impreciseness. The Unscented Transformation, for example, is applied to propagate Gaussian normal distributions across highly non-linear Inter-Representation Operations. Uncertain sensor information is fused using the Dempster-Shafer Theory of Evidence as it allows explicit modelling of partial and complete ignorance. We also show how to incorporate the Dempster-Shafer Theory of Evidence into probabilistic reasoning schemes such as Hidden Markov Models in order to be able to consider the uncertainty of sensor information when deriving high-level information from low-level data. For all these concepts we provide architectural support as a guideline for developers of innovative information exchange and fusion infrastructures that are particularly targeted at heterogeneous dynamic environments. Two case studies serve as proof of concept. The first case study focuses on heterogeneous autonomous robots that have to spontaneously form a cooperative team in order to achieve a common goal. The second case study is concerned with an approach for user activity recognition which serves as baseline for a context-aware adaptive application. Both case studies demonstrate the viability and strengths of the proposed solution and emphasize that the Dempster-Shafer Theory of Evidence should be preferred to pure probability theory in applications involving non-linear Inter-Representation Operations.