593 resultados para Locating payload
Resumo:
This thesis, entitled, "Where's Albania? Staking Out the Politics of the Real and Reality in Documentary Cinema," charts the documentary tradition's path from its first incarnations, as filmed travelogue or ethnographic study, for example, right through to its development as a form acting as an objective observer, reflexive commentator, and finally, as a postmodern hybrid. This thesis begins by locating the documentary tradition's origins in realism. Foregrounding documentary cinema as a realist style is important in that it is a contention that spans this entire study. After working through the numerous modes of documentary as outlined by Bill Nichols, I suggest the documentary is often best understood as a hybrid form drawing on numerous modes and conventions. This argument permits my study to make a shift into postmodern theory, wherein I examine postmodernism's relationship to the documentary both as being influenced by it, but also as subsequently forcing documentary cinema to look back at itself and reevaluate the claims it has made in the past, and how postmodernism has drawn these claims to the surface of debate. My thesis concludes with a study of the mockumentary. This analysis confirms the link between postmodernism and documentary, but perhaps more importantly, this analysis investigates postmodemism's critique of the image and representation in general, two elements historically linked to documentary cinema's success as "truth teller."
Resumo:
We study the dynamics of a game-theoretic network formation model that yields large-scale small-world networks. So far, mostly stochastic frameworks have been utilized to explain the emergence of these networks. On the other hand, it is natural to seek for game-theoretic network formation models in which links are formed due to strategic behaviors of individuals, rather than based on probabilities. Inspired by Even-Dar and Kearns (2007), we consider a more realistic model in which the cost of establishing each link is dynamically determined during the course of the game. Moreover, players are allowed to put transfer payments on the formation of links. Also, they must pay a maintenance cost to sustain their direct links during the game. We show that there is a small diameter of at most 4 in the general set of equilibrium networks in our model. Unlike earlier model, not only the existence of equilibrium networks is guaranteed in our model, but also these networks coincide with the outcomes of pairwise Nash equilibrium in network formation. Furthermore, we provide a network formation simulation that generates small-world networks. We also analyze the impact of locating players in a hierarchical structure by constructing a strategic model, where a complete b-ary tree is the seed network.
Resumo:
The description of the image is "(6) Majestically Grand - the Falls from the 'Maid of the Mist,' Niagara, U.S.A.". The reverse of the image reads "You are on the deck of the small but sturdy little steamer that runs along near the foot of the falls. At this moment you are pretty nearly mid-stream, looking south. The American shore are up over your left shoulder. That tall, dark cliff at the extreme left of what you see is Goat Island. The people up there outlined against the sky look like dolls and no wonder; they are more than 160 feet above your head. Some of them are looking off over the unspeakable grandeurs of the Horseshoe Fall there at the right; some are without doubt looking down at the very boat and remarking that the passengers look like dolls. It is an awesome experience to go so near that never-ceasing downpour of waters from the sky. The air is full of the roar and iridescent spray, and it seems as if the boat must be drawn in under the overwhelming floods never to rise again. Yet, curiously enough, the river right around the boat is not so madly excited as you might expect. It seems more like some great creature, dazed, bewildered, stunned by some incredible experience and not yet quite aware of what has happened. (When it gets down into the Whirlpool Rapids, two miles below here, it is dramatically alive to its situation!) The gigantic curve of the cliffs, reaching in up-stream straight ahead, makes a contour line of over 3000 feet before it comes up against the Canadian banks on the west (right). Geologists say that the Falls ages ago must have been at least seven miles farther down the river (behind you) and have gradually won their way back. Even now the curve of the Horseshoe is worn away from two to four feet in a year. No wonder; 12, 000, 000 cubic feet of water (about 375, 000 tons) sweep over the rocks in one minute, and the same the next minute and the next and the next. See Niagara through the Stereoscope, with special maps locating all the landmarks about the Falls.
Resumo:
We study the problem of locating two public goods for a group of agents with single-peaked preferences over an interval. An alternative specifies a location for each public good. In Miyagawa (1998), each agent consumes only his most preferred public good without rivalry. We extend preferences lexicographically and characterize the class of single-peaked preference rules by Pareto-optimality and replacement-domination. This result is considerably different from the corresponding characterization by Miyagawa (2001a).
Resumo:
Les étudiants gradués et les professeurs (les chercheurs, en général), accèdent, passent en revue et utilisent régulièrement un grand nombre d’articles, cependant aucun des outils et solutions existants ne fournit la vaste gamme de fonctionnalités exigées pour gérer correctement ces ressources. En effet, les systèmes de gestion de bibliographie gèrent les références et les citations, mais ne parviennent pas à aider les chercheurs à manipuler et à localiser des ressources. D'autre part, les systèmes de recommandation d’articles de recherche et les moteurs de recherche spécialisés aident les chercheurs à localiser de nouvelles ressources, mais là encore échouent dans l’aide à les gérer. Finalement, les systèmes de gestion de contenu d'entreprise offrent les fonctionnalités de gestion de documents et des connaissances, mais ne sont pas conçus pour les articles de recherche. Dans ce mémoire, nous présentons une nouvelle classe de systèmes de gestion : système de gestion et de recommandation d’articles de recherche. Papyres (Naak, Hage, & Aïmeur, 2008, 2009) est un prototype qui l’illustre. Il combine des fonctionnalités de bibliographie avec des techniques de recommandation d’articles et des outils de gestion de contenu, afin de fournir un ensemble de fonctionnalités pour localiser les articles de recherche, manipuler et maintenir les bibliographies. De plus, il permet de gérer et partager les connaissances relatives à la littérature. La technique de recommandation utilisée dans Papyres est originale. Sa particularité réside dans l'aspect multicritère introduit dans le processus de filtrage collaboratif, permettant ainsi aux chercheurs d'indiquer leur intérêt pour des parties spécifiques des articles. De plus, nous proposons de tester et de comparer plusieurs approches afin de déterminer le voisinage dans le processus de Filtrage Collaboratif Multicritère, de telle sorte à accroître la précision de la recommandation. Enfin, nous ferons un rapport global sur la mise en œuvre et la validation de Papyres.
Resumo:
Cette thèse est une enquête épistémologique qui s’interroge sur la persistance de « l’éther » dans le champ de la technologie. De façon générale, le mot « éther » évoque un modèle conceptuel de la physique pré-einsteinienne, celui d’un milieu invisible permettant la propagation de la lumière et des ondes électromagnétiques. Or, ce n’est là qu’une des figures de l’éther. Dans plusieurs mythologies et cosmogonies anciennes, le nom « éther » désignait le feu originel contenu dans les plus hautes régions célestes. Aristote nommait « éther », par exemple, le « cinquième être », ou « cinquième élément ». La chimie a aussi sa propre figure de l’éther où il donne son nom à un composé chimique, le C4H10O, qui a été utilisé comme premier anesthésiant général à la fin du XIXe siècle. L’apparition soutenue dans l’histoire de ces figures disparates de l’éther, qui a priori ne semblent pas entretenir de relation entre elles, est pour nous la marque de la persistance de l’éther. Nous défendons ici l’argument selon lequel cette persistance ne se résume pas à la constance de l’attribution d’un mot ou d’un nom à différents phénomènes dans l’histoire, mais à l’actualisation d’une même signature, éthérogène. À l’invitation d’Agamben et en nous inspirant des travaux de Nietzsche et Foucault sur l’histoire-généalogie et ceux de Derrida sur la déconstruction, notre thèse amorce une enquête historique motivée par un approfondissement d’une telle théorisation de la signature. Pour y parvenir, nous proposons de placer l’éther, ou plutôt la signature-éther, au cœur de différentes enquêtes historiques préoccupées par le problème de la technologie. En abordant sous cet angle des enjeux disparates – la légitimation des savoirs narratifs, la suspension des sens, la pseudoscience et la magie, les révolutions de l’information, l’obsession pour le sans-fil, l’économie du corps, la virtualisation de la communication, etc. –, nous proposons dans cette thèse autant d’amorces pour une histoire autre, une contre-histoire.
Resumo:
La maladie des artères périphériques (MAP) se manifeste par une réduction (sténose) de la lumière de l’artère des membres inférieurs. Elle est causée par l’athérosclérose, une accumulation de cellules spumeuses, de graisse, de calcium et de débris cellulaires dans la paroi artérielle, généralement dans les bifurcations et les ramifications. Par ailleurs, la MAP peut être causée par d`autres facteurs associés comme l’inflammation, une malformation anatomique et dans de rares cas, au niveau des artères iliaques et fémorales, par la dysplasie fibromusculaire. L’imagerie ultrasonore est le premier moyen de diagnostic de la MAP. La littérature clinique rapporte qu’au niveau de l’artère fémorale, l’écho-Doppler montre une sensibilité de 80 à 98 % et une spécificité de 89 à 99 % à détecter une sténose supérieure à 50 %. Cependant, l’écho-Doppler ne permet pas une cartographie de l’ensemble des artères des membres inférieurs. D’autre part, la reconstruction 3D à partir des images échographiques 2D des artères atteintes de la MAP est fortement opérateur dépendant à cause de la grande variabilité des mesures pendant l’examen par les cliniciens. Pour planifier une intervention chirurgicale, les cliniciens utilisent la tomodensitométrie (CTA), l’angiographie par résonance magnétique (MRA) et l’angiographie par soustraction numérique (DSA). Il est vrai que ces modalités sont très performantes. La CTA montre une grande précision dans la détection et l’évaluation des sténoses supérieures à 50 % avec une sensibilité de 92 à 97 % et une spécificité entre 93 et 97 %. Par contre, elle est ionisante (rayon x) et invasive à cause du produit de contraste, qui peut causer des néphropathies. La MRA avec injection de contraste (CE MRA) est maintenant la plus utilisée. Elle offre une sensibilité de 92 à 99.5 % et une spécificité entre 64 et 99 %. Cependant, elle sous-estime les sténoses et peut aussi causer une néphropathie dans de rares cas. De plus les patients avec stents, implants métalliques ou bien claustrophobes sont exclus de ce type d`examen. La DSA est très performante mais s`avère invasive et ionisante. Aujourd’hui, l’imagerie ultrasonore (3D US) s’est généralisée surtout en obstétrique et échocardiographie. En angiographie il est possible de calculer le volume de la plaque grâce à l’imagerie ultrasonore 3D, ce qui permet un suivi de l’évolution de la plaque athéromateuse au niveau des vaisseaux. L’imagerie intravasculaire ultrasonore (IVUS) est une technique qui mesure ce volume. Cependant, elle est invasive, dispendieuse et risquée. Des études in vivo ont montré qu’avec l’imagerie 3D-US on est capable de quantifier la plaque au niveau de la carotide et de caractériser la géométrie 3D de l'anastomose dans les artères périphériques. Par contre, ces systèmes ne fonctionnent que sur de courtes distances. Par conséquent, ils ne sont pas adaptés pour l’examen de l’artère fémorale, à cause de sa longueur et de sa forme tortueuse. L’intérêt pour la robotique médicale date des années 70. Depuis, plusieurs robots médicaux ont été proposés pour la chirurgie, la thérapie et le diagnostic. Dans le cas du diagnostic artériel, seuls deux prototypes sont proposés, mais non commercialisés. Hippocrate est le premier robot de type maitre/esclave conçu pour des examens des petits segments d’artères (carotide). Il est composé d’un bras à 6 degrés de liberté (ddl) suspendu au-dessus du patient sur un socle rigide. À partir de ce prototype, un contrôleur automatisant les déplacements du robot par rétroaction des images échographiques a été conçu et testé sur des fantômes. Le deuxième est le robot de la Colombie Britannique conçu pour les examens à distance de la carotide. Le mouvement de la sonde est asservi par rétroaction des images US. Les travaux publiés avec les deux robots se limitent à la carotide. Afin d’examiner un long segment d’artère, un système robotique US a été conçu dans notre laboratoire. Le système possède deux modes de fonctionnement, le mode teach/replay (voir annexe 3) et le mode commande libre par l’utilisateur. Dans ce dernier mode, l’utilisateur peut implémenter des programmes personnalisés comme ceux utilisés dans ce projet afin de contrôler les mouvements du robot. Le but de ce projet est de démontrer les performances de ce système robotique dans des conditions proches au contexte clinique avec le mode commande libre par l’utilisateur. Deux objectifs étaient visés: (1) évaluer in vitro le suivi automatique et la reconstruction 3D en temps réel d’une artère en utilisant trois fantômes ayant des géométries réalistes. (2) évaluer in vivo la capacité de ce système d'imagerie robotique pour la cartographie 3D en temps réel d'une artère fémorale normale. Pour le premier objectif, la reconstruction 3D US a été comparée avec les fichiers CAD (computer-aided-design) des fantômes. De plus, pour le troisième fantôme, la reconstruction 3D US a été comparée avec sa reconstruction CTA, considéré comme examen de référence pour évaluer la MAP. Cinq chapitres composent ce mémoire. Dans le premier chapitre, la MAP sera expliquée, puis dans les deuxième et troisième chapitres, l’imagerie 3D ultrasonore et la robotique médicale seront développées. Le quatrième chapitre sera consacré à la présentation d’un article intitulé " A robotic ultrasound scanner for automatic vessel tracking and three-dimensional reconstruction of B-mode images" qui résume les résultats obtenus dans ce projet de maîtrise. Une discussion générale conclura ce mémoire. L’article intitulé " A 3D ultrasound imaging robotic system to detect and quantify lower limb arterial stenoses: in vivo feasibility " de Marie-Ange Janvier et al dans l’annexe 3, permettra également au lecteur de mieux comprendre notre système robotisé. Ma contribution dans cet article était l’acquisition des images mode B, la reconstruction 3D et l’analyse des résultats pour le patient sain.
Resumo:
Background: An important challenge in conducting social research of specific relevance to harm reduction programs is locating hidden populations of consumers of substances like cannabis who typically report few adverse or unwanted consequences of their use. Much of the deviant, pathologized perception of drug users is historically derived from, and empirically supported, by a research emphasis on gaining ready access to users in drug treatment or in prison populations with higher incidence of problems of dependence and misuse. Because they are less visible, responsible recreational users of illicit drugs have been more difficult to study. Methods: This article investigates Respondent Driven Sampling (RDS) as a method of recruiting experienced marijuana users representative of users in the general population. Based on sampling conducted in a multi-city study (Halifax, Montreal, Toronto, and Vancouver), and compared to samples gathered using other research methods, we assess the strengths and weaknesses of RDS recruitment as a means of gaining access to illicit substance users who experience few harmful consequences of their use. Demographic characteristics of the sample in Toronto are compared with those of users in a recent household survey and a pilot study of Toronto where the latter utilized nonrandom self-selection of respondents. Results: A modified approach to RDS was necessary to attain the target sample size in all four cities (i.e., 40 'users' from each site). The final sample in Toronto was largely similar, however, to marijuana users in a random household survey that was carried out in the same city. Whereas well-educated, married, whites and females in the survey were all somewhat overrepresented, the two samples, overall, were more alike than different with respect to economic status and employment. Furthermore, comparison with a self-selected sample suggests that (even modified) RDS recruitment is a cost-effective way of gathering respondents who are more representative of users in the general population than nonrandom methods of recruitment ordinarily produce. Conclusions: Research on marijuana use, and other forms of drug use hidden in the general population of adults, is important for informing and extending harm reduction beyond its current emphasis on 'at-risk' populations. Expanding harm reduction in a normalizing context, through innovative research on users often overlooked, further challenges assumptions about reducing harm through prohibition of drug use and urges consideration of alternative policies such as decriminalization and legal regulation.
Resumo:
Notre mémoire cherche à étudier la poétique de l’espace qui articule le roman Nadie me verá llorar publié en 1999 par l’écrivaine mexicaine contemporaine Cristina Rivera Garza. En inscrivant sa démarche romanesque dans la perspective postmoderne d’une nouvelle histoire culturelle, Rivera Garza dépeint un moment fondamental de l’histoire du Mexique allant de la fin du Porfiriato jusqu’aux lendemains de la Révolution mexicaine en l’incarnant dans le destin des laissés pour compte. Ce faisant, elle présente un texte où une multitude de récits se fondent et se confondent en un tout complexe où sont mis en perspective une série d’espaces de nature ambigüe. Notre analyse tâche d’expliquer cette interrelation des chronotopes de l’Histoire et du privé en tenant compte de son impact sur la structure narrative. En décrivant les différentes modalités des espaces évoqués dans l’oeuvre, nous nous intéressons au type de relations qui unit l’ensemble de ces espaces au grand temps de l’Histoire officielle mexicaine en démontrant que tous ces éléments sont régis par une politique hétérotopique qui lézarde le fini du discours officiel en y insérant un ensemble d’éléments qui le subvertissent. L’identification et la description de cette stratégie discursive est pertinente dans la mesure où elle offre un éclairage autre sur le roman et semble caractériser l’ensemble des oeuvres de Cristina Rivera Garza.
Resumo:
Model development for selection of location for refinery in India and identification of characteristics to be looked into when configuring it and to develop models for integrated supply chain planning for a refinery. Locating and removing inbound, internal and outbound logistic problems in an existing refinery and overall design of a logistic information system for a refinery are the main objectives of the study. A brief description of supply chain management (SCM), elements of SCM and their significance, logistics cost in petroleum industry and its impacts, and dynamics of petroleum its logistic practices are also to be presented. Scope of application of SCM in petroleum refinery will also be discussed. A review of the investigations carried out by earlier researches in the area of supply chain management in general and with specific reference to petroleum refining.
Resumo:
The present study on the characterization of probability distributions using the residual entropy function. The concept of entropy is extensively used in literature as a quantitative measure of uncertainty associated with a random phenomenon. The commonly used life time models in reliability Theory are exponential distribution, Pareto distribution, Beta distribution, Weibull distribution and gamma distribution. Several characterization theorems are obtained for the above models using reliability concepts such as failure rate, mean residual life function, vitality function, variance residual life function etc. Most of the works on characterization of distributions in the reliability context centers around the failure rate or the residual life function. The important aspect of interest in the study of entropy is that of locating distributions for which the shannon’s entropy is maximum subject to certain restrictions on the underlying random variable. The geometric vitality function and examine its properties. It is established that the geometric vitality function determines the distribution uniquely. The problem of averaging the residual entropy function is examined, and also the truncated form version of entropies of higher order are defined. In this study it is established that the residual entropy function determines the distribution uniquely and that the constancy of the same is characteristics to the geometric distribution
Resumo:
We present our recent achievements in the growing and optical characterization of KYb(WO4)2 (hereafter KYbW) crystals and demonstrate laser operation in this stoichiometric material. Single crystals of KYbW with optimal crystalline quality have been grown by the top-seeded-solution growth slow-cooling method. The optical anisotropy of this monoclinic crystal has been characterized, locating the tensor of the optical indicatrix and measuring the dispersion of the principal values of the refractive indices as well as the thermo-optic coefficients. Sellmeier equations have been constructed valid in the visible and near-IR spectral range. Raman scattering has been used to determine the phonon energies of KYbW and a simple physical model is applied for classification of the lattice vibration modes. Spectroscopic studies (absorption and emission measurements at room and low temperature) have been carried out in the spectral region near 1 µm characteristic for the ytterbium transition. Energy positions of the Stark sublevels of the ground and the excited state manifolds have been determined and the vibronic substructure has been identified. The intrinsic lifetime of the upper laser level has been measured taking care to suppress the effect of reabsorption and the intrinsic quantum efficiency has been estimated. Lasing has been demonstrated near 1074 nm with 41% slope efficiency at room temperature using a 0.5 mm thin plate of KYbW. This laser material holds great promise for diode pumped high-power lasers, thin disk and waveguide designs as well as for ultrashort (ps/fs) pulse laser systems.
Resumo:
High energy materials are essential ingredients in both rocket and explosive formulations. These can be vulnerable due to maltreatment. During gulf war, several catastrophic accidents have been reported from their own payload munitions. The role of energetic binders here was to wrap the explosive formulations to convert it into insensitive munitions. With the aid of energetic binders, the explosive charges are not only protected from tragic accidents due to fire, bullet impact, adjacent detonation, unplanned transportation, but also form total energy output presumption. The use of energetic binders in rocket propellants and explosive charges has been increased after the Second World War. Inert binders in combination with energetic materials, performed well as binders but they diluted the final formulation. Obviously the total energy output was reduced. Currently, the research in the field of energetic polymers is an emerging area, since it plays crucial role in insensitive munitions. The present work emphasises on the synthesis and characterization of oxetanes, oxiranes and polyphosphazene based energetic polymers. The thesis is structured into six chapters. First part of chapter 1 deals with brief history of energetic polymers. The second part describes a brief literature survey of energetic polymers based on oxetanes and oxiranes. Third and fourth parts deal with energetic plasticizers and energetic polyphosphazenes. Finally, the fifth part deals with the various characterization techniques adopted for the current study and sixth part includes objectives of the present work.
Resumo:
Cache look up is an integral part of cooperative caching in ad hoc networks. In this paper, we discuss a cooperative caching architecture with a distributed cache look up protocol which relies on a virtual backbone for locating and accessing data within a cooperate cache. Our proposal consists of two phases: (i) formation of a virtual backbone and (ii) the cache look up phase. The nodes in a Connected Dominating Set (CDS) form the virtual backbone. The cache look up protocol makes use of the nodes in the virtual backbone for effective data dissemination and discovery. The idea in this scheme is to reduce the number of nodes involved in cache look up process, by constructing a CDS that contains a small number of nodes, still having full coverage of the network. We evaluated the effect of various parameter settings on the performance metrics such as message overhead, cache hit ratio and average query delay. Compared to the previous schemes the proposed scheme not only reduces message overhead, but also improves the cache hit ratio and reduces the average delay
Resumo:
As the technologies for the fabrication of high quality microarray advances rapidly, quantification of microarray data becomes a major task. Gridding is the first step in the analysis of microarray images for locating the subarrays and individual spots within each subarray. For accurate gridding of high-density microarray images, in the presence of contamination and background noise, precise calculation of parameters is essential. This paper presents an accurate fully automatic gridding method for locating suarrays and individual spots using the intensity projection profile of the most suitable subimage. The method is capable of processing the image without any user intervention and does not demand any input parameters as many other commercial and academic packages. According to results obtained, the accuracy of our algorithm is between 95-100% for microarray images with coefficient of variation less than two. Experimental results show that the method is capable of gridding microarray images with irregular spots, varying surface intensity distribution and with more than 50% contamination