960 resultados para Driedblood spots
Resumo:
Letter to S.D. Woodruff regarding resolution #5 of the Board of Directors. Mr. Woodruff is requested to take steps to ensure the early completion of the Port Dalhousie and Thorold macadamized road. This is signed by James McCoppen, president. The letter is stained and worn torn in spots. This does not affect the text, July 11, 1857.
Resumo:
Cette thése a été réalisée dans le cadre d'une cotutelle avec l'Institut National Polytechnique de Grenoble (France). La recherche a été effectuée au sein des laboratoires de vision 3D (DIRO, UdM) et PERCEPTION-INRIA (Grenoble).
Resumo:
Nous présentons un modèle pour l’irradiance solaire spectrale entre 200 et 400 nm. Celui-ci est une extension d’un modèle d’irradiance solaire totale basé sur la simulation de la fragmentation et l’érosion des taches qui utilise, en entrée, les positions et aires des taches observées pour chaque pas de temps d’une journée. L’émergence des taches sur la face du Soleil opposée à la Terre est simulée par une injection stochastique. Le modèle simule ensuite leur désintégration, qui produit des taches plus petites et des facules. Par la suite, l’irradiance est calculée en sommant la contribution des taches, des facules et du Soleil inactif. Les paramètres libres du modèle sont ajustés en comparant les séquences temporelles produites avec les données provenant de divers satellites s’étalant sur trois cycles d’activité. Le modèle d’irradiance spectrale, quant à lui, a été obtenu en modifiant le calcul de la contribution des taches et des facules, ainsi que celle du Soleil inactif, afin de tenir compte de leur dépendance spectrale. Le flux de la photosphère inactive est interpolé sur un spectre synthétique non magnétisé, alors que le contraste des taches est obtenu en calculant le rapport du flux provenant d’un spectre synthétique représentatif des taches et de celui provenant du spectre représentatif du Soleil inactif. Le contraste des facules est quand à lui calculé avec une procédure simple d’inversion de corps noir. Cette dernière nécessite l’utilisation d’un profil de température des facules obtenu à l’aide de modèles d’atmosphère. Les données produites avec le modèle d’irradiance spectrale sont comparées aux observations de SOLSTICE sur UARS. L’accord étant peu satisfaisant, particulièrement concernant le niveau d’irradiance minimal ainsi que l’amplitude des variations, des corrections sont appliquées sur le flux du Soleil inactif, sur le profil de température des facules, ainsi qu’à la dépendance centre-bord du contraste des facules. Enfin, un profil de température des facules est reconstruit empiriquement en maximisant l’accord avec les observations grâce à un algorithme génétique. Il est utilisé afin de reconstruire les séquences temporelles d’irradiance jusqu’en 1874 à des longueurs d’ondes d’intérêt pour la chimie et la dynamique stratosphérique.
Resumo:
Cette recherche explore le Théâtre-forum comme support méthodologie d’un espace délibératif pour discuter des tensions sociales liées à la coprésence au centre-ville de Montréal entre des personnes en situation de rue et leurs voisins domiciliés. L’argument au cœur de la problématique repose sur les taches aveugles de la délibération: dans les forums de quartier, les inégalités sociales se traduisent par des inégalités délibératives au désavantage des personnes sans adresse en défaut d’autorité épistémologique en raison de leur statut; ces inégalités délibératives reproduisent le déni de reconnaissance qui traverse l’expérience relationnelle de ces personnes. Le Théâtre-forum est issu du Théâtre de l’opprimé : une pratique d’intervention théâtrale conçue par Augusto Boal durant la dictature au Brésil comme dispositif émancipateur pour les groupes opprimés. Le Joker incite les membres de l’auditoire à devenir Spect-acteurs par les remplacements du protagoniste, et ce, afin de surmonter son oppression. Ainsi, cette projection dans les chaussures du protagoniste-itinérant facilite-t-elle ce passage de l’indignité à la reconnaissance pour les personnes en situation de rue? L’échange théâtral peut-il ouvrir la voie vers la reconstruction d’un lien intersubjectif entre personnes sans adresse et domiciliés, intersubjectivité qui au cœur-même des vertus délibératives et des principes fondateurs défendus par les théoriciens de la reconnaissance comme Honneth et Renault?
Resumo:
On retrouve dans le complexe Chrosomus eos-neogaeus une forme cybride ayant le génome nucléaire de C. eos et le génome mitochondrial de C. neogaeus. Ce modèle particulier fournit une occasion unique d’étudier l’influence d’une mitochondrie exogène sur le métabolisme et la physiologie d'organismes vivant en milieu naturel, et s'étant donc adaptés à cette situation cellulaire atypique. La mitochondrie jouant un rôle fondamental vital, nous nous attendons à ce que la présence d’une mitochondrie exogène chez la forme cybride ait un impact sur l’expression de son génome et du protéome qui en découle. L’objectif de ce projet est d’étudier les différences au niveau protéomique entre des individus C. eos purs (forme sauvage) et des cybrides provenant d'habitats similaires afin de faire ressortir au maximum les différences dues à la présence de mitochondries C. neogaeus chez la forme cybride. Pour ce faire, nous avons comparé les protéomes des formes cybride et sauvage en utilisant l'électrophorèse en deux dimensions. Un sous-groupe de protéines produisant un signal spécifique révélé par l’analyse comparative a été identifié et analysé par spectrométrie de masse (LC/MS). Les résultats indiquent que la présence de mitochondries C. neogaeus chez le cybride influence fortement la régulation génique chez ce dernier. De plus, les protéines identifiées apportent des pistes intéressantes supportant l'hypothèse que la présence de mitochondries C. neogaeus chez le cybride rendrait ce biotype plus résistant au froid que la forme sauvage.
Resumo:
Refus global, le recueil, n’est pas « Refus global », le texte rédigé par Paul-Émile Borduas et cosigné par 15 membres du groupe automatiste. Partant de cette distinction entre le recueil automatiste et son texte éponyme et du constat selon lequel la partie éclipse le tout dans le discours critique, cette thèse a pour objectif d’expliquer l’occultation du recueil dans l’histoire sociale et artistique québécoise. À partir de l’étude de la réception de 1948 à 2008, j’interroge la constitution du récit commun entourant l’œuvre, duquel le recueil est exclu. Il s’agit donc de mettre au jour les obstacles qui se sont présentés dans le parcours de réception du recueil, nuisant à la formation d’un discours unifié et cohérent à son sujet et l’empêchant de s’inscrire dans l’histoire. Dégagés de l’étude du corpus composé de 639 objets sémiotiques secondaires (OSS, selon le concept proposé par Brigitte Louichon), les obstacles à la réception du recueil relèvent à la fois de facteurs pragmatiques, telles la composition hétérogène de l’œuvre ou sa disponibilité; de facteurs institutionnels ou historiographiques, comme la disciplinarisation du champ culturel ou l’impact du récit de la Révolution tranquille sur l’histoire littéraire; et de facteurs humains, reposant sur le rôle des auteurs et de certains critiques dans l’accueil réservé à l’œuvre. Les différentes étapes de la réception sont ainsi considérées : de l’horizon d’attente (Jauss) à la réception productive (Link), en passant par la publication, les premières critiques, les rééditions, les lectures savantes, l’historicisation et l’entrée de l’œuvre dans la mémoire à titre de symbole ou d’hypotexte. Or, plutôt qu’à ce parcours de réception exemplaire, c’est son envers qui est interrogé ici, c’est-à-dire les difficultés et les déviations de la réception du recueil Refus global. Cette thèse est divisée en trois parties. La première, théorique et méthodologique, situe mon propos dans les domaines de l’histoire culturelle et des études de réception, et présente diverses considérations concernant la constitution du corpus et le traitement des données. La deuxième aborde l’horizon d’attente et la première réception, moment crucial pour la survie de l’œuvre, comme l’ont montré Hans Robert Jauss et Daniel Chartier. On y observe notamment l’effet de verrou (Cambron) qu’a le renvoi de Borduas sur la constitution du récit de réception, de même que les critères éthiques et esthétiques en fonction desquels s’est opérée la hiérarchisation des composantes du recueil. La troisième partie couvre la réception subséquente (1950-2008). À l’étude des obstacles empêchant l’intégration du recueil dans l’histoire s’ajoute alors l’étude des réceptions parallèles, parcellaires et autonomes dont a bénéficié Refus global pour survivre – ponctuellement et partiellement – en dehors du récit commun formé autour de « Refus global ». Avec les différentes catégories d’OSS (directs, indirects, hypertextuels, métacritiques et parcellaires), ces trois types de réception font partie des outils heuristiques développés dans le but d’expliquer la réception partielle dont a fait l’objet le recueil. Selon l’approche quantitative et environnementaliste de l’histoire culturelle, Refus global est envisagé comme un microcosme de la culture, dans lequel certaines œuvres sont retenues et d’autres négligées. L’analyse d’un corpus critique large et varié permet ainsi de saisir non seulement les phénomènes conduisant à la consécration du texte éponyme ou à l’oubli relatif du recueil, mais aussi les tendances critiques, les parutions marginales, les critiques isolées, etc. qui, enfouies dans les angles morts de la réception, offrent au recueil et à ses composantes des voies de contournement du discours dominant. En somme, l’étude de la réception du recueil Refus global a permis à la fois de déplacer la focalisation critique depuis « Refus global » vers Refus global, de développer des outils pour envisager la réception d’œuvres marginalisées et de mettre en évidence des critères privilégiés dans la constitution de l’histoire et de la mémoire culturelles québécoises depuis 1948.
Resumo:
Les études rhétoriques ont documenté la pertinence de la rhétorique présidentielle et le pouvoir du président de définir les enjeux publics par le discours. Cette recherche porte sur les pratiques rhétoriques par lesquelles l'ancien président mexicain Calderón a défini la lutte contre la drogue qui a caractérisé son administration. Je soutiens que Calderón a avancé une définition du problème de la drogue par des pratiques de définition telles que l'association, la dissociation et les symboles de condensation. Mon analyse 1) identifie les pratiques rhétoriques de définition qui ont caractérisé la lutte à la drogue de Calderón; 2) examine les implications de ces pratiques; et 3) aborde les limites auxquelles les politiciens font face en tentant de modifier des définitions préalablement avancées. En conclusion, j’explique comment les métaphores et les pratiques de définition de Calderón ont ouvert un espace rhétorique où les droits humains pouvaient être révoqués et la violence encouragée.
Resumo:
Cette thèse présente des reconstructions de l'irradiance totale et spectrale durant les 400 dernières années à l'aide des modèles pour l'irradiance totale et l'irradiance spectrale dans l'ultraviolet développés à l'Université de Montréal. Tous deux sont basés sur la simulation de l'émergence, de la fragmentation et de l'érosion des taches solaires, qui permet d'obtenir une distribution de l'aire des taches sombres et des facules brillantes en fonction du temps. Ces deux composantes sont principalement responsables de la variation de l'irradiance sur l'échelle de temps de la décennie, qui peut être calculée en sommant leur émissivité à celle de la photosphère inactive. La version améliorée du modèle d'irradiance solaire spectrale MOCASSIM inclut une extension de son domaine spectral entre 150 et 400 nm ainsi que de son domaine temporel, débutant originalement en 1874 et couvrant maintenant la période débutant en 1610 jusqu'au présent. Cela permet de reconstruire le spectre ultraviolet durant le minimum de Maunder et de le comparer à celui du minimum de 2009. Les conclusions tirées de cette étude spécifient que l'émissivité dans l'ultraviolet était plus élevée en 2009 que durant le minimum de Maunder, que le niveau de base de la photosphère non magnétisée contribuait pour environ les deux tiers de cette différence et que les structures magnétiques restantes étaient responsables pour le tiers restant. Le modèle d'irradiance totale a vu son domaine temporel étendu sur la même période et une composante représentant le réseau magnétique de façon réaliste y a été ajoutée. Il a été démontré que les observations des 30 dernières années ne sont bien reproduites qu'en incluant la composante du Soleil non magnétisé variable à long terme. Le processus d'optimisation des paramètres libres du modèle a été effectué en minimisant le carré de la somme de l'écart journalier entre les résultats des calculs et les données observées. Les trois composites disponibles, soit celui du PMOD (Physikalisch Meteorologisches Observatorium Davos), d'ACRIM (ACtive Radiometer Irradiance Monitor) et du IRMB (Institut Royal Météorologique de Belgique), ne sont pas en accord entre eux, en particulier au niveau des minima du cycle d'activité, et le modèle permet seulement de reproduire celui du PMOD avec exactitude lorsque la composante variable à long terme est proportionnelle au flux radio à 10.7 cm. Toutefois, en utilisant des polynômes de Lagrange pour représenter la variation du Soleil inactif, l'accord est amélioré pour les trois composites durant les minima, bien que les relations entre le niveau minimal de l'irradiance et la longueur du cycle précédent varient d'un cas à l'autre. Les résultats obtenus avec le modèle d'irradiance spectrale ont été utilisés dans une étude d'intercomparaison de la réponse de la photochimie stratosphérique à différentes représentations du spectre solaire. Les simulations en mode transitoire d'une durée de 10 jours ont été effectuées avec un spectre solaire constant correspondant soit à une période d'activité minimale ou à une période d'activité maximale. Ceci a permis d'évaluer la réponse de la concentration d'ozone à la variabilité solaire au cours d'un cycle et la différence entre deux minima. En plus de ceux de MOCASSIM, les spectres produits par deux modèles ont été utilisés (NRLSSI et MGNM) ainsi que les données de SIM et SOLSTICE/SORCE. La variabilité spectrale de chacun a été extraite et multipliée à un spectre de base représentant le minimum d'activité afin de simuler le spectre au maximum d'activité. Cela a été effectué dans le but d'isoler l'effet de la variabilité seule et d'exclure celui de la valeur absolue du spectre. La variabilité spectrale d'amplitude relativement élevée des observations de SORCE n'a pas provoqué l'inversion de la réponse de l'ozone à hautes altitudes obtenues par d'autres études, ce qui peut être expliqué par la nature même du modèle utilisé ainsi que par sa limite supérieure en altitude. Finalement, la réponse de l'ozone semble être à peu près proportionnelle à la variabilité de l'intégrale du flux pour lambda<241 nm. La comparaison des concentrations d'ozone obtenues avec les spectres originaux au minimum d'activité démontre que leur différence est du même ordre de grandeur que la variabilité entre le minimum et le maximum d'un cycle typique. Le problème du choix de la reconstruction de l'irradiance à utiliser pour les simulations climatiques dans le passé demeure non résolu.
Maurice Sand, un créateur fantastique méconnu : la transversalité, brisant d’une œuvre au 19e siècle
Resumo:
Sauf par des regards fugitifs et distraits sur son travail d’illustrateur et son théâtre de marionnettes, l’histoire culturelle et littéraire n’a en général retenu de Maurice Sand que son état de fils bien-aimé de la plus célèbre écrivaine du 19e siècle. Étudiée pour elle-même, son œuvre multidisciplinaire - qui allie peinture, dessin, illustration, théâtre, histoire de l’art, sciences naturelles - se propose pourtant avec cohérence, marque d’une création soutenue plutôt que du dilettantisme où son souvenir s’est incrusté. Maurice Sand apparaît alors comme un de ces individus situés aux interstices des récits majeurs de la littérature et des arts qui, bien qu’ayant figure de minores, amènent à des réflexions nuancées sur la constitution de ces récits. Explorer son cas permet ainsi de scruter de plus près les mécanismes de la méconnaissance qui a pu et peut encore affecter un créateur et une œuvre soumis aux arbitrages mémoriels. Discrets angles morts de l’histoire, certains de ces mécanismes jalonnent clairement son parcours et les aléas de sa trace posthume. D’une part le vaste corpus des études sur George Sand, notamment des écrits biographiques et autobiographiques, fait voir à l’œuvre le mode déformant de la constitution de la mémoire d’un être saisi à partir des positions d’autrui : son existence devient cliché, elle se réduit peu à peu au rôle d’adjuvant dans des débats, passés ou actuels, qui font l’impasse sur le cours autonome de sa carrière, voire de sa vie. D’autre part la mise au jour de son œuvre, enfin vue comme un ensemble, dévoile une cause encore plus déterminante de sa méconnaissance. Presque tous les travaux de Maurice Sand sont traversés par une ligne de fantastique, au surplus connotée par son intérêt pour les sciences liées à la métamorphose, de l’ethnogénie à l’entomologie. Réinvention constante du passé, sa démarche cognitive et créatrice ignore les frontières disciplinaires, son objet est hybride et composé. L’œuvre se constitue ainsi par transversalité, trait et trame irrecevables en un siècle qui n’y perçut que dispersion, mais paradoxalement marque supérieure de qualité dans le champ éclaté où se déploient les arts de notre temps.
Resumo:
A method for computer- aided diagnosis of micro calcification clusters in mammograms images presented . Micro calcification clus.eni which are an early sign of bread cancer appear as isolated bright spots in mammograms. Therefore they correspond to local maxima of the image. The local maxima of the image is lint detected and they are ranked according to it higher-order statistical test performed over the sub band domain data
Resumo:
Bottom trawling is one among the most destructive human induced physical disturbances inflicted to seabed and its living communities. The bottom trawls are designed to tow along the sea floor, which on its operation indiscriminately smashes everything on their way crushing, killing, burying and exposing to predators the benthic fauna. Bottom trawling causes physical and biological damages that are irreversible, extensive and long lasting. The commercial trawling fleet of India consists of 29,241 small and medium-fishing boats. The northwest coast of India has the largest fishing fleet consisting of 23,618 mechanized vessels, especially the bottom trawlers. However, attempts were not made to study the impact of bottom trawling along Northwest coast of India. The estimated optimum fleet size of Gujarat is 1,473 mechanised trawlers while 7402 commercial trawlers are operated from the coast of Gujarat. Veraval port was designed initially for 1,200 fishing trawlers but 2793 trawlers are being operated from this port making it the largest trawler port of Gujarat. The aim of this study was to investigate the effects of bottom trawling on the substratum and the associated benthic communities of commercial trawling grounds of Veraval coast. The study compared the differences between the samples collected before and after experimental trawling to detect the impacts of bottom trawling. Attempts were made to assess the possible impact of bottom trawling on:(i) the sediment characteristics (ii)the sediment heavy metals (iii) epifauna (iv) macrobenthos and (v) meiobenthos. This study is expected to generate information on trawling impacts of the studied area that will help in better management of the biological diversity and integrity of the benthic fauna off Veraval coast. An exhaustive review on the studies conducted around the world and in India on impact of bottom trawling on the benthic fauna is also detailed.In the present study, the bottom trawling induced variations on sediment organic matter, epifauna, macrobenthos and meiobenthos were evident. It was also observed that the seasonal/ natural variations were more prominent masking the trawling effect on sediment texture and heavy metals. Enforcement of control of excess bottom trawlers and popularization of semi pelagic trawls designed to operate a little distance above the sea bottom for off bottom resources will minimize disturbance on the sea bottom. Training and creating awareness in responsible fishing should be made mandatory requirements, to the coastal communities. They should be made wardens to protect the valuable resources for the benefit of sustainability. To protect the biodiversity and ecosystem health, the imminent need is to survey and make catalogue, identification of sensitive areas or hot spots and to adopt management strategies for the conservation and biodiversity protection of benthic fauna. The present study is a pioneering work carried out along Veraval coast. This thesis will provide a major fillip to the studies on impact of bottom trawling on the benthic fauna along the coast of India.
Resumo:
The marine environment is indubitably the largest contiguous habitat on Earth. Because of its vast volume and area, the influence of the world ocean on global climate is profound and plays an important role in human welfare and destiny. The marine environment encompasses several habitats, from the sea surface layer down through the bulk water column, which extends >10,000 meters depth, and further down to the habitats on and under the sea floor. Compared to surface habitats, which have relatively high kinetic energy, deep-ocean circulation is very sluggish. By comparison, life in the deep sea is characterized by a relatively constant physical and chemical environment. Deep water occupying the world ocean basin is a potential natural resource based on its properties such as low temperature, high pressure and relatively unexplored properties. So, a judicious assessment of the marine resources and its management are essential to ensure sustainable development of the country’s ocean resources. Marine sediments are complex environments that are affected by both physiological and biological factors, water movements and burrowing animals. They encompass a large extent of aggregates falling from the surface waters. In aquatic ecosystems, the flux of organic matter to the bottom sediments depend on primary productivity at the ocean surface and water depth. Over 50% of the earth’s surface is covered by deep-sea sediments that are primarily formed through the continual deposition of particles from the productive pelagic waters (Vetriani et al., 1999). These aggregates are regarded as ‘hot spots’ of microbial activity in the ocean (Simon et al., 2002). This represents a good nutritional substrate for heterotrophic bacteria and favours bacterial growth
Resumo:
Whitespot virus could be experimentally transmitted from infected Penoeus monodon to P. in.dicus and repeatedly passed on through several batches of apparently healthy J'. in dieas. During these passages, white spots first disappeared before subsequently reappearing, Electron microscopic studies revealed the presence of oblong-shaped, fully-assembled virus towards the periphery and virus in paracrystalline arrnys towards the center of the hypertrophied nuclei. The virus isolated here is referred to as whitespot syndrome baculovirus (WSBV) until more is known of its antigenic .md genomic rclatodnc..s to isolates from other countries
Resumo:
As the technologies for the fabrication of high quality microarray advances rapidly, quantification of microarray data becomes a major task. Gridding is the first step in the analysis of microarray images for locating the subarrays and individual spots within each subarray. For accurate gridding of high-density microarray images, in the presence of contamination and background noise, precise calculation of parameters is essential. This paper presents an accurate fully automatic gridding method for locating suarrays and individual spots using the intensity projection profile of the most suitable subimage. The method is capable of processing the image without any user intervention and does not demand any input parameters as many other commercial and academic packages. According to results obtained, the accuracy of our algorithm is between 95-100% for microarray images with coefficient of variation less than two. Experimental results show that the method is capable of gridding microarray images with irregular spots, varying surface intensity distribution and with more than 50% contamination
Resumo:
Present study consists the quantization of specific metals-- Cr, Cd, Pb, Zn and Cu observed in the experimental bivalve, Villorita species. Bivalve specimens were collected seasonally from the identified three hot spots of Vembanad Lake. Soft tissue concentrations of metals are very sensitive in reflecting changes in the ambient environment and hence important in assessing the environmental quality. Concentrations of Zn in bivalves were fairly high compared to other metals. All the stations showed a maximum concentration during premonsoon and minimum during the other two seasons. Levels of Pb, Cu, Zn, Cd and Cr are between 0-6.17mg/kg, 0-17.224mg/kg, 1.916-255.163mg/kg, 0.325-4.133mg/kg, and 0-15.233mg/kg respectively