942 resultados para Truth.
Landscape all'Antica and Topographical Anachronism in Roman Fresco Painting of the Sixteenth Century
Resumo:
An article derived from the first chapter of the writer's doctoral thesis, “Paysage et Pouvoir. Les décors topographiques à Rome et dans le Latium au XVIe siècle.”
Resumo:
Prenant comme point de départ le rapport paradoxal qui existe entre le témoignage et la littérature (l’un étant considéré comme véridique et l’autre, comme fictive) le présent mémoire s’intéresse à l’utilisation de la fiction dans les récits autobiographiques et testimoniaux de Jorge Semprun, avec L’Écriture ou la vie (1994), et de Régine Robin, avec L’Immense fatigue des pierres (1996). L’étude de ces textes tente de vérifier l’hypothèse selon laquelle, en faisant de leur témoignage une œuvre littéraire qui assume sa part de fiction, les deux auteurs arriveraient à offrir un témoignage plus juste de leur expérience de la Shoah. Le premier chapitre constitue un panorama critique et historique des deux axes théoriques principaux sur lesquels s’appuie ce travail, d’une part les études sur l’écriture testimoniale et sur la littérature de la Shoah (Derrida, Bornand, Prstojevic) et d’autre part les travaux sur l’autobiographie (Lejeune, Robin, Viart et Vercier). Il s’interroge sur les liens qui les unissent tout en tentant de positionner Robin et Semprun à travers ce champ de pratiques littéraires. Les deuxièmes et troisièmes chapitres s’intéressent ensuite aux différents effets de fiction et de réel qui se trouvent dans les deux œuvres du corpus et analysent, dans un premier temps, la mise en scène d’un pacte de vérité ambiguë passant par la représentation littéraire de la figure auctoriale et de l’acte d’écriture et, dans un deuxième temps, la représentation littéraire du réel en étudiant les nombreuses références intertextuelles, la présence du topos de la visite au camp de concentration, ainsi que l’utilisation particulière de l’archive par Semprun et Robin.
Resumo:
Travail dirigé présenté à la Faculté des études supérieures en vue de l’obtention du grade de maîtrise en science (M. Sc.) en criminologie, option criminalistique et information
Resumo:
L'objectif de cette recherche est de réfléchir à la notion de vrai dans l'économie discursive du témoignage. C'est-à-dire que ce mémoire se concentre sur le rapport entre le discours critique et académique d'une part, et le discours littéraire de l'autre. Une première partie s'attache à délimiter les contours de du problème, à partir notamment des notions de de vrai et de vraisemblable. Une étude comparative permet d'introduire trois auteurs qui serviront d'exemple tout au long de la recherche: Primo Levi, Jorge Semprun, et Charlotte Delbo. On fait un bref survol de l'évolution des deux économies discursives depuis les tout premiers témoignages (années 40-50) jusqu'au tournant narratif symbolisé par le procès Eichmann. Cela correspond aussi à la parution d'un témoignage à part: Le sang du ciel, de Piotr Rawicz. La seconde partie est un état de la question sur le roman de Rawicz. Comment le fait qu'il s'agisse d'une fiction, notamment, a été discuté par la critique et dans les contributions universitaires qui lui sont consacrées. Cette incursion dans l'herméneutique nous permet d'identifier trois vagues critiques distinctes, selon les époques et les pays. Enfin, la dernière partie s'attache à montrer que Le sang du ciel est un témoignage pensé comme un projet esthétique, dont la modernité ne cède pas à la facilité du refus de dire de quoi on parle, mais qui au contraire pose des questions de son temps et ose aborder les sujets que l'on doit taire selon la doxa.
Resumo:
La synthèse d'images dites photoréalistes nécessite d'évaluer numériquement la manière dont la lumière et la matière interagissent physiquement, ce qui, malgré la puissance de calcul impressionnante dont nous bénéficions aujourd'hui et qui ne cesse d'augmenter, est encore bien loin de devenir une tâche triviale pour nos ordinateurs. Ceci est dû en majeure partie à la manière dont nous représentons les objets: afin de reproduire les interactions subtiles qui mènent à la perception du détail, il est nécessaire de modéliser des quantités phénoménales de géométries. Au moment du rendu, cette complexité conduit inexorablement à de lourdes requêtes d'entrées-sorties, qui, couplées à des évaluations d'opérateurs de filtrage complexes, rendent les temps de calcul nécessaires à produire des images sans défaut totalement déraisonnables. Afin de pallier ces limitations sous les contraintes actuelles, il est nécessaire de dériver une représentation multiéchelle de la matière. Dans cette thèse, nous construisons une telle représentation pour la matière dont l'interface correspond à une surface perturbée, une configuration qui se construit généralement via des cartes d'élévations en infographie. Nous dérivons notre représentation dans le contexte de la théorie des microfacettes (conçue à l'origine pour modéliser la réflectance de surfaces rugueuses), que nous présentons d'abord, puis augmentons en deux temps. Dans un premier temps, nous rendons la théorie applicable à travers plusieurs échelles d'observation en la généralisant aux statistiques de microfacettes décentrées. Dans l'autre, nous dérivons une procédure d'inversion capable de reconstruire les statistiques de microfacettes à partir de réponses de réflexion d'un matériau arbitraire dans les configurations de rétroréflexion. Nous montrons comment cette théorie augmentée peut être exploitée afin de dériver un opérateur général et efficace de rééchantillonnage approximatif de cartes d'élévations qui (a) préserve l'anisotropie du transport de la lumière pour n'importe quelle résolution, (b) peut être appliqué en amont du rendu et stocké dans des MIP maps afin de diminuer drastiquement le nombre de requêtes d'entrées-sorties, et (c) simplifie de manière considérable les opérations de filtrage par pixel, le tout conduisant à des temps de rendu plus courts. Afin de valider et démontrer l'efficacité de notre opérateur, nous synthétisons des images photoréalistes anticrenelées et les comparons à des images de référence. De plus, nous fournissons une implantation C++ complète tout au long de la dissertation afin de faciliter la reproduction des résultats obtenus. Nous concluons avec une discussion portant sur les limitations de notre approche, ainsi que sur les verrous restant à lever afin de dériver une représentation multiéchelle de la matière encore plus générale.
Resumo:
L’herméneutique de Gadamer s’inscrit-elle dans la foulée de la critique heideggérienne de la métaphysique ? Devrait-on, par surcroit, la considérer comme une forme de nihilisme, où l’être serait réduit au langage et partant, à la pluralité des interprétations ? La présente étude vise plutôt à montrer, sous la conduite des indications de Gadamer lui-même, qu’il est impératif de reconnaître à son maître-ouvrage une dimension métaphysique certaine et cruciale et dont la portée consiste précisément à s’opposer aux interprétations nihiliste et nominaliste de notre rapport à l’être. Pour ce faire il sera d’abord établi que le concept d’appartenance (Zugehörigkeit) est le maître-concept de Vérité et méthode, comme l’avait vu Ricoeur, puis comment Gadamer rattache explicitement celui-ci à la métaphysique médiévale des transcendantaux, métaphysique qui demeure visible jusque dans les dernières conclusions de l’ouvrage qui traitent de la métaphysique de la lumière (Lichtmetaphysik). Nous verrons que c’est précisément à la lumière de cette proximité constante avec la métaphysique des transcendantaux qu’il faut comprendre la thèse de Gadamer à l’effet que l’être susceptible d’être compris est langage, de manière à y voir une affirmation soutenue de l’intelligibilité de l’être, comme l’avait d’ailleurs saisi Heidegger lui-même. Notre intention est ainsi de rendre perceptibles les sources et le cadre de cette métaphysique des transcendantaux, qui ont été négligés dans la réception de Gadamer. Nous porterons donc notre regard sur les sources médiévales de sa pensée que Gadamer connaît et commente, soit Thomas d’Aquin et Nicolas de Cues, mais aussi sur des auteurs moins connus de la tradition herméneutique, dont Philippe le Chancelier, auteur indispensable lorsqu’il s’agit de traiter de la métaphysique des transcendantaux à laquelle Gadamer se réfère. Cette enquête nous amènera à démontrer comment l’herméneutique de Gadamer s’inscrit dans la conception traditionnelle de la vérité comme adaequatio rei et intellectus, définition dont nous devons surtout à Thomas de l’avoir léguée à la postérité mais qu’ont aussi reprise les modernes, incluant Kant et Heidegger. C’est ainsi une nouvelle lecture du rapport de Gadamer à son maître Heidegger et à sa critique de la métaphysique qui résultera de cette archéologie des sources métaphysiques du concept d’appartenance ; il sera en effet démontré que l’héritage de Gadamer est à comprendre, de son propre aveu, en continuité et non en rupture avec la métaphysique. Enfin, fidèle à l’esprit herméneutique de l’application, nous éprouverons cette compréhension renouvelée du concept d’appartenance à l’aune d’une discussion de nature plus théologique, de manière à jeter un éclairage nouveau sur la fécondité de l’herméneutique gadamérienne dans le contexte de la théologie moderne. C’est ainsi que le concept de foi, compris habituellement dans le cadre imposé par la métaphysique moderne de la subjectivité qui le réduit à une « croyance » ou à un « choix personnel », sera mis à l’épreuve du tournant ontologique pris par l’herméneutique avec Gadamer et qui incite à dépasser la dichotomie entre le sujet et son objet en pensant le sujet à partir de l’être. C’est une compréhension de la foi comme appartenance, au sens précis que Gadamer donne à ce concept, qui sera ici mise au jour.
Resumo:
There are many ways to generate geometrical models for numerical simulation, and most of them start with a segmentation step to extract the boundaries of the regions of interest. This paper presents an algorithm to generate a patient-specific three-dimensional geometric model, based on a tetrahedral mesh, without an initial extraction of contours from the volumetric data. Using the information directly available in the data, such as gray levels, we built a metric to drive a mesh adaptation process. The metric is used to specify the size and orientation of the tetrahedral elements everywhere in the mesh. Our method, which produces anisotropic meshes, gives good results with synthetic and real MRI data. The resulting model quality has been evaluated qualitatively and quantitatively by comparing it with an analytical solution and with a segmentation made by an expert. Results show that our method gives, in 90% of the cases, as good or better meshes as a similar isotropic method, based on the accuracy of the volume reconstruction for a given mesh size. Moreover, a comparison of the Hausdorff distances between adapted meshes of both methods and ground-truth volumes shows that our method decreases reconstruction errors faster. Copyright © 2015 John Wiley & Sons, Ltd.
Resumo:
The measurement of global precipitation is of great importance in climate modeling since the release of latent heat associated with tropical convection is one of the pricipal driving mechanisms of atmospheric circulation.Knowledge of the larger-scale precipitation field also has important potential applications in the generation of initial conditions for numerical weather prediction models Knowledge of the relationship between rainfall intensity and kinetic energy, and its variations in time and space is important for erosion prediction. Vegetation on earth also greatly depends on the total amount of rainfall as well as the drop size distribution (DSD) in rainfall.While methods using visible,infrared, and microwave radiometer data have been shown to yield useful estimates of precipitation, validation of these products for the open ocean has been hampered by the limited amount of surface rainfall measurements available for accurate assessement, especially for the tropical oceans.Surface rain fall measurements(often called the ground truth)are carried out by rain gauges working on various principles like weighing type,tipping bucket,capacitive type and so on.The acoustic technique is yet another promising method of rain parameter measurement that has many advantages. The basic principle of acoustic method is that the droplets falling in water produce underwater sound with distinct features, using which the rainfall parameters can be computed. The acoustic technique can also be used for developing a low cost and accurate device for automatic measurement of rainfall rate and kinetic energy of rain.especially suitable for telemetry applications. This technique can also be utilized to develop a low cost Disdrometer that finds application in rainfall analysis as well as in calibration of nozzles and sprinklers. This thesis is divided into the following 7 chapters, which describes the methodology adopted, the results obtained and the conclusions arrived at.
Resumo:
This thesis entitled “The right to freedom of information in india”.In a democracy, the citizens being the persons to choose their own governors, the right to know from the Government is a pre-condition for a properly evaluated election. Freedom of speech and expression, one of the repositories of self~government, forms the basis for the right to know in a wider scale. The functions which the free speech rights serve in a society also emphasize the need for more openness in the functioning of a democracy.Maintanance of law and order and investigation of crimes are highly important in a country like India, where no risk may be taken on account of the public‘s right to know. The Indian situations relating terrorist activities, riots based on language, region, religion and caste are important in this respect. The right to know of the citizens may be regulated in the interests of secrecy required in these areas.On the basis of the conclusions reached in this study, a draft Bill has been proposed for the passing of an Access to Public Documents Act. This Bill is appended to this Thesis.
Resumo:
Cerebral glioma is the most prevalent primary brain tumor, which are classified broadly into low and high grades according to the degree of malignancy. High grade gliomas are highly malignant which possess a poor prognosis, and the patients survive less than eighteen months after diagnosis. Low grade gliomas are slow growing, least malignant and has better response to therapy. To date, histological grading is used as the standard technique for diagnosis, treatment planning and survival prediction. The main objective of this thesis is to propose novel methods for automatic extraction of low and high grade glioma and other brain tissues, grade detection techniques for glioma using conventional magnetic resonance imaging (MRI) modalities and 3D modelling of glioma from segmented tumor slices in order to assess the growth rate of tumors. Two new methods are developed for extracting tumor regions, of which the second method, named as Adaptive Gray level Algebraic set Segmentation Algorithm (AGASA) can also extract white matter and grey matter from T1 FLAIR an T2 weighted images. The methods were validated with manual Ground truth images, which showed promising results. The developed methods were compared with widely used Fuzzy c-means clustering technique and the robustness of the algorithm with respect to noise is also checked for different noise levels. Image texture can provide significant information on the (ab)normality of tissue, and this thesis expands this idea to tumour texture grading and detection. Based on the thresholds of discriminant first order and gray level cooccurrence matrix based second order statistical features three feature sets were formulated and a decision system was developed for grade detection of glioma from conventional T2 weighted MRI modality.The quantitative performance analysis using ROC curve showed 99.03% accuracy for distinguishing between advanced (aggressive) and early stage (non-aggressive) malignant glioma. The developed brain texture analysis techniques can improve the physician’s ability to detect and analyse pathologies leading to a more reliable diagnosis and treatment of disease. The segmented tumors were also used for volumetric modelling of tumors which can provide an idea of the growth rate of tumor; this can be used for assessing response to therapy and patient prognosis.
Resumo:
This paper describes a novel framework for automatic segmentation of primary tumors and its boundary from brain MRIs using morphological filtering techniques. This method uses T2 weighted and T1 FLAIR images. This approach is very simple, more accurate and less time consuming than existing methods. This method is tested by fifty patients of different tumor types, shapes, image intensities, sizes and produced better results. The results were validated with ground truth images by the radiologist. Segmentation of the tumor and boundary detection is important because it can be used for surgical planning, treatment planning, textural analysis, 3-Dimensional modeling and volumetric analysis
Resumo:
This work presents an efficient method for volume rendering of glioma tumors from segmented 2D MRI Datasets with user interactive control, by replacing manual segmentation required in the state of art methods. The most common primary brain tumors are gliomas, evolving from the cerebral supportive cells. For clinical follow-up, the evaluation of the pre- operative tumor volume is essential. Tumor portions were automatically segmented from 2D MR images using morphological filtering techniques. These seg- mented tumor slices were propagated and modeled with the software package. The 3D modeled tumor consists of gray level values of the original image with exact tumor boundary. Axial slices of FLAIR and T2 weighted images were used for extracting tumors. Volumetric assessment of tumor volume with manual segmentation of its outlines is a time-consuming proc- ess and is prone to error. These defects are overcome in this method. Authors verified the performance of our method on several sets of MRI scans. The 3D modeling was also done using segmented 2D slices with the help of a medical software package called 3D DOCTOR for verification purposes. The results were validated with the ground truth models by the Radi- ologist.
Resumo:
In this paper, a novel fast method for modeling mammograms by deterministic fractal coding approach to detect the presence of microcalcifications, which are early signs of breast cancer, is presented. The modeled mammogram obtained using fractal encoding method is visually similar to the original image containing microcalcifications, and therefore, when it is taken out from the original mammogram, the presence of microcalcifications can be enhanced. The limitation of fractal image modeling is the tremendous time required for encoding. In the present work, instead of searching for a matching domain in the entire domain pool of the image, three methods based on mean and variance, dynamic range of the image blocks, and mass center features are used. This reduced the encoding time by a factor of 3, 89, and 13, respectively, in the three methods with respect to the conventional fractal image coding method with quad tree partitioning. The mammograms obtained from The Mammographic Image Analysis Society database (ground truth available) gave a total detection score of 87.6%, 87.6%, 90.5%, and 87.6%, for the conventional and the proposed three methods, respectively.
Resumo:
Efficient optic disc segmentation is an important task in automated retinal screening. For the same reason optic disc detection is fundamental for medical references and is important for the retinal image analysis application. The most difficult problem of optic disc extraction is to locate the region of interest. Moreover it is a time consuming task. This paper tries to overcome this barrier by presenting an automated method for optic disc boundary extraction using Fuzzy C Means combined with thresholding. The discs determined by the new method agree relatively well with those determined by the experts. The present method has been validated on a data set of 110 colour fundus images from DRION database, and has obtained promising results. The performance of the system is evaluated using the difference in horizontal and vertical diameters of the obtained disc boundary and that of the ground truth obtained from two expert ophthalmologists. For the 25 test images selected from the 110 colour fundus images, the Pearson correlation of the ground truth diameters with the detected diameters by the new method are 0.946 and 0.958 and, 0.94 and 0.974 respectively. From the scatter plot, it is shown that the ground truth and detected diameters have a high positive correlation. This computerized analysis of optic disc is very useful for the diagnosis of retinal diseases