965 resultados para Primitive and Irreducible Polynomials
Resumo:
The use of intensity-modulated radiotherapy (IMRT) has increased extensively in the modern radiotherapy (RT) treatments over the past two decades. Radiation dose distributions can be delivered with higher conformality with IMRT when compared to the conventional 3D-conformal radiotherapy (3D-CRT). Higher conformality and target coverage increases the probability of tumour control and decreases the normal tissue complications. The primary goal of this work is to improve and evaluate the accuracy, efficiency and delivery techniques of RT treatments by using IMRT. This study evaluated the dosimetric limitations and possibilities of IMRT in small (treatments of head-and-neck, prostate and lung cancer) and large volumes (primitive neuroectodermal tumours). The dose coverage of target volumes and the sparing of critical organs were increased with IMRT when compared to 3D-CRT. The developed split field IMRT technique was found to be safe and accurate method in craniospinal irradiations. By using IMRT in simultaneous integrated boosting of biologically defined target volumes of localized prostate cancer high doses were achievable with only small increase in the treatment complexity. Biological plan optimization increased the probability of uncomplicated control on average by 28% when compared to standard IMRT delivery. Unfortunately IMRT carries also some drawbacks. In IMRT the beam modulation is realized by splitting a large radiation field to small apertures. The smaller the beam apertures are the larger the rebuild-up and rebuild-down effects are at the tissue interfaces. The limitations to use IMRT with small apertures in the treatments of small lung tumours were investigated with dosimetric film measurements. The results confirmed that the peripheral doses of the small lung tumours were decreased as the effective field size was decreased. The studied calculation algorithms were not able to model the dose deficiency of the tumours accurately. The use of small sliding window apertures of 2 mm and 4 mm decreased the tumour peripheral dose by 6% when compared to 3D-CRT treatment plan. A direct aperture based optimization (DABO) technique was examined as a solution to decrease the treatment complexity. The DABO IMRT technique was able to achieve treatment plans equivalent with the conventional IMRT fluence based optimization techniques in the concave head-and-neck target volumes. With DABO the effective field sizes were increased and the number of MUs was reduced with a factor of two. The optimality of a treatment plan and the therapeutic ratio can be further enhanced by using dose painting based on regional radiosensitivities imaged with functional imaging methods.
Resumo:
The so-called primitive, innate or paraspecific immune system is the phylogenetically older part of the complex immune system. It enables the organism to immediately attack various foreign substances, infectious pathogens, toxins and transformed cells of the organism itself. ,,Paramunity" is defined as an optimal regulated and activated, antigen-nonspecific defence, acquired through continuous active and succesful confrontation with endogenous and exogenous noxes or by means of ,,paramunization" with so called ,,paramunity inducers". Paramunity inducers based on different pox virus species (e.g. Baypamun®, Duphapind®, Conpind) have turned out to be effective and safe when applied with human beings as well as with animals. Pox virus inducers activate phagocytosis and NK-cells in addition to regulation of various cytokines, notably interferon a and g, IL 1, 2, CSF and TNF which comprise the network of the complex paraspecific immune system. The results of experimental work as well as practical use in veterinary medicine have shown that paramunization by pox inducers goes far beyond the common understanding of so-called ,,immuno-therapy". They are ,,bioregulators", because they have 1. a regulatory effect on a disturbed immune system in the sense of an optimal homoeostasis, and 2. simultaneously a regulatory effect between the immune, nervous, circulatory and hormone system. Therefore, the use of paramunization by pox inducers opens a new way of prophylaxis and therapy, not only with regard to infections, but also with regard to different other indications.
Resumo:
In the present paper we discuss the development of "wave-front", an instrument for determining the lower and higher optical aberrations of the human eye. We also discuss the advantages that such instrumentation and techniques might bring to the ophthalmology professional of the 21st century. By shining a small light spot on the retina of subjects and observing the light that is reflected back from within the eye, we are able to quantitatively determine the amount of lower order aberrations (astigmatism, myopia, hyperopia) and higher order aberrations (coma, spherical aberration, etc.). We have measured artificial eyes with calibrated ametropia ranging from +5 to -5 D, with and without 2 D astigmatism with axis at 45º and 90º. We used a device known as the Hartmann-Shack (HS) sensor, originally developed for measuring the optical aberrations of optical instruments and general refracting surfaces in astronomical telescopes. The HS sensor sends information to a computer software for decomposition of wave-front aberrations into a set of Zernike polynomials. These polynomials have special mathematical properties and are more suitable in this case than the traditional Seidel polynomials. We have demonstrated that this technique is more precise than conventional autorefraction, with a root mean square error (RMSE) of less than 0.1 µm for a 4-mm diameter pupil. In terms of dioptric power this represents an RMSE error of less than 0.04 D and 5º for the axis. This precision is sufficient for customized corneal ablations, among other applications.
Resumo:
The distribution, morphology and morphometry of microglial cells in the chick cerebral hemispheres from embryonic day 4 (E4) to the first neonatal day (P1) were studied by histochemical labeling with a tomato (Lycopersicon esculentum) lectin. The histochemical analysis revealed lectin-reactive cells in the nervous parenchyma on day E4. Between E4 (5.7 ± 1.35 mm length) and E17 (8.25 ± 1.2 mm length), the lectin-reactive cells were identified as ameboid microglia and observed starting from the subventricular layer, distributed throughout the mantle layer and in the proximity of the blood vessels. After day E13, the lectin-reactive cells exhibited elongated forms with small branched processes, and were considered primitive ramified microglia. Later, between E18 (5.85 ± 1.5 mm cell body length) and P1 (3.25 ± 0.6 mm cell body length), cells with more elongated branched processes were observed, constituting the ramified microglia. Our findings provide additional information on the migration and differentiation of microglial cells, whose ramified form is observed at the end of embryonic development. The present paper focused on the arrangement of microglial cells in developing cerebral hemispheres of embryonic and neonatal chicks, which are little studied in the literature. Details of morphology, morphometry and spatial distribution of microglial cells contributed to the understanding of bird and mammal central nervous system ontogeny. Furthermore, the identification and localization of microglial cells during the normal development could be used as a morphological guide for embryonic brain injury researches.
Resumo:
The world’s population is growing at a rapid rate and one of the primary problems of a growing is food supply. To ensure food supply and security, the biggest companies in the agricultural sector of the United States and all over the world have collaborated to produce genetically modified organisms, including crops, that have a tendency to increase yields and are speculated to reduce pesticide use. It’s a technology that is declared to have a multitude of benefits. During the same time period another set of practices has risen to the horizon by the name of agroecology. It spreads across many different sectors such as politics, sociology, environment, health and so on. Moreover, it involves primitive organic techniques that can be applied at farm level to enhance the performance of an ecosystem to effectively decrease the negative effect on environment and health of individuals while producing good quality foods. Since both the processes proclaim sustainable development, a natural question may come in mind that which one seems more favorable? During the course of this study, genetically modified organisms (GMOs) and agroecology are compared within the sphere of social, environmental and health aspects. The results derived upon a comparative analysis of scientific literature tend to prove that GMOs pose a greater threat to the environment, health of individuals and the generalized social balance in the United States compared to agroecological practices. Economic indicators were not included in the study and more studies might be needed in the future to get a broader view on the subject.
Resumo:
The McElroy and Larder Lake assemblages, located in the southern Abitibi Greenstone Belt are two late Archean metavolcanic sequences having markedly contrasting physical characteristics arid are separated from one another by a regional fault. An assemblage is an informal term which describes stratified volcanic and/or sedimentary rock units built during a specific time period in a similar depositional or volcanic setting and are commonly bounded by faults, unconformities or intrusions. The petrology and petrogenesis of these assemblages have been investigated to determine if a genetic link exists between the two adjacent assemblages. The McElroy assemblage is homoclinal sequence of evolved massive and pillowed fl.ows, which except for the basal unit represents a progressively fractionated volcanic pile. From the base to the top of the assemblage the lithologies include Fe-tholeiitic, dendritic flows; komatiite basaltic, ultramafic flows; Mg-tholeiitic, leucogabbro; Mg-tholeiitic, massive flows and Fe-tholeiitic, pillowed flows. Massive flows range from coarse grained to aphanitic and are commonly plagioclase glomerophyric. The Larder Lake assemblage consists of komatiitic, Mg-rich and Fe-rich tholeiitic basalts, structurally disrupted by folds and faults. Tholeiitic rocks in the Larder Lake assemblage range from aphanitic to coarse grained massive and pillowed flows. Komatiitic flows contain both spinifex and massive textures. Geochemical variability within both assemblages is attributed to different petrogenetic histories. The lithologies of the McElroy assemblage were derived by partial melting of a primitive mantle source followed by various degrees of crystal fractionation. Partial melting of a primitive mantle source generated the ultramafic flows and possibly other flows in the assemblage. Fractionation of ultramafic flows may have also produced the more evolved McElroy lithologies. The highly evolved, basal, dendritic flow may represent the upper unit 3 of a missing volcanic pile in which continued magmatism generated the remaining McElroy lithologies. Alternatively, the dendritic flows may represent a primary lava derived from a low degree (10-15%) partial melt of a primitive mantle source which was followed by continued partial melting to generate the ultramafic flows. The Larder Lake lithologies were derived by partial melting of a komatiitic source followed by gabbroic fractionation. The tectonic environment for both assemblages is interpreted to be an oceanic arc setting. The McElroy assemblage lavas were generated in a mature back arc setting whereas the Larder Lake lithologies were produced during the early stages of komatiitc crust subduction. This setting is consistent with previous models involving plate tectonic processes for the generation of other metavolcanic assemblages in the Abitibi Greenstone Belt.
Resumo:
In this study, I build upon my previous research in which I focus on religious doctrine as a gendered disciplinary apparatus, and examine the witch trials in early modem England and Italy in light of socio-economic issues relating to gender and class. This project examines the witch hunts/trials and early modem visual representations of witches, and what I suggest is an attempt to create docile bodies out of members of society who are deemed unruly, problematic and otherwise 'undesirable'; it is the witch's body that is deemed counternormative. This study demonstrates that it is neighbours and other acquaintances of accused witches that take on the role of the invisible guard of Bantham's Panoptic on. As someone who is trained in the study of English literature and literary theory, my approach is one that is informed by this methodology. It is my specialization in early modem British literature that first exposed me to witch-hunting manuals and tales of the supernatural, and it is for this reason that my research commences with a study of representations of witches and witchcraft in early modem England. From my initial exposure to such materials I proceed to examine the similarities and the differences of the cultural significance of the supernatural vis-a.-vis women's activities in early modem Italy. The subsequent discussion of visual representations of witches involves a predominance of Germanic artists, as the seminal work on the discernment of witches and the application of punishment known as the Malleus Meleficarum, was written in Germany circa 1486. Textual accounts of witch trials such as: "A Pitiless Mother (1616)," "The Wonderful Discovery of the Witchcrafts of Margaret and Philippa Flower (1619)," "Magic and Poison: The Trial ofChiaretta and Fedele (circa 1550)", and the "The Case of Benvegnuda Pincinella: Medicine Woman or Witch (1518),"and witchhunting manuals such as the Malleus Melejicarum and Strix will be put in direct dialogue with visual representations of witches in light of historical discourses pertaining to gender performance and gendered expectations. Issues relating to class will be examined as they pertain to the material conditions of presumed witches. The dominant group in any temporal or geographic location possesses the tools of representation. Therefore, it is not surprising that the physical characteristics, sexual habits and social material conditions that are attributed to suspected witches are attributes that can be deemed deviant by the ruling class. The research will juxtapose the social material conditions of suspected witches with the guilt, anxiety, and projection of fear that the dominant groups experienced in light of the changing economic landscape of the Renaissance. The shift from feudalism to primitive accumulation, and capitalism saw a rise in people living in poverty and therefore an increased dependence upon the good will of others. I will discuss the social material conditions of accused witches as informed by what Robyn Wiegman terms a "minoritizing discourse" (210). People of higher economic standing often blamed their social, medical, and/or economic difficulties on the less fortunate, resulting in accusations of witchcraft.
Resumo:
Qualitative spatial reasoning (QSR) is an important field of AI that deals with qualitative aspects of spatial entities. Regions and their relationships are described in qualitative terms instead of numerical values. This approach models human based reasoning about such entities closer than other approaches. Any relationships between regions that we encounter in our daily life situations are normally formulated in natural language. For example, one can outline one's room plan to an expert by indicating which rooms should be connected to each other. Mereotopology as an area of QSR combines mereology, topology and algebraic methods. As mereotopology plays an important role in region based theories of space, our focus is on one of the most widely referenced formalisms for QSR, the region connection calculus (RCC). RCC is a first order theory based on a primitive connectedness relation, which is a binary symmetric relation satisfying some additional properties. By using this relation we can define a set of basic binary relations which have the property of being jointly exhaustive and pairwise disjoint (JEPD), which means that between any two spatial entities exactly one of the basic relations hold. Basic reasoning can now be done by using the composition operation on relations whose results are stored in a composition table. Relation algebras (RAs) have become a main entity for spatial reasoning in the area of QSR. These algebras are based on equational reasoning which can be used to derive further relations between regions in a certain situation. Any of those algebras describe the relation between regions up to a certain degree of detail. In this thesis we will use the method of splitting atoms in a RA in order to reproduce known algebras such as RCC15 and RCC25 systematically and to generate new algebras, and hence a more detailed description of regions, beyond RCC25.
Resumo:
Volume(density)-independent pair-potentials cannot describe metallic cohesion adequately as the presence of the free electron gas renders the total energy strongly dependent on the electron density. The embedded atom method (EAM) addresses this issue by replacing part of the total energy with an explicitly density-dependent term called the embedding function. Finnis and Sinclair proposed a model where the embedding function is taken to be proportional to the square root of the electron density. Models of this type are known as Finnis-Sinclair many body potentials. In this work we study a particular parametrization of the Finnis-Sinclair type potential, called the "Sutton-Chen" model, and a later version, called the "Quantum Sutton-Chen" model, to study the phonon spectra and the temperature variation thermodynamic properties of fcc metals. Both models give poor results for thermal expansion, which can be traced to rapid softening of transverse phonon frequencies with increasing lattice parameter. We identify the power law decay of the electron density with distance assumed by the model as the main cause of this behaviour and show that an exponentially decaying form of charge density improves the results significantly. Results for Sutton-Chen and our improved version of Sutton-Chen models are compared for four fcc metals: Cu, Ag, Au and Pt. The calculated properties are the phonon spectra, thermal expansion coefficient, isobaric heat capacity, adiabatic and isothermal bulk moduli, atomic root-mean-square displacement and Gr\"{u}neisen parameter. For the sake of comparison we have also considered two other models where the distance-dependence of the charge density is an exponential multiplied by polynomials. None of these models exhibits the instability against thermal expansion (premature melting) as shown by the Sutton-Chen model. We also present results obtained via pure pair potential models, in order to identify advantages and disadvantages of methods used to obtain the parameters of these potentials.
Resumo:
Cette dissertation traite des (re)configurations postcoloniales de la résistance et de la négociation comme concepts permettant d’aborder les représentations des conflits nationaux dans les littératures Africaines contemporaines. Ensemble, ces concepts ouvrent de nouvelles voix et possibilités de se remémorer, de raconter, et de lire la violence en problématisant non seulement les discours sur la guerre civile en Afrique, mais aussi les conceptions d’histoire nationale, de la mémoire, et de leur représentation. Si cette étude cherche à reconfigurer la négociation et la résistance au-delà des définitions qui tendent à les opposer, elle se consacre surtout à développer la notion de négociation comme stratégie de dépassement, de lecture, et d’écriture, qui, néanmoins, ne vise pas de résolution. La négociation implique ainsi une conception pluraliste d’un pouvoir d’action sociale, politique, et culturelle. Cette dissertation avance que la négociation est un concept d’écriture et de lecture qui intervient dans les événements, discours, et pratiques de remémoration en prenant compte de leurs multiplicités et définitions instables. Cette étude explore les manières selon lesquelles Nuruddin Farah, Chenjerai Hove, Yvonne Vera, Chimamanda Adichie, et Sefi Atta déploient la négociation et la résistance comme outils d’engagement esthétique et sociopolitique dans la narration de la violence en Somalie, au Zimbabwe, et au Nigeria. En outre, la négociation marque mon analyse de l’intervention des textes dans les discours d’historiographie et de représentation. Si ces romans mettent en exergue la généalogie complexe du conflit postcolonial, ils négocient aussi les implications multiples, incluant la leur, dans les questions problématiques de la responsabilité et de la représentation. La vii négociation représente un acte conscient à travers lequel nous reconnaissons l’instabilité de toute bataille politique, morale, ou éthique sans pour autant céder à un cynisme paralysant. De par son approche négociée et interdisciplinaire, cette dissertation ne fait pas qu’entrer en débat avec des discours multiples des études postcoloniales, Africaines, et littéraires. Elle intervient aussi dans les conceptions de la nation, la violence, la mémoire, la responsabilité, et la justice selon les études philosophiques, politiques, et culturelles. Outre les critiques littéraires, les chapitres interrogent les théories de penseurs tels Ngugi wa Thiong’o, David Jefferess, Pheng Cheah, et Wole Soyinka. Cette approche éclectique reflète l’attention des romans à la complexité irréductible des responsabilités individuelles et collectives dans les récits d’histoire et d’appartenance nationales. Cet engagement négocié avec les questions entourant la postcolonialité, malgré la dominance actuelle des discours de la globalisation, permet de reconceptualiser l’approche postcoloniale pour contrer les analyses déhistorisées et décontextualisées des conflits sociopolitiques en Afrique. Le chapitre 1 élabore les concepts clés de la dissertation. Le chapitre 2 explore la résistance et la négociation dans le langage figuré métonymique dans les représentations de la guerre en Somalie. Le chapitre 3 se consacre à l’analyse de la figure de la spectralité dans la narration de l’histoire et de la violence nationales au Zimbabwe. Finalement, le chapitre 4 négocie les concepts de représentation et de responsabilité dans les récits du trauma postcolonial au Nigeria. viii Mots-clés : négociation, résistance, littératures africaines, violence, responsabilité, nation, représentation
Resumo:
Le but du présent travail est d’apporter la preuve paléontologique mettant en évidence que le clade Raninoida était bien établi dans le Néotropique durant la période Crétacée, où il était représenté par les plus anciennes familles ou par quelques–uns des plus anciens membres des plus anciennes familles. Je décris des taxa raninoïdiens ou similaires, incluant Archaeochimaeridae n. fam. et Archaeochimaera macrophthalma n. gen. n. sp., du Cénomanien supérieur (~95 Ma.) de Colombie (Chapitre 3), Planocarcinus n. gen., Planocarcinus olssoni (Rathbun, 1937) n. comb. et Notopocorystes kerri n. sp., de l’Aptien supérieur (~115 Ma.) de Colombie (Luque et al., accepté) (Chapitre 2). Ces taxa nouveaux, plus la présence de Cenomanocarcinus vanstraeleni Stenzel, 1945, dans l’Albien supérieur de Colombie (Vega et al., 2010), et d’Araripecarcinus ferreirai Martins–Neto, 1987, dans l’Albien du Brésil (Luque et al., en cours) (Chapitre 4), représentent certains des plus anciens signalements de quatre des sept familles raninoïdiennes, au moins, connues à ce jour. La nouvelle famile Archaeochimaeridae se présente comme le groupe frère du clade Raninidae + clade Symethidae. Cependant, la combinaison unique de caractères primitifs, dérivés et homoplasiques est inégalable chez les Raninoida, et, en fait, chez les autres sections de crabes podotrèmes. Alors que les taxa raninoïdiens du Crétacé sont bien connus aux latitudes élevées, les signalements en Amérique du Sud tropicale sont rares et épars, avec pour résultat de considérables distorsions pour traiter des importantes questions biogéographiques et phylogénétiques. Sur la base de données taxonomiques, paléobiogéographiques et cladistiques, une ré–appréciation des toute premières distributions spatio–temporelle des “crabes grenouilles” est proposée, avec pour objet de contribuer à une plus large compréhension de la diversité, phylogénie et évolution des premiers brachyoures au cours des âges.
Resumo:
Ce mémoire s’applique à étudier d’abord, dans la première partie, la mesure de Mahler des polynômes à une seule variable. Il commence en donnant des définitions et quelques résultats pertinents pour le calcul de telle hauteur. Il aborde aussi le sujet de la question de Lehmer, la conjecture la plus célèbre dans le domaine, donne quelques exemples et résultats ayant pour but de résoudre la question. Ensuite, il y a l’extension de la mesure de Mahler sur les polynômes à plusieurs variables, une démarche semblable au premier cas de la mesure de Mahler, et le sujet des points limites avec quelques exemples. Dans la seconde partie, on commence par donner des définitions concernant un ordre supérieur de la mesure de Mahler, et des généralisations en passant des polynômes simples aux polynômes à plusieurs variables. La question de Lehmer existe aussi dans le domaine de la mesure de Mahler supérieure, mais avec des réponses totalement différentes. À la fin, on arrive à notre objectif, qui sera la démonstration de la généralisation d’un théorème de Boyd-Lawton, ce dernier met en évidence une relation entre la mesure de Mahler des polynômes à plusieurs variables avec la limite de la mesure de Mahler des polynômes à une seule variable. Ce résultat a des conséquences en termes de la conjecture de Lehmer et sert à clarifier la relation entre les valeurs de la mesure de Mahler des polynômes à une variable et celles des polynômes à plusieurs variables, qui, en effet, sont très différentes en nature.
Resumo:
Gowers, dans son article sur les matrices quasi-aléatoires, étudie la question, posée par Babai et Sos, de l'existence d'une constante $c>0$ telle que tout groupe fini possède un sous-ensemble sans produit de taille supérieure ou égale a $c|G|$. En prouvant que, pour tout nombre premier $p$ assez grand, le groupe $PSL_2(\mathbb{F}_p)$ (d'ordre noté $n$) ne posséde aucun sous-ensemble sans produit de taille $c n^{8/9}$, il y répond par la négative. Nous allons considérer le probléme dans le cas des groupes compacts finis, et plus particuliérement des groupes profinis $SL_k(\mathbb{Z}_p)$ et $Sp_{2k}(\mathbb{Z}_p)$. La premiére partie de cette thése est dédiée à l'obtention de bornes inférieures et supérieures exponentielles pour la mesure suprémale des ensembles sans produit. La preuve nécessite d'établir préalablement une borne inférieure sur la dimension des représentations non-triviales des groupes finis $SL_k(\mathbb{Z}/(p^n\mathbb{Z}))$ et $Sp_{2k}(\mathbb{Z}/(p^n\mathbb{Z}))$. Notre théoréme prolonge le travail de Landazuri et Seitz, qui considérent le degré minimal des représentations pour les groupes de Chevalley sur les corps finis, tout en offrant une preuve plus simple que la leur. La seconde partie de la thése à trait à la théorie algébrique des nombres. Un polynome monogéne $f$ est un polynome unitaire irréductible à coefficients entiers qui endengre un corps de nombres monogéne. Pour un nombre premier $q$ donné, nous allons montrer, en utilisant le théoréme de densité de Tchebotariov, que la densité des nombres premiers $p$ tels que $t^q -p$ soit monogéne est supérieure ou égale à $(q-1)/q$. Nous allons également démontrer que, quand $q=3$, la densité des nombres premiers $p$ tels que $\mathbb{Q}(\sqrt[3]{p})$ soit non monogéne est supérieure ou égale à $1/9$.
Resumo:
Cette thèse porte sur les phénomènes critiques survenant dans les modèles bidimensionnels sur réseau. Les résultats sont l'objet de deux articles : le premier porte sur la mesure d'exposants critiques décrivant des objets géométriques du réseau et, le second, sur la construction d'idempotents projetant sur des modules indécomposables de l'algèbre de Temperley-Lieb pour la chaîne de spins XXZ. Le premier article présente des expériences numériques Monte Carlo effectuées pour une famille de modèles de boucles en phase diluée. Baptisés "dilute loop models (DLM)", ceux-ci sont inspirés du modèle O(n) introduit par Nienhuis (1990). La famille est étiquetée par les entiers relativement premiers p et p' ainsi que par un paramètre d'anisotropie. Dans la limite thermodynamique, il est pressenti que le modèle DLM(p,p') soit décrit par une théorie logarithmique des champs conformes de charge centrale c(\kappa)=13-6(\kappa+1/\kappa), où \kappa=p/p' est lié à la fugacité du gaz de boucles \beta=-2\cos\pi/\kappa, pour toute valeur du paramètre d'anisotropie. Les mesures portent sur les exposants critiques représentant la loi d'échelle des objets géométriques suivants : l'interface, le périmètre externe et les liens rouges. L'algorithme Metropolis-Hastings employé, pour lequel nous avons introduit de nombreuses améliorations spécifiques aux modèles dilués, est détaillé. Un traitement statistique rigoureux des données permet des extrapolations coïncidant avec les prédictions théoriques à trois ou quatre chiffres significatifs, malgré des courbes d'extrapolation aux pentes abruptes. Le deuxième article porte sur la décomposition de l'espace de Hilbert \otimes^nC^2 sur lequel la chaîne XXZ de n spins 1/2 agit. La version étudiée ici (Pasquier et Saleur (1990)) est décrite par un hamiltonien H_{XXZ}(q) dépendant d'un paramètre q\in C^\times et s'exprimant comme une somme d'éléments de l'algèbre de Temperley-Lieb TL_n(q). Comme pour les modèles dilués, le spectre de la limite continue de H_{XXZ}(q) semble relié aux théories des champs conformes, le paramètre q déterminant la charge centrale. Les idempotents primitifs de End_{TL_n}\otimes^nC^2 sont obtenus, pour tout q, en termes d'éléments de l'algèbre quantique U_qsl_2 (ou d'une extension) par la dualité de Schur-Weyl quantique. Ces idempotents permettent de construire explicitement les TL_n-modules indécomposables de \otimes^nC^2. Ceux-ci sont tous irréductibles, sauf si q est une racine de l'unité. Cette exception est traitée séparément du cas où q est générique. Les problèmes résolus par ces articles nécessitent une grande variété de résultats et d'outils. Pour cette raison, la thèse comporte plusieurs chapitres préparatoires. Sa structure est la suivante. Le premier chapitre introduit certains concepts communs aux deux articles, notamment une description des phénomènes critiques et de la théorie des champs conformes. Le deuxième chapitre aborde brièvement la question des champs logarithmiques, l'évolution de Schramm-Loewner ainsi que l'algorithme de Metropolis-Hastings. Ces sujets sont nécessaires à la lecture de l'article "Geometric Exponents of Dilute Loop Models" au chapitre 3. Le quatrième chapitre présente les outils algébriques utilisés dans le deuxième article, "The idempotents of the TL_n-module \otimes^nC^2 in terms of elements of U_qsl_2", constituant le chapitre 5. La thèse conclut par un résumé des résultats importants et la proposition d'avenues de recherche qui en découlent.
Resumo:
Dans cette thèse l’ancienne question philosophique “tout événement a-t-il une cause ?” sera examinée à la lumière de la mécanique quantique et de la théorie des probabilités. Aussi bien en physique qu’en philosophie des sciences la position orthodoxe maintient que le monde physique est indéterministe. Au niveau fondamental de la réalité physique – au niveau quantique – les événements se passeraient sans causes, mais par chance, par hasard ‘irréductible’. Le théorème physique le plus précis qui mène à cette conclusion est le théorème de Bell. Ici les prémisses de ce théorème seront réexaminées. Il sera rappelé que d’autres solutions au théorème que l’indéterminisme sont envisageables, dont certaines sont connues mais négligées, comme le ‘superdéterminisme’. Mais il sera argué que d’autres solutions compatibles avec le déterminisme existent, notamment en étudiant des systèmes physiques modèles. Une des conclusions générales de cette thèse est que l’interprétation du théorème de Bell et de la mécanique quantique dépend crucialement des prémisses philosophiques desquelles on part. Par exemple, au sein de la vision d’un Spinoza, le monde quantique peut bien être compris comme étant déterministe. Mais il est argué qu’aussi un déterminisme nettement moins radical que celui de Spinoza n’est pas éliminé par les expériences physiques. Si cela est vrai, le débat ‘déterminisme – indéterminisme’ n’est pas décidé au laboratoire : il reste philosophique et ouvert – contrairement à ce que l’on pense souvent. Dans la deuxième partie de cette thèse un modèle pour l’interprétation de la probabilité sera proposé. Une étude conceptuelle de la notion de probabilité indique que l’hypothèse du déterminisme aide à mieux comprendre ce que c’est qu’un ‘système probabiliste’. Il semble que le déterminisme peut répondre à certaines questions pour lesquelles l’indéterminisme n’a pas de réponses. Pour cette raison nous conclurons que la conjecture de Laplace – à savoir que la théorie des probabilités présuppose une réalité déterministe sous-jacente – garde toute sa légitimité. Dans cette thèse aussi bien les méthodes de la philosophie que de la physique seront utilisées. Il apparaît que les deux domaines sont ici solidement reliés, et qu’ils offrent un vaste potentiel de fertilisation croisée – donc bidirectionnelle.