994 resultados para Parigi,Grands,Ensembles.
Resumo:
Résumé Le travail présenté est basé sur l'analyse systématique des 145'157 fragments de céramique émanant de 2137 ensembles recueillis entre 1976 et 2003 lors de la fouille de la cathédrale Saint-Pierre. Datés entre le Ier millénaire av. J-C. et le XIXe siècle, ils témoignent de l'ampleur et de la richesse des activités menées au sein de ce site phare de la ville de Genève. Les particularités observées pour les six premiers horizons reconnus, qui couvrent une période comprise entre le Ier millénaire av. J.-C. et 40 apr. J.-C., liées aux structures a priori énigmatiques mises en évidence lors de la fouille, ont orienté le champ d'étude vers une compréhension fine du mobilier recueilli dans ces strates anciennes. Ainsi cadrée, l'étude s'est concentrée sur 237 complexes céramiques ayant livré 23'129 fragments. La corrélation stratigraphique menée sur les 8000 m2 de terrain fouillé a permis de porter l'analyse sur la répartition spatiale du corpus considéré. Développée également sur le plan diachronique, cette démarche a largement contribué à la définition des activités menées sur le site. Ainsi, la concentration de fragments de panses d'amphore et de vaisselle de table importée de Campanie au pied d'un tertre mis en évidence sous le choeur de la cathédrale a conduit à reconnaître l'existence d'un banquet funéraire témoignant de l'ensevelissement sous tumulus d'un aristocrate allobroge décédé entre 120 et 70 av. J.-C. Réparties sur la totalité de la surface occupée par la nef de la cathédrale et des rues la flanquant, les quelques 1024 coupes à boire de La Tène finale mises au jour ont quant à elles permis d'identifier les surfaces de gravier qu'elles scellaient comme une aire de rassemblement ayant abrité des banquets tenus périodiquement. Le maintien de ces activités rituelles et collectives jusqu'au milieu du Ier siècle de notre ère conclut l'analyse diachronique. La mise en perspective historique des données recueillies sur le terrain souligne l'importance de l'antique oppidum extremum des Allobroges, dont le sort fut en 58 av. J.-C. à l'origine de la Guerre des Gaules.
Resumo:
Des représentations contradictoires coexistent aujourd'hui au sein de l'école concernant la place à octroyer aux émotions et aux expériences personnelles des élèves. Cette tension est ravivée par l'importance accordée à ce qu'on appelle l'éducation en vue du développement durable (EDD) qui cherche à fournir aux élèves des outils pour comprendre et se situer activement dans les grands défis que connaissent les sociétés actuelles. Les questions évoquées dans le cadre de ces enseignements relèvent de différents domaines de connaissances (sciences sociales et sciences naturelles, éthique, philosophie) et amènent à l'élaboration de compétences - comme celles de participer à des prises de décision collectives - ou le développement de valeurs telles que la responsabilité et le partage. Ces compétences à développer impliquent souvent des activités pédagogiques dans lesquelles les élèves sont amenés à évoquer leurs expériences personnelles et leurs propres opinions et émotions. Dans le cadre d'une approche sociohistorique du développement et de l'apprentissage, nous prendrons comme point de départ l'idée selon laquelle les émotions consistent en un ensemble de processus historiquement et culturellement situés et médiatisés, qui tout comme la pensée, passent d'un plan interpsychique à un plan intrapsychique (Vygotsky, 1987/1930). Dans la continuité des travaux de Vygotski nous examinerons le processus de « socialisation » des émotions au sein d'interactions didactiques, et analyserons dans quelle mesure ce processus est inséré dans la dynamique de construction de connaissances.
Resumo:
Ce guide, unique en son genre, est appelé à rendre les plus grands services à tous ceux qui souhaitent s'initier à la lecture historico-critique du Nouveau Testament ou approfondir son étude. Tout ce qu'il faut savoir (méthode, analyse, contexte des différents livres, etc...) s'y trouve. L'ouvrage comprend 5 parties qui peuvent se lire chacune indépendamment les unes des autres. Au début figure une introduction à la méthode des sciences bibliques en Nouveau Testament aujourd'hui. Puis, l'univers du christianisme primitif est largement présenté. Dans la troisième partie, un survol des contenus de chacun des écrits du Nouveau Testament est proposé, ainsi que les problèmes théologiques et historiques que ceux-ci soulèvent. Enfin, une présentation de l'activité et de la prédication de Jésus de Nazareth est développée sur fond d'une histoire du christianisme primitif. L'édition allemande de ce livre a déjà fait l'objet de douze rééditions, systématiquement réactualisées par les auteurs.
Resumo:
To describe the collective behavior of large ensembles of neurons in neuronal network, a kinetic theory description was developed in [13, 12], where a macroscopic representation of the network dynamics was directly derived from the microscopic dynamics of individual neurons, which are modeled by conductance-based, linear, integrate-and-fire point neurons. A diffusion approximation then led to a nonlinear Fokker-Planck equation for the probability density function of neuronal membrane potentials and synaptic conductances. In this work, we propose a deterministic numerical scheme for a Fokker-Planck model of an excitatory-only network. Our numerical solver allows us to obtain the time evolution of probability distribution functions, and thus, the evolution of all possible macroscopic quantities that are given by suitable moments of the probability density function. We show that this deterministic scheme is capable of capturing the bistability of stationary states observed in Monte Carlo simulations. Moreover, the transient behavior of the firing rates computed from the Fokker-Planck equation is analyzed in this bistable situation, where a bifurcation scenario, of asynchronous convergence towards stationary states, periodic synchronous solutions or damped oscillatory convergence towards stationary states, can be uncovered by increasing the strength of the excitatory coupling. Finally, the computation of moments of the probability distribution allows us to validate the applicability of a moment closure assumption used in [13] to further simplify the kinetic theory.
Resumo:
AbstractBreast cancer is one of the most common cancers affecting one in eight women during their lives. Survival rates have increased steadily thanks to early diagnosis with mammography screening and more efficient treatment strategies. Post-operative radiation therapy is a standard of care in the management of breast cancer and has been shown to reduce efficiently both local recurrence rate and breast cancer mortality. Radiation therapy is however associated with some late effects for long-term survivors. Radiation-induced secondary cancer is a relatively rare but severe late effect of radiation therapy. Currently, radiotherapy plans are essentially optimized to maximize tumor control and minimize late deterministic effects (tissue reactions) that are mainly associated with high doses (» 1 Gy). With improved cure rates and new radiation therapy technologies, it is also important to evaluate and minimize secondary cancer risks for different treatment techniques. This is a particularly challenging task due to the large uncertainties in the dose-response relationship.In contrast with late deterministic effects, secondary cancers may be associated with much lower doses and therefore out-of-field doses (also called peripheral doses) that are typically inferior to 1 Gy need to be determined accurately. Out-of-field doses result from patient scatter and head scatter from the treatment unit. These doses are particularly challenging to compute and we characterized it by Monte Carlo (MC) calculation. A detailed MC model of the Siemens Primus linear accelerator has been thoroughly validated with measurements. We investigated the accuracy of such a model for retrospective dosimetry in epidemiological studies on secondary cancers. Considering that patients in such large studies could be treated on a variety of machines, we assessed the uncertainty in reconstructed peripheral dose due to the variability of peripheral dose among various linac geometries. For large open fields (> 10x10 cm2), the uncertainty would be less than 50%, but for small fields and wedged fields the uncertainty in reconstructed dose could rise up to a factor of 10. It was concluded that such a model could be used for conventional treatments using large open fields only.The MC model of the Siemens Primus linac was then used to compare out-of-field doses for different treatment techniques in a female whole-body CT-based phantom. Current techniques such as conformai wedged-based radiotherapy and hybrid IMRT were investigated and compared to older two-dimensional radiotherapy techniques. MC doses were also compared to those of a commercial Treatment Planning System (TPS). While the TPS is routinely used to determine the dose to the contralateral breast and the ipsilateral lung which are mostly out of the treatment fields, we have shown that these doses may be highly inaccurate depending on the treatment technique investigated. MC shows that hybrid IMRT is dosimetrically similar to three-dimensional wedge-based radiotherapy within the field, but offers substantially reduced doses to out-of-field healthy organs.Finally, many different approaches to risk estimations extracted from the literature were applied to the calculated MC dose distribution. Absolute risks varied substantially as did the ratio of risk between two treatment techniques, reflecting the large uncertainties involved with current risk models. Despite all these uncertainties, the hybrid IMRT investigated resulted in systematically lower cancer risks than any of the other treatment techniques. More epidemiological studies with accurate dosimetry are required in the future to construct robust risk models. In the meantime, any treatment strategy that reduces out-of-field doses to healthy organs should be investigated. Electron radiotherapy might offer interesting possibilities with this regard.RésuméLe cancer du sein affecte une femme sur huit au cours de sa vie. Grâce au dépistage précoce et à des thérapies de plus en plus efficaces, le taux de guérison a augmenté au cours du temps. La radiothérapie postopératoire joue un rôle important dans le traitement du cancer du sein en réduisant le taux de récidive et la mortalité. Malheureusement, la radiothérapie peut aussi induire des toxicités tardives chez les patients guéris. En particulier, les cancers secondaires radio-induits sont une complication rare mais sévère de la radiothérapie. En routine clinique, les plans de radiothérapie sont essentiellement optimisées pour un contrôle local le plus élevé possible tout en minimisant les réactions tissulaires tardives qui sont essentiellement associées avec des hautes doses (» 1 Gy). Toutefois, avec l'introduction de différentes nouvelles techniques et avec l'augmentation des taux de survie, il devient impératif d'évaluer et de minimiser les risques de cancer secondaire pour différentes techniques de traitement. Une telle évaluation du risque est une tâche ardue étant donné les nombreuses incertitudes liées à la relation dose-risque.Contrairement aux effets tissulaires, les cancers secondaires peuvent aussi être induits par des basses doses dans des organes qui se trouvent hors des champs d'irradiation. Ces organes reçoivent des doses périphériques typiquement inférieures à 1 Gy qui résultent du diffusé du patient et du diffusé de l'accélérateur. Ces doses sont difficiles à calculer précisément, mais les algorithmes Monte Carlo (MC) permettent de les estimer avec une bonne précision. Un modèle MC détaillé de l'accélérateur Primus de Siemens a été élaboré et validé avec des mesures. La précision de ce modèle a également été déterminée pour la reconstruction de dose en épidémiologie. Si on considère que les patients inclus dans de larges cohortes sont traités sur une variété de machines, l'incertitude dans la reconstruction de dose périphérique a été étudiée en fonction de la variabilité de la dose périphérique pour différents types d'accélérateurs. Pour de grands champs (> 10x10 cm ), l'incertitude est inférieure à 50%, mais pour de petits champs et des champs filtrés, l'incertitude de la dose peut monter jusqu'à un facteur 10. En conclusion, un tel modèle ne peut être utilisé que pour les traitements conventionnels utilisant des grands champs.Le modèle MC de l'accélérateur Primus a été utilisé ensuite pour déterminer la dose périphérique pour différentes techniques dans un fantôme corps entier basé sur des coupes CT d'une patiente. Les techniques actuelles utilisant des champs filtrés ou encore l'IMRT hybride ont été étudiées et comparées par rapport aux techniques plus anciennes. Les doses calculées par MC ont été comparées à celles obtenues d'un logiciel de planification commercial (TPS). Alors que le TPS est utilisé en routine pour déterminer la dose au sein contralatéral et au poumon ipsilatéral qui sont principalement hors des faisceaux, nous avons montré que ces doses peuvent être plus ou moins précises selon la technTque étudiée. Les calculs MC montrent que la technique IMRT est dosimétriquement équivalente à celle basée sur des champs filtrés à l'intérieur des champs de traitement, mais offre une réduction importante de la dose aux organes périphériques.Finalement différents modèles de risque ont été étudiés sur la base des distributions de dose calculées par MC. Les risques absolus et le rapport des risques entre deux techniques de traitement varient grandement, ce qui reflète les grandes incertitudes liées aux différents modèles de risque. Malgré ces incertitudes, on a pu montrer que la technique IMRT offrait une réduction du risque systématique par rapport aux autres techniques. En attendant des données épidémiologiques supplémentaires sur la relation dose-risque, toute technique offrant une réduction des doses périphériques aux organes sains mérite d'être étudiée. La radiothérapie avec des électrons offre à ce titre des possibilités intéressantes.
Resumo:
La question centrale de ce travail est celle de la relation entre finitude environnementale et liberté individuelle. Par finitude environnementale il faut entendre l'ensemble des contraintes écologiques variées qui posent des limites à l'action humaine. Celles-ci sont de deux types généraux : les limites de disponibilité des ressources naturelles et: les limites de charge des écosystèmes et des grands cycles biogéochimiques globaux (chapitre 1). La thèse défendue ici est que les conceptions libertariennes et libérales de la liberté sont en conflit avec la nécessité de prendre en compte de telles limites et qu'une approche néo-républicaine est mieux à même de répondre à ces enjeux écologiques. Les théories libertariennes, de droite comme de gauche, sont inadaptées à la prise en compte de la finitude des ressources naturelles car elles maintiennent un droit à l'appropriation illimitée de ces dernières par les individus. Ce point est en contradiction avec le caractère systémique de la rareté et avec l'absence de substitut pour certaines ressources indispensables à la poursuite d'une vie décente (chapitres 2 et 3). La théorie libérale de la neutralité, appuyée par le principe du tort (harm principle), est quant à elle inadaptée à la prise en compte des problèmes environnementaux globaux comme le changement climatique. Les mécanismes causaux menant à la création de dommages environnementaux sont en effet indirects et diffus, ce qui empêche l'assignation de responsabilités au niveau individuel. La justification de politiques environnementales contraignantes s'en trouve donc mise en péril (chapitre 4). Ces difficultés proviennent avant tout de deux traits caractéristiques de ces doctrines : leur ontologie sociale atomiste et leur conception de la liberté comme liberté de choix. Le néo-républicanisme de Philip Pettit permet de répondre à ces deux problèmes grâce à son ontologie holiste et à sa conception de la liberté comme non- domination. Cette théorie permet donc à la fois de proposer une conception de la liberté compatible avec la finitude environnementale et de justifier des politiques environnementales exigeantes, sans que le sacrifice en termes de liberté n'apparaisse trop important (chapitre 5). - The centrai issue of this work is that of the relationship between environmental finiteness and individual liberty. By environmental finiteness one should understand the set of diverse ecological constraints that limit human action. These limits are of two general kinds: on the one hand the availability of natural resources, and on the other hand the carrying capacity of ecosystems and biogeochemical cycles (chapter 1}. The thesis defended here is that libertarian and liberal conceptions of liberty conflict with the necessity to take such limits into account, and that a neo-republican approach is best suited to address environmental issues. Libertarian theories, right-wing as well as left-wing, are in particular not able to take resource scarcity into account because they argue for an unlimited right of individuals to appropriate those resources. This point is in contradiction with the systemic nature of scarcity and with the absence of substitutes for some essential resources (chapters 2 and 3). The liberal doctrine of neutrality, as associated with the harm principle, is unsuitable when addressing global environmental issues like climate change. Causal mechanisms leading to environmental harm are indirect and diffuse, which prevents the assignation of individual responsibilities. This makes the justification of coercive environmental policies difficult (chapter 4). These difficulties stem above all from two characteristic features of libertarian and liberal doctrines: their atomistic social ontology and their conception of freedom as liberty of choice. Philip Pettit's neo- republicanism on the other hand is able to address these problems thanks to its holist social ontology and its conception of liberty as non-domination. This doctrine offers a conception of liberty compatible with environmental limits and theoretical resources able to justify demanding environmental policies without sacrificing too much in terms of liberty (chapter 5).
Resumo:
Dès le milieu des années 1920 et le développement des premiers prototypes fonctionnels, la télévision se fait objet d'exposition. La nouvelle technologie est montrée à des foires industrielles et dans des grands magasins, à des expositions universelles et nationales : exposée, la télévision devient un mass media avant même qu'elle ne diffuse des émissions régulières. En étudiant les présentations publiques de la télévision en Allemagne, en Grande-Bretagne et aux Etats-Unis entre 1928 - date de l'ouverture des premières expositions annuelles dans les trois pays - et 1939 - moment de l'interruption de celles-ci suite à l'éclatement de la Deuxième Guerre mondiale - Television before TV montre que les lieux où le médium rencontre son premier public constituent les mêmes espaces qui, rétrospectivement, permettent de comprendre son avènement. Cette recherche propose ainsi de nouvelles pistes pour l'histoire des médias en interrogeant la définition de la télévision en tant que médium du privé. Elle rappelle l'importance historique de l'espace public pour la « vision à distance » et, dépassant la perspective nationale, reconstitue les différences et similarités techniques, médiatiques et institutionnelles de la télévision allemande, américaine et britannique dans l'entre-deux-guerres. Développée dans un contexte qui est simultanément nationaliste et nourri d'échanges et de compétitions internationales, la télévision sert de comparatif dans les rivalités entre pays, mais stimule également la circulation de savoir-faire et de personnes. Sa forte valeur symbolique comme emblème du progrès scientifique et, dans le cas allemand, comme preuve de la modernité du régime national-socialiste se traduit dans les salles d'expositions par des scénographies souvent innovatrices, dont les photographies et descriptions se propagent au-delà de la presse locale. Au centre d'un réseau discursif et représentationnel, les expositions jouent alors un rôle essentiel pour la construction sociale, politique et culturelle de la télévision. Remplaçant l'analyse de textes audiovisuels par l'étude de la machine exposée, ma recherche reformule la question bazinienne de qu'est-ce que la télévision ? pour demander où le médium se situe-t-il ? Cette prémisse méthodologique permet de contourner une évaluation qualitative de la technologie qui déplorerait ses multiples imperfections, et éclaire d'un nouveau jour des dispositifs télévisuels qui, même sans programme, intègrent un univers voué à la culture de consommation et du loisir.
Resumo:
(Résumé de l'ouvrage) Les recherches sur l'historiographie de l'Église primitive se sont multipliées depuis des temps récents, en France comme à l'étranger, et de grands projets d'édition et de traduction arrivent actuellement à leur terme. Il a donc semblé utile de faire le point sur les travaux en cours, qu'ils aient été entrepris par des historiens de l'Antiquité tardive ou par des philologues, latinistes, hellénistes et orientalistes, par des théologiens ou par des exégètes, et d'engager une réflexion sur la manière dont s'écrivait l'histoire de l'Église et dont l'Église pensait ses origines et sa propre histoire. C'est l'ensemble de leurs travaux qui se trouve présenté dans ce volume, dont la problématique correspond à une actualité à la fois médiatique, historique et religieuse, puisque se célèbre cette année le deuxième millénaire de l'ère chrétienne - tant il est vrai que toute réflexion sur le passé est aussi (et avant tout ?) une réflexion sur le présent et sur l'avenir.
Resumo:
Cet ouvrage en propose une image différente des vallées latérales du Valais qui aux XVIIIe et XIXe siècles participent aux grands mouvements qui agitent l'Europe et parfois même les anticipent. Les grandes questions religieuses, politiques et culturelles - rôle de l'Église, éducation, libertés, droits individuels et collectifs... - passionnent et divisent les communautés locales. L'étude révèle enfin un aspect insoupçonné : dans les luttes pour le pouvoir et pour des valeurs sociales et culturelles, les attitudes et les comportements sexuels jouent un rôle central et jusqu'à présent négligé.
Resumo:
Problématique : En Suisse, près de 5300 nouveaux cas de cancer du sein chez la femme et 30 à 40 chez l'homme sont diagnostiqués chaque année. Une femme sur huit sera touchée par la maladie au cours de sa vie (1-2). Malgré l'avancée de la médecine dans le traitement de cette maladie, il arrive encore que des situations dramatiques se présentent suite à une tumeur localement avancée ou récidivante. Une plaie chronique douloureuse et nécrotique parfois surinfectée ne répondant pas aux traitements de chimio- et de radiothérapie nécessite alors d'effectuer une résection large de la zone atteinte afin d'améliorer la qualité de vie de ces patients. Cette opération entraîne un vaste défect de la paroi thoracique antérieure qui demande une chirurgie de couverture complexe. Le lambeau épiploïque proposé par Kiricuta en 1963 est encore utilisé de nos jours pour ce genre d'intervention (3). L'évolution des techniques chirurgicales fait que nous disposons actuellement d'autres lambeaux myocutanés performants pour de telles situations oncologiques. Ce travail s'intéresse à l'évaluation de l'épiplooplastie proposée il y a maintenant près de 50 ans, afin de s'interroger sur la place qu'elle occupe aujourd'hui parmi ces autres techniques. Objectifs : Comprendre la technique du lambeau de Kiricuta et évaluer sa place parmi les techniques de reconstruction dans la chirurgie du cancer du sein localement avancé ou récidivant. Méthodes : Une revue de la littérature des articles s'intéressant au lambeau de Kiricuta depuis 1963 a permis d'évaluer ses qualités et ses inconvénients. Cette technique a été illustrée par l'analyse rétrospective des dossiers de 4 patients ayant bénéficié d'une reconstruction à partir du grand épiploon au CHUV suite à un cancer du sein récidivant ou localement avancé. La présentation des autres techniques de reconstructions de la paroi thoracique antérieure s'est également basée sur la récolte d'articles d'études comparant ces différentes opérations. Résultats: Le grand épiploon est un organe doté de capacités étonnantes, immunologiques et angiogéniques. Sa taille souvent généreuse convient à de grands défects de la paroi thoracique, particulièrement lors d'atteinte bilatérale ou de la région axillaire. Son utilisation ne convient toutefois pas lors d'exérèse de plus de 3 côtes par manque de stabilité de la cage thoracique. Apprécié en milieu infecté et/ou radique, il convient aux situations où les lambeaux myocutanés sont inadéquats. En effet, comme sa taille n'est pas prédictible et que l'opération demande souvent une laparotomie, cette technique est envisagée en seconde intention ou suivant des situations particulières. Conclusion : L'amélioration des symptômes locaux lors de cancer du sein localement avancé ou récidivant a pu être obtenue en excisant la lésion et en la recouvrant par le lambeau de Kiricuta. Le bénéfice sur la qualité de vie ainsi apporté à ces patients fait de l'épiplooplastie un choix à considérer dans le traitement chirurgical du cancer du sein.
Resumo:
Résumé Le μ-calcul est une extension de la logique modale par des opérateurs de point fixe. Dans ce travail nous étudions la complexité de certains fragments de cette logique selon deux points de vue, différents mais étroitement liés: l'un syntaxique (ou combinatoire) et l'autre topologique. Du point de vue syn¬taxique, les propriétés définissables dans ce formalisme sont classifiées selon la complexité combinatoire des formules de cette logique, c'est-à-dire selon le nombre d'alternances des opérateurs de point fixe. Comparer deux ensembles de modèles revient ainsi à comparer la complexité syntaxique des formules as¬sociées. Du point de vue topologique, les propriétés définissables dans cette logique sont comparées à l'aide de réductions continues ou selon leurs positions dans la hiérarchie de Borel ou dans celle projective. Dans la première partie de ce travail nous adoptons le point de vue syntax¬ique afin d'étudier le comportement du μ-calcul sur des classes restreintes de modèles. En particulier nous montrons que: (1) sur la classe des modèles symétriques et transitifs le μ-calcul est aussi expressif que la logique modale; (2) sur la classe des modèles transitifs, toute propriété définissable par une formule du μ-calcul est définissable par une formule sans alternance de points fixes, (3) sur la classe des modèles réflexifs, il y a pour tout η une propriété qui ne peut être définie que par une formule du μ-calcul ayant au moins η alternances de points fixes, (4) sur la classe des modèles bien fondés et transitifs le μ-calcul est aussi expressif que la logique modale. Le fait que le μ-calcul soit aussi expressif que la logique modale sur la classe des modèles bien fondés et transitifs est bien connu. Ce résultat est en ef¬fet la conséquence d'un théorème de point fixe prouvé indépendamment par De Jongh et Sambin au milieu des années 70. La preuve que nous donnons de l'effondrement de l'expressivité du μ-calcul sur cette classe de modèles est néanmoins indépendante de ce résultat. Par la suite, nous étendons le langage du μ-calcul en permettant aux opérateurs de point fixe de lier des occurrences négatives de variables libres. En montrant alors que ce formalisme est aussi ex¬pressif que le fragment modal, nous sommes en mesure de fournir une nouvelle preuve du théorème d'unicité des point fixes de Bernardi, De Jongh et Sambin et une preuve constructive du théorème d'existence de De Jongh et Sambin. RÉSUMÉ Pour ce qui concerne les modèles transitifs, du point de vue topologique cette fois, nous prouvons que la logique modale correspond au fragment borélien du μ-calcul sur cette classe des systèmes de transition. Autrement dit, nous vérifions que toute propriété définissable des modèles transitifs qui, du point de vue topologique, est une propriété borélienne, est nécessairement une propriété modale, et inversement. Cette caractérisation du fragment modal découle du fait que nous sommes en mesure de montrer que, modulo EF-bisimulation, un ensemble d'arbres est définissable dans la logique temporelle Ε F si et seulement il est borélien. Puisqu'il est possible de montrer que ces deux propriétés coïncident avec une caractérisation effective de la définissabilité dans la logique Ε F dans le cas des arbres à branchement fini donnée par Bojanczyk et Idziaszek [24], nous obtenons comme corollaire leur décidabilité. Dans une deuxième partie, nous étudions la complexité topologique d'un sous-fragment du fragment sans alternance de points fixes du μ-calcul. Nous montrons qu'un ensemble d'arbres est définissable par une formule de ce frag¬ment ayant au moins η alternances si et seulement si cette propriété se trouve au moins au n-ième niveau de la hiérarchie de Borel. Autrement dit, nous vérifions que pour ce fragment du μ-calcul, les points de vue topologique et combina- toire coïncident. De plus, nous décrivons une procédure effective capable de calculer pour toute propriété définissable dans ce langage sa position dans la hiérarchie de Borel, et donc le nombre d'alternances de points fixes nécessaires à la définir. Nous nous intéressons ensuite à la classification des ensembles d'arbres par réduction continue, et donnons une description effective de l'ordre de Wadge de la classe des ensembles d'arbres définissables dans le formalisme considéré. En particulier, la hiérarchie que nous obtenons a une hauteur (ωω)ω. Nous complétons ces résultats en décrivant un algorithme permettant de calculer la position dans cette hiérarchie de toute propriété définissable.
Resumo:
Une superbe fresque des quêtes spirituelles de l'humanité. Qui sont ces maîtres de vie, ces sages, ces mystiques qui ont façonné l'aventure spirituelle de l'humanité ? Quels sont les grands textes qu'ils ont écrits ou suscités, quelles sont les sources de leur inspiration ? Pour la première fois en un seul volume les trésors de sagesses de l'histoire de l'humanité : 100 figures spirituelles (Du Bouddha à Thérèse d'Avila, de Sénèque à Gandhi, d'Ibn 'Arabi à Simone Weil, des sages égyptiens aux lamas tibétains contemporains, des maîtres du hassidisme aux gurus de l'Inde moderne...), 200 textes de sagesse du monde entier, 100 illustrations.
Resumo:
Une superbe fresque des quêtes spirituelles de l'humanité. Qui sont ces maîtres de vie, ces sages, ces mystiques qui ont façonné l'aventure spirituelle de l'humanité ? Quels sont les grands textes qu'ils ont écrits ou suscités, quelles sont les sources de leur inspiration ? Pour la première fois en un seul volume les trésors de sagesses de l'histoire de l'humanité : 100 figures spirituelles (Du Bouddha à Thérèse d'Avila, de Sénèque à Gandhi, d'Ibn 'Arabi à Simone Weil, des sages égyptiens aux lamas tibétains contemporains, des maîtres du hassidisme aux gurus de l'Inde moderne...), 200 textes de sagesse du monde entier, 100 illustrations.
Resumo:
Une superbe fresque des quêtes spirituelles de l'humanité. Qui sont ces maîtres de vie, ces sages, ces mystiques qui ont façonné l'aventure spirituelle de l'humanité ? Quels sont les grands textes qu'ils ont écrits ou suscités, quelles sont les sources de leur inspiration ? Pour la première fois en un seul volume les trésors de sagesses de l'histoire de l'humanité : 100 figures spirituelles (Du Bouddha à Thérèse d'Avila, de Sénèque à Gandhi, d'Ibn 'Arabi à Simone Weil, des sages égyptiens aux lamas tibétains contemporains, des maîtres du hassidisme aux gurus de l'Inde moderne...), 200 textes de sagesse du monde entier, 100 illustrations.
Resumo:
Une superbe fresque des quêtes spirituelles de l'humanité. Qui sont ces maîtres de vie, ces sages, ces mystiques qui ont façonné l'aventure spirituelle de l'humanité ? Quels sont les grands textes qu'ils ont écrits ou suscités, quelles sont les sources de leur inspiration ? Pour la première fois en un seul volume les trésors de sagesses de l'histoire de l'humanité : 100 figures spirituelles (Du Bouddha à Thérèse d'Avila, de Sénèque à Gandhi, d'Ibn 'Arabi à Simone Weil, des sages égyptiens aux lamas tibétains contemporains, des maîtres du hassidisme aux gurus de l'Inde moderne...), 200 textes de sagesse du monde entier, 100 illustrations.