1000 resultados para Lesbos (Grèce) -- Moeurs et coutumes


Relevância:

40.00% 40.00%

Publicador:

Resumo:

Alexis de Tocqueville est un auteur canonique du libéralisme. Son inscription au sein du libéralisme s’opère fréquemment par une accentuation unilatérale de sa défense de la liberté individuelle. Certes, Tocqueville défend la liberté individuelle, elle prend une place décisive dans son œuvre où l’objectif théorique proposé révèle sa volonté d’élever l’individu à côté de la société et de l’État. Mais cette défense est constamment pensée chez Tocqueville en interrogeant ses conditions de possibilité qui sont indissociables d’une culture politique où la participation politique est une dimension essentielle. Une participation politique qui fonde des habitudes collectives, une culture civique, assurant ainsi la pérennité des institutions démocratiques libérales. En ce sens, il est évident que le libéralisme de Tocqueville est déterminé par un cadre plus large que la seule défense de la liberté individuelle. Afin qu’elle s’épanouisse pleinement et véritablement, il y a une priorité absolue d’une pratique continue de la liberté, la liberté politique qui actualise sans repos les conditions de possibilité de la liberté individuelle. Cette pratique de la liberté politique contribue à la formation des «mœurs libres», ces habitudes collectives qui organisent une culture civique particulière, mœurs indispensables au maintien des sociétés libres. Nous identifierons donc Tocqueville à un libéralisme des mœurs. Afin de saisir adéquatement la réelle portée de la pensée tocquevillienne, nous dévoilerons les influences intellectuelles fondamentales qui ont présidé à l’élaboration de La Démocratie en Amérique. De fait, nous restituerons l’espace intertextuel entre Tocqueville et François Guizot. Cet espace révèle l’influence certaine de Guizot sur Tocqueville, mais il rend également saillante son insistance sur une pratique de la liberté politique.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

La notion d'un esprit étranger et invisible qui prend possession d'un corps est, croit-on, sémitique. Les peuples proche-orientaux et juifs avaient développé des rituels et des pratiques spécifiques pour s'en débarasser. Les Grecs, pour leur part, avaient parfois à composer avec différentes entités, des daimones, des morts ou des apparitions et parfois des divinités dont les actions pouvaient s'avérer très nuisibles, si ce n'est nettement invasives. Toutefois, la communis opinio maintient que les concepts de la possession et de l'exorcisme ne furent chez eux, que tardivement introduits, et ce, sous l'influence des sémitiques. Pourtant, la littérature et les sources épigraphiques, papyrologiques et archéologiques semblent démontrer que les Grecs avaient déjà, dès l'époque classique, dans leur propre culture et religion, les éléments caractéristiques de la possession et de l'exorcisme. Une analyse approfondie de textes d'auteurs anciens, de formulaires de magie,dont les très connus Papyri Grecs Magiques et de diverses amulettes, apporte des arguments décisifs en ce sens.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Le développement d’un médicament est non seulement complexe mais les retours sur investissment ne sont pas toujours ceux voulus ou anticipés. Plusieurs médicaments échouent encore en Phase III même avec les progrès technologiques réalisés au niveau de plusieurs aspects du développement du médicament. Ceci se traduit en un nombre décroissant de médicaments qui sont commercialisés. Il faut donc améliorer le processus traditionnel de développement des médicaments afin de faciliter la disponibilité de nouveaux produits aux patients qui en ont besoin. Le but de cette recherche était d’explorer et de proposer des changements au processus de développement du médicament en utilisant les principes de la modélisation avancée et des simulations d’essais cliniques. Dans le premier volet de cette recherche, de nouveaux algorithmes disponibles dans le logiciel ADAPT 5® ont été comparés avec d’autres algorithmes déjà disponibles afin de déterminer leurs avantages et leurs faiblesses. Les deux nouveaux algorithmes vérifiés sont l’itératif à deux étapes (ITS) et le maximum de vraisemblance avec maximisation de l’espérance (MLEM). Les résultats de nos recherche ont démontré que MLEM était supérieur à ITS. La méthode MLEM était comparable à l’algorithme d’estimation conditionnelle de premier ordre (FOCE) disponible dans le logiciel NONMEM® avec moins de problèmes de rétrécissement pour les estimés de variances. Donc, ces nouveaux algorithmes ont été utilisés pour la recherche présentée dans cette thèse. Durant le processus de développement d’un médicament, afin que les paramètres pharmacocinétiques calculés de façon noncompartimentale soient adéquats, il faut que la demi-vie terminale soit bien établie. Des études pharmacocinétiques bien conçues et bien analysées sont essentielles durant le développement des médicaments surtout pour les soumissions de produits génériques et supergénériques (une formulation dont l'ingrédient actif est le même que celui du médicament de marque, mais dont le profil de libération du médicament est différent de celui-ci) car elles sont souvent les seules études essentielles nécessaires afin de décider si un produit peut être commercialisé ou non. Donc, le deuxième volet de la recherche visait à évaluer si les paramètres calculer d’une demi-vie obtenue à partir d'une durée d'échantillonnage réputée trop courte pour un individu pouvaient avoir une incidence sur les conclusions d’une étude de bioéquivalence et s’ils devaient être soustraits d’analyses statistiques. Les résultats ont démontré que les paramètres calculer d’une demi-vie obtenue à partir d'une durée d'échantillonnage réputée trop courte influençaient de façon négative les résultats si ceux-ci étaient maintenus dans l’analyse de variance. Donc, le paramètre de surface sous la courbe à l’infini pour ces sujets devrait être enlevé de l’analyse statistique et des directives à cet effet sont nécessaires a priori. Les études finales de pharmacocinétique nécessaires dans le cadre du développement d’un médicament devraient donc suivre cette recommandation afin que les bonnes décisions soient prises sur un produit. Ces informations ont été utilisées dans le cadre des simulations d’essais cliniques qui ont été réalisées durant la recherche présentée dans cette thèse afin de s’assurer d’obtenir les conclusions les plus probables. Dans le dernier volet de cette thèse, des simulations d’essais cliniques ont amélioré le processus du développement clinique d’un médicament. Les résultats d’une étude clinique pilote pour un supergénérique en voie de développement semblaient très encourageants. Cependant, certaines questions ont été soulevées par rapport aux résultats et il fallait déterminer si le produit test et référence seraient équivalents lors des études finales entreprises à jeun et en mangeant, et ce, après une dose unique et des doses répétées. Des simulations d’essais cliniques ont été entreprises pour résoudre certaines questions soulevées par l’étude pilote et ces simulations suggéraient que la nouvelle formulation ne rencontrerait pas les critères d’équivalence lors des études finales. Ces simulations ont aussi aidé à déterminer quelles modifications à la nouvelle formulation étaient nécessaires afin d’améliorer les chances de rencontrer les critères d’équivalence. Cette recherche a apporté des solutions afin d’améliorer différents aspects du processus du développement d’un médicament. Particulièrement, les simulations d’essais cliniques ont réduit le nombre d’études nécessaires pour le développement du supergénérique, le nombre de sujets exposés inutilement au médicament, et les coûts de développement. Enfin, elles nous ont permis d’établir de nouveaux critères d’exclusion pour des analyses statistiques de bioéquivalence. La recherche présentée dans cette thèse est de suggérer des améliorations au processus du développement d’un médicament en évaluant de nouveaux algorithmes pour des analyses compartimentales, en établissant des critères d’exclusion de paramètres pharmacocinétiques (PK) pour certaines analyses et en démontrant comment les simulations d’essais cliniques sont utiles.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

L’amour, la mort et la souffrance sont parmi les expériences les plus incompréhensibles que l’homme doit affronter dans sa vie. Elles définissent sa nature et font partie intégrante de son univers symbolique. Le saut de Leucade aurait été pratiqué pendant plus de mille ans. À la fois présent dans les récits mythiques, religieux et historiques, le rituel est attesté par les premiers historiens de l’Antiquité qui décrivent ce phénomène à partir des données de l’historiographie antique. La forme traditionnelle du saut s’inscrit dans l’univers mythologique des Grecs et le plongeon est un acte de délivrance de la passion amoureuse. La nature du rituel change selon les contextes littéraires, passant d’un rite érotique à un rituel apotropaïque pour se voir perpétuer de manière désacralisée dans les récits plus tardifs. L’analyse des différentes fonctions du saut semble démontrer le profil d’une expérience limite, où la mort serait vécue de manière métaphorique et pose le problème de la nature ordalique du rituel qui serait à la base de son efficacité pragmatique. Cette étude projette d’analyser les formes de la pensée grecque dans son expression anthropologique à travers la dialectique du mythe et du rite et vise à comprendre l’interprétation de la souffrance amoureuse dans le cadre du rituel de précipitation. Le saut de Leucade serait dès lors un discours spécifique qui témoignerait d’une certaine conception de la nature humaine, de la mort et de la souffrance amoureuse dans l’imaginaire de la Grèce ancienne.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Thèse réalisée en cotutelle avec l'université de Franche-Comté, école doctorale Langage, espace, temps et société.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Medipix2 (MPX) sont des détecteurs semi-conducteurs au silicium montés sur 256x256 pixels. Chaque pixel a une aire de 55x55μm2. L’aire active d’un détecteur MPX est d’environ 2 cm2. Avec deux modes de détection, un seuil et un temps d’exposition ajustables, leur utilisation peut être optimisée pour une analyse spécifique. Seize de ces détecteurs sont présentement installés dans l’expérience ATLAS (A Toroidal LHC ApparatuS) au CERN (Organisation Européenne pour la Recherche Nucléaire). Ils mesurent en temps réel le champ de radiation dû aux collisions proton-proton, au point d’interaction IP1 (Point d’Interaction 1) du LHC (Grand Collisionneur d’Hadrons). Ces mesures ont divers buts comme par exemple la mesure du champ de neutrons dans la caverne d’ATLAS. Le réseau de détecteurs MPX est complètement indépendant du détecteur ATLAS. Le groupe ATLAS-Montréal s’est intéressé à l’analyse des données récoltées par ces détecteurs pour calculer une valeur de la luminosité du LHC au point de collision des faisceaux, autour duquel est construit le détecteur ATLAS. Cette valeur est déterminée indépendamment de la luminosité mesurée par les divers sous-détecteurs d’ATLAS dédiés spécifiquement à la mesure de la luminosité. Avec l’augmentation de la luminosité du LHC les détecteurs MPX les plus proches du point d’interaction détectent un grand nombre de particules dont les traces sont impossibles à distinguer sur les images ("frames") obtenues, à cause de leur recouvrement. Les paramètres de mesure de certains de ces détecteurs ont été optimisés pour des mesures de luminosité. Une méthode d’analyse des données permet de filtrer les pixels bruyants et de convertir les données des images, qui correspondent à des temps d’exposition propres aux détecteurs MPX, en valeur de luminosité pour chaque LumiBlock. Un LumiBlock est un intervalle de temps de mesure propre au détecteur ATLAS. On a validé les mesures de luminosité premièrement en comparant les résultats obtenus par différents détecteurs MPX, et ensuite en comparant les valeurs de luminosité relevées à celles obtenues par les sous-détecteurs d’ATLAS dédiés spécifiquement à la mesure de la luminosité.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

par Hermann Cohn. Avec une lettre de S. Munk