451 resultados para Dualismes classiques
Resumo:
RESUMO: Os carcinomas localizados no nariz são muito frequentes em todas as séries conhecidas. São de diagnóstico clínico fácil e a sua confirmação por biópsia é muito segura. As terapêuticas mais indicadas são a cirurgia e a radioterapia, genericamente eficazes. Verifica-se, no entanto, que os pacientes continuam a solicitar tratamento em estádios muito avançados, mesmo conhecendo o diagnóstico e tendo acesso aos serviços sem custos. Esta situação poderá explicar-se face ao curso relativamente lento de muitos destes tumores e à idade geralmente avançada dos doentes que, de acordo com alguns inquéritos, receiam mais a terapeûtica do que a doença. Para obtenção de informação útil para condução deste problema, foram ainda analisados outros parâmetros. A maioria dos pacientes continua a solicitar tratamento quando as lesões envolvem duas subunidades nasais. Esta circunstância permite planear o tratamento cirúrgico com relativa facilidade, isto é, com exérese e reconstrução cujo resultado estético final é bastante aceitável. Os tumores de grandes dimensões, envolvendo várias subunidades, sendo frequentes, raramente implicam rinectomia total. Pelo contrário, são mais frequentes os tumores que envolvem metade do nariz e as estruturas vizinhas tais como o maxilar, a órbita e o lábio superior, atingindo mesmo a base do crânio. O controlo da doença nestes estádios é muito difícil. Não raramente, quando se crê que a doença está controlada, a cirurgia reconstrutiva bem como outras formas de reabilitação conjugadas, deixam ainda muita insatisfação. A nossa actividade tem-se desenvolvido seguindo os critérios adoptados nos melhores centros, isto é, as técnicas clássicas, complementadas com refinamentos recentes. Porém reflectindo sobre os resultados obtidos no tratamento de tumores do nariz, surge-nos um conjunto de questões para as quais ainda não encontrámos respostas cabais. Actuando de acordo com os princípios que definem o estado da arte, não obtivemos ainda resultados que satisfaçam tanto os doentes quanto os cirurgiões. Incessantemente procuramos novos dados técnicos e científicos que nos permitam sair deste ciclo vicioso em que o doente retarda a procura de assistência, receoso de que a terapêutica o deixe desfigurado. Tendo sempre em vista a obtenção dos melhores resultados com o mínimo de tempos cirúrgicos, valorizamos alguns detalhes praticados nos retalhos com padrão vascular bem definido. Dado que as sequelas na zona dadora de tecidos são uma incontornável preocupação, procuramos refinar a sua aplicação no sentido de as atenuarmos. A fronte, excelente zona dadora para reconstrucção nasal major, era sede de sequelas actualmente inaceitáveis. Estudado o comportamento dos tecidos na fronte, depois de levantado o retalho e efectuado o seu encerramento com uso da técnica de expansão intra-operatória, determinámos a presença do Factor de Crescimento Vascular Endotelial no próprio retalho e na zona dadora, tendo em vista que a sua presença poderá explicar o comportamento dos tecidos que foram submetidos a esta técnica. Procurou-se estudar a qualidade da reconstrução em 45 pacientes submetidos a cirurgia de exérese e reconstrução nasal major, assim como a qualidade de vida, relacionada com a doença e a terapêutica. Embora se possa admitir a existência de dados sugestivos de estratégias mais adequadas, não foi possível relacionar a qualidade da reconstrução com qualidade de vida dos pacientes. Poderá eventualmente concluir-se que a observação permanente da reconstrução, com qualidade estética e funcional, será o melhor método de alterar a ideia clássica, ainda muito divulgada, mas já ultrapassada, de que a cirurgia reconstrutiva do nariz não é mais que transformar um defeito horroroso num defeito ridículo.---------------ABSTRACT: Malignant tumours found in the nose are very frequent in all known series. Clinical diagnosis is simple and confirmation of biopsy diagnosis is accessible and safe. The most advisable therapies are surgery and radiotherapy. Despite everything patients continue to wait until the tumour is in an advanced stage before asking for therapy, although they know the diagnosis and have free access to specialised services. This situation could probably be explained by the slow development rate of the tumours which is associated with the age of the patient. Upon inquiry, it was found that a significant number of patients are more afraid of therapy than of the disease itself. Other parameters have been analysed in order to obtain useful information about the management of this problem. The majority of patients seek adequate treatment when the lesions involve two nasal subunits. This allows the programming of surgical therapy with relative ease as they may be removed and reconstructed with interesting final aesthetical results. Large tumours involving several subunits are frequent, but they rarely call for total rhinectomy. On the contrary, tumours more frequently involve half of the nose and their neighbouring structures: for example, maxillary, orbital and upper lip, even reaching as far as the base of the skull. The control of the disease is very difficult in these stages.In cases in which it is believed that the disease is under control, reconstructive surgery in conjunction with other forms of rehabilitation still result in a lot of dissatisfaction. In our activity we try to follow the criteria adopted by the best centres following classic techniques, complemented with recent refinements. Reflecting on the treatment of tumours of the nose has led us to a series of questions to which we haven’t yet found the answers. In accordance with the defined principles of ‘the state of the art’ it still doesn’t satisfy either the patients or the surgeons. We are looking for new technical and scientific data which allows us to leave this vicious cycle, in that the deferred patient avoids looking for assistance, based on the fear that therapy could leave them disfigured. We attach importance to some practiced details on the well-defined vascular pattern of the flaps, with the principle aim of obtaining a good result, from the minimum number of operations. It is known that sequels in donor sites are a concern, so applied refinements are used in order to reduce the defect. The forehead has been considered an excellent donor site for major nasal reconstruction but the area of sequel is nowadays unacceptable. We tried to study the behaviour of the tissues of the forehead after taking the flap and closing the wound, using the intraoperative expansion technique. We determined the presence of Vascular Endothelial Growth Factor in the flaps and in the donor site, in which its presence could explain the behaviour of the tissues of the forehead that are submitted to this technique. The quality of the reconstruction was studied in 45 patients who were submitted to surgical exeresisand major nasal reconstruction, as was the relationship between the disease and the therapy regarding quality of life. It was not possible to directely relate the quality of the reconstruction to the quality of patients life, although some suggestive data of more adequate manegement may be interesting. One might eventually conclude that, permanent exposure of the reconstruction with aesthetic and funcional quality would be the best method in order to modify the classic idea which is still known although overridden today, that nasal reconstruction could transform a horrible defect into a ridiculous one.-------RÉSUMÉ: Les carcinomes situés sur le nez sont très fréquents dans toutes les séries connues. Ils sont de diagnostic facile et la confirmation de ce dernier par une biopsie, est accessible et très fiable. La chirurgie et la radiothérapie sont les thérapeutiques les mieux indiquées. Toutefois les patients continuent de solliciter un traitement, seulement dans des états très avancés bien qu’ils aient eu connaissance du diagnostic et ayant accès aux services. Cette situation pourra probablement s’expliquer par l’évolution relativement indolente de beaucoup de tumeurs, associée à l’âge des malades; bien que selon quelques enquêtes réalisées un nombre élevé de malades craint davantage la thérapeutique que la maladie. D’autres paramètres sont analysés en vue d’obtenir des informations utiles pour l’accompagnement de ce problème. La majorité de nos patients sollicite le traitement adéquat quand les lésions entourent deux sous-unités nasales, ce qui permet de planifier le traitement chirurgique avec une certaine facilité, c’est à dire l’exérèse et la reconstruction ayant un résultat final esthétique généralement très acceptable. Les tumeurs de grandes dimensions entourant différentes sous-unités sont fréquentes mais elles impliquent rarement une amputation nasal total. Au contraire, les tumeurs les plus fréquentes sont celles qui entourent la moitié du nez et les structures voisines comme le maxillaire, l’orbite et la lèvre supérieure, parfois, elles peuvent même atteindre la base du crâne. Le contrôle de la maladie dans ces états est très difficile et quand nous pensons que la maladie est contrôlée, la chirurgie reconstructrice associée à d’autres formes de réhabilitation provoquent encore une grande insatisfaction. Nous exerçons notre activité en essayant de suivre les critères adoptés dans les meilleurs centres. Nous appliquons les techniques classiques complétées de retouches pour obtenir un meilleur resultat. Le fait de traiter les tumeurs nasales nous fait réfléchir et poser un ensemble de questions auxquelles nous n’avons pas pu trouver de réponses. En actuant en accord avec les principes qui définissent l’état de l’art, nous n’avons pas obtenu de résultats qui satisfassent les malades et les chirurgiens. Nous recherchons de nouvelles données techniques et scientifiques qui nous permettent de sortir de ce cercle vicieux dans lequel le patient retarde la recherche d’aide craignant que la thérapeutique le défigure. Nous valorisons certains détails pratiqués sur les lambeaux de patron vasculaire bien défini et ayant comme principaux objectifs l’obtention d’un bon résultat en moins de temps de chirurgie. Nous savons que les séquelles de la zone donneuse de tissus sont préoccupantes, ainsi, que les retouches qui ont été appliqués dans l’objectif de les atténuer. Le front, excellente zone donneuse pour la reconstruction nasale majeure, était une source de séquelle actuellement inacceptable. Nous avons étudié le comportement des tissus du front après avoir relevé le lambeau et effectué la fermeture avec la technique de l’expansion intraoperative. Nous avons déterminé la présence du Facteur de Croissance Vasculaire Endothéliale dans le propre lambeau et dans la zone donneuse, celle-ci pourra expliquer le comportement des tissus du front qui ont été soumis à cette technique. On a essayé d´etudier la qualité de la reconstruction sur 45 patients soumis à la chirurgie d´exérèse et la reconstruction nasal majeure, ainsi comme la qualité de vie en relation avec la maladie et la thérapie. Quoique l´on puisse conclure par l´existence des données subjectives des stratégies plus justes, il est impossible de faire un rapport sur la qualité de la reconstruction avec la qualité de vie des patients. Eventuellement l´on purrait conclure que l´observation permanente de la reconstruction avec qualité esthétique et fonctionnelle, se serait la meilleure méthod de changer l´idée classique, mais depassée, de que la rhinopoièse n´est pas que transformer un affreux défaut par un défaut ridicule.
Resumo:
On connaît aujourd’hui de nombreux ensembles décoratifs de l’Occident romain appartenant aux dernières décennies du IVe ou aux premières du Ve siècle, où toutes les références symboliques et culturelles se rapportent à des référents classiques, sans aucune trace de références chrétiennes. On peut citer les exemples africains de Sidi Ghrib ou de la maison aux Chevaux de Carthage, le fameux cas sicilien de la Villa du Casale à Piazza Armerina ou, en Espagne, ceux de la Villa de Carranque ou de Baños de Valdearados. Pour prendre des exemples lusitaniens, on peut penser à la maison des Sept Sages de Mérida, ou encore au fascinant complexe de Milreu. La maison des Nymphes de Nabeul est un cas d’école dans ce domaine.
Resumo:
Convegno "Ritorno al Conflito : teorie ed esperienze del XXI secolo", realizado em Bari, de 22 - 23 Out. 2015
Resumo:
Nous avons travaillé à Bello Horizonte, Etat de Minas, avec le venin de 4 espèces de Scorpions: Tityus bahiensis (C. L. KOCK, 1836). Tityus serrulatus (LUTZ-MELLO, 1922). Tityus dorsomaculatus (LUTZ MELLO, 1922). Bothriurus (espèce em étude), sur un total de 13.640 individus. Nous avons essayé et observe laction du venin sur 97 espèces differentes dêtres vivants depuis les chlamydozoaires jusquà l«Homo sapiens». Nous avons cherché à déterminer une unité toxique «plus précise, plus régulierè». Les étalons dits «unité vésicule», «unité morsure» sont inconstants et sans rigueur. Tout au plus, peuvent ils server à létude de laction générale du venin, et cela meme, dans certains cas seulement. Nous avons employé la pesée pour determiner lunité toxique. Ce qui est important pour qui étudie ces sujets ce nest pás lê nombre de vésicules, mais bien la quantité de venin humide ou desséché quelles contiennent. La balance, pour notre travail, est um moyen indicateur de bien plus grande précision que la «vésicule» ou la «morsure». Nous sommes parvenus à prouver quil existe une relation constante entre le poid brut des vésicules et la quantité de venin humide ou desséché quelles contiennent dans leur intérieur. Donc em pesant les vésicules, nous pesons indirectement le venin. Peu nous importe quil y ait 10 ou 100 vésicules. Il nous importe seulement de savoir combien elles pèsent, et de déterminer par ce fait, la quantité proportionnelle de vain pur. La technique générale est la suivante: Nous pesons um certain nombre de vésicules. Nous triturons ensuite, dans um mortier stérilisé et nous emulsionnons, par laddition consécutive deau distillée, stérilisée. Nous filtrons lémulsion sur le papier filtre employé em chimie, préalablement taré et desséché dans une atmosphere de chlorure de calcium. Après le filtrage on sèche à nouveau les papiers filtre employés d'abord à l'étuve et ensuite dans la même atmosphère de chlorure de calcium. Nous pesons plusieurs fois et on obtient la moyenne de ces pesées. On soustrait de cette dernière pesée le taux des substances non venimeuses, glandulaires, également dissoutes et calculées à 23 du poids brut et celles retenues par les papiers,-on obtient ainsi la moyenne réelle du venin pur contenu dans les vésicules utilisèés. Une simple divisiôn suffit pour fixer la moyenne de chacune. Ces données ont été vérifiées par les expériences faites avec du venin pur, largement obtenu dans notre Laboratoire. Nous avons trouvé de la sorte pour une vésicule de Tityus serrulatus: 0,gr.000,386 de T. bahiensis: 0,gr.001.261.24 de venin pur ce qui donne. 7/15,96 pour la 1ère. 1/8,36 pour la 2ème du poids sec de chaque vésicule. Le poids sec, pour une moyenne obtenue de 1.000 vésicules, fut de 0,gr.008,236 pour Tityus bahiensis. Maximum 0,gr.011. Minimum 0,gr.004.4 pour chacun. Pour Tityus serrulatus, en 1.049 vésicules le poids fut de 0,gr.006,08. Maximum 0,gr.014.03. Minimum 0,gr.003,1 pour chacun. C'est pour cette raison que l'unité-vésicule est incertaine. 2 poules A et B.; l'une, A, pesant 2 K.030 gr. reçoit dans une veinè, une émulsion en sèrum physiologique à 8,50/%, stérilisé, de 19 vésicules totales de Tityus serrulatus, et présence de légers phénomènes toxiques. L'autre, B, pesant 2 K.320 gr. meurt avec tous les phénomènes classiques de l'empoisonnement, par l'injection endoveineuse del'émulsion de 16 vésicules totales de venin de Tityus serrulatus! Les premières 19 vésicules pesaient 0,gr.58; les 16 derniéres-84 milligrammes. Les premières contenaient 0,gr.003. 634 et les secondes 0,gr.005.263 de venin pur! La moyenne obtenue de 6346 scorpions, (entre T. bahiensis et T. serrulatus) nous a fourni pour chacun: 0,gr.000,131,53 de venin pur, par piqûre. Si l'on spécifie: Pour 5.197 T. bahiensis. La moyenne pour une piqûre est 0,gr.000.106.15. Pour 1.149 T. serrulatus, la moyenne pour une piqûre est.......0,gr.000.246.30. La quantité a varié, selon les individus, de 0,gr.000.035.71, à 0,gr.000.436.01 de venin pur, pour une piqûre. D'après ce qui vient d'étre dit, on peut voir combien la quantité de venin éjaculé varie, chaque fois, chez les scorpions. L'unité-piqûre ne peut done pas ètre utiliseé pour des expériences dèlicates. Le mieux est de se servir de venin pur, et c'est ce que nous avons fait pour les expériences minutieuses. Quand on n'en possède pas, on peut établir pour chaque série des expériences à tenter-la dose minima mortelle en poids (grammes et fractions) de vésicules. D'après les bases ici consignées, et avec une trés petite erreur, on peut calculer la quantité de venin pur de cette dóse. Ce calcul est d'ailleurs dispensable. On peut s'en rapporter simplement au poids sec des vésicules totales et dire que la D. m. m. est de tant de milligr. secs. Comme le venin se conserve mal dans les vésicules, il faut, dans ce procédé, doser la D. m. m. toutes les fois que l'on veut procéder á une sériê d'expériences. Le venin desséché rappelle, d'après le temps de conservations au Laboratoire, celui de Crotatus terrificus et celui des Lachesis (quand il est vieux). Il est retenu au passage en partie, par les bougies Berkfeld et Chamberland. La conservation en état de dessication est la meilleure. Ainsi gardé, à l'abri de la lumierè, aux approches de 0,gr., pendant 8 mois, il perd à peine 1,2 à 1,4 de sa valeur primitive. L'echauffement à 100 gr. trouble une dissolution de venin dans l'eau distilleé; sans atteindre toutefois son pouvoir toxique, quand on l'injecte par la voie intra-cérébrale. Nous avons fait l'experience par 11 voies diverses. Sur des animaux sensibles, nous n'avons pas obtenu de phénomènes toxiques, apparemment, par les voies suivantes: 1) buccale; 2) gastrique; 3) rectale; 4) chambre oculaire antérieure; 5) cornéenne; 6) trachéenne; 7) meningée {sur; intra; 8) simple contact, bien que direct, avec le systemè nerveux central. La gravité des phènomènes décroît suivant l'échelle ci-dessous: 1) intra-cérébrale...
Resumo:
Si les versions cérébralisantes de la pathologie mentale ont eu plus ou moins de succès et de partisans selon les périodes et les courants dominants de la psychiatrie, elles n'ont cessé d'intéresser les aliénistes puis les psychiatres à travers les décennies. La question n'a pas fondamentalement varié au cours de ces deux derniers siècles. Elle peut être résumée ainsi : quels sont les dysfonctionnements cérébraux dont l'influence sur le comportement humain est telle qu'ils puissent provoquer parfois des pathologies qu'aucune thérapie biologique et/ou psychothérapeutique n'est capable de totalement maîtriser? Ce travail aborde ces questionnements à travers l'étude d'une hypothèse représentative des nombreuses tentatives de la psychiatrie de désigner les dysfonctionnements cérébraux potentiellement responsables des pathologies qu'elle tente de traiter: l'hypothèse diencéphalique des pathologies mentales, élaborée durant la première moitié du vingtième siècle, illustre en effet la quête de légitimité scientifique d'une psychiatrie constamment réduite à un tâtonnement thérapeutique. Se pencher sur la biographie d'une zone cérébrale permet premièrement de proposer un autre récit que celui généralement mis en avant par les historien·ne·s de la psychiatrie : il s'agit ici de montrer l'influence de la physiologie, de l'endocrinologie, de la neurologie et de la neurochirurgie sur la manière dont les psychiatres ont envisagé la relation esprit-cerveau, tant dans leur pratique clinique que dans leurs recherches expérimentales. En outre, l'étude de cette hypothèse révèle la continuité théorique entre la période qui précède et celle qui suit la « révolution neuroleptique », continuité qui contraste avec l'idée de rupture transmise par les récits plus classiques. Enfin, cette démarche permet de mettre en relief les enjeux actuels qu'entoure l'avancée des neurosciences psychiatriques, et de les réinscrire dans une histoire fondée sur des questionnements bien antérieurs au récent essor des neurosciences. Ainsi, revisiter la période durant laquelle a émergé l'hypothèse diencéphalique des pathologies mentales ne vise pas uniquement à s'intéresser au passer de la psychiatrie, mais plutôt à mobiliser ce passé pour mieux réfléchir à la façon dont cette discipline écrit sa propre histoire au présent.
Resumo:
Rapport de synthèse : Contexte: l'hydroxyéthylamidon (HEA) est largement utilisé comme expanseur volémique en anesthésiologie et réanimation. Cependant, cette classe de produits perturbe le system de la coagulation. Des améliorations restent possibles dans le choix de la combinaison optimale de poids moléculaire, de degré de substitution en radicaux éthyle et de localisation de ces radicaux sur le squelette glucidique des polymères, afin d'optimiser leur efficacité et leur tolérance. L'HEA de poids moléculaire élevé et faiblement substitué n'affecte pas plus la coagulation sanguine que de l'HEA de bas poids moléculaire faiblement substitué. Nous examinons in vivo l'effet d'un abaissement du rapport C2/C6 sur les caractéristiques pharmacocinétiques et l'impact sur la coagulation sanguine d'un HEA de haut poids moléculaire faiblement substitué. Matériels et méthode: nous comparons dans une étude prospective, randomisée et parallèle l'HEA 650/0.42/2.8 avec l'HEA 650/0.42/5.6 auprès de 30 cochons. Avant, pendant et jusqu'à 630 minutes après une perfusion de 30 ml/kg d'HEA, des échantillons sanguins ont été collectés pour mesurer les concentrations d'HEA, les tests de coagulation plasmatique classiques et la coagulation sanguine par thrombélastographie (TEG®, Haemoscope Corporation, Niles, II, U.S.). Les paramètres pharmacocinétiques ont été estimés en adaptant un modèle à deux compartiments. Résultats: la constante d'élimination est de 0.009 ± 0.001 (min-1) pour l'HEA 650/0.42/2.8 et 0.007 ± 0.001 (min-1) pour l'HEA 650/0.42/5.6 (p<0.001); la surface sous la courbe de concentration est de 1374 ± 340 min*g/L pour l'HEA 650/0.42/2.8 et 1697 ± 411 min*g/L pour l'HEA 650/0.42/5.6 (p=0.026). Les concentrations mesurées d'HEA ne montrent pas de différence entre l'HEA 650/0.42/2.8 et l'HEA 650/0.42/5.6. Les deux solutions d'HEA affectent de façon identique la coagulation sanguine: l'index de coagulation thrombélastographique diminue pareillement à ta fin de la perfusion d'HEA 650/0.42/2.8 et d'HEA 650/0.42/5.6 (p=0.29). De même, le temps de thromboplastine partielle activée et le temps de prothrombine augmentent de manière similaire pour l'HEA 650/0.42/2.8 et l'HEA 650/0.42/5.6 (p=0.83). Conclusion: la réduction du rapport C2/C6 de l'HEA de poids moléculaire élevé et faiblement substitué aboutit à une élimination légèrement accélérée d'HEA. Cependant, elle ne modifie pas l'effet perturbateur sur la coagulation.
Resumo:
L'Économie Sociale et Solidaire (ESS) représente aujourd'hui, en Europe, près de 10 % de l'emploi total et même plus dans certains pays, dont la France. Avec la crise, ce secteur prend une importance sociale, économique et politique croissante. La gestion des coopératives, mutuelles, fondations et associations est ainsi doublement interrogée en interne vis-à-vis de leurs « propriétaires » disposant de motivations particulières (socioéconomiques) et vis-à-vis de leurs communautés et territoires (relations aux partenaires publics et aux citoyens). C'est pourquoi la performance de ces organisations prend nécessairement une dimension sociale, voire sociétale. Les logiques de fonctionnement et d'action des managers de l'ESS sont, elles aussi, souvent particulières, hybrides et parfois paradoxales. Elles remettent en cause les découpages et frontières classiques du management, ainsi que les modèles de rationalité associés (public/privé, marchand/non-marchand, intérêt collectif/intérêts particuliers...). Face à une telle complexité, les principes et les outils de gestion de ces entreprises sont-ils alors spécifiques ? Ces entreprises sont-elles à l'origine d'innovations managériales et sociales particulières ? Comment concilier solidarité et efficacité dans un univers de plus en plus concurrentiel ? L'évolution marchande et financière, comme les problématiques de développement durable, interrogent également le mode de fonctionnement et l'avenir de ces organisations. L'objectif de cet ouvrage collectif, auquel ont contribué des experts du management des entreprises de l'économie sociale qui ont participé à un colloque international - soutenu par le Crédit Mutuel - sur le sujet, est d'apporter des réponses quant à la manière de renouveler les stratégies et les modèles de management, sans pour autant renier les valeurs et les principes fondamentaux de l'ESS. Il s'adresse aux étudiants et aux professionnels travaillant dans le secteur de l'économie sociale et solidaire (coopératives, mutuelles, associations et fondations) et intéressera également tous les managers et étudiants en management.
Resumo:
(Résumé de l'ouvrage) Durant toute l'Europe, et au-delà, on a assisté ces dernières années à un grand débat sur les sectes, leur nature, leur nombre, leur influence, leur rôle. Des événements tragiques comme les suicides collectifs ont confirmé dans leurs convictions ceux qui pensent que les sectes sont un fléau pour la société qui les tolère et pour les individus qui s'y engagent. D'autres, au contraire, mettent en garde contre la nouvelle « chasse aux sorcières » qu'on risque de déclencher et en appellent au respect du droit à la liberté religieuse. Ne faut-il pas compléter les analyses classiques de Max Weber et d'Ernst Troeltsch, qui distinguent entre le type « Église » et le type « Secte » ? Plusieurs études sur des groupes controversés (le tristement célèbre Ordre du Temple Solaire, les Témoins de Jéhovah, la Soka Gakkaï, les Loubavitch... ou les mouvances accusées de dérives sectaires) illustrent les évolutions contrastées du paysage religieux aujourd'hui. On assiste d'ailleurs à une mondialisation de ces phénomènes. Les auteurs reviennent longuement sur le débat de société autour des sectes, sur leur nocivité réelle ou supposée, sur leur stigmatisation légitime ou irraisonnée dans les médias et l'opinion publique. Les sectes interrogent la laïcité de l'État et le droit : entrent-elles dans le droit commun des religions ou faut-il créer une législation « anti-sectes » spécifiques ?
Resumo:
Résumé: L'évaluation de l'exposition aux nuisances professionnelles représente une étape importante dans l'analyse de poste de travail. Les mesures directes sont rarement utilisées sur les lieux même du travail et l'exposition est souvent estimée sur base de jugements d'experts. Il y a donc un besoin important de développer des outils simples et transparents, qui puissent aider les spécialistes en hygiène industrielle dans leur prise de décision quant aux niveaux d'exposition. L'objectif de cette recherche est de développer et d'améliorer les outils de modélisation destinés à prévoir l'exposition. Dans un premier temps, une enquête a été entreprise en Suisse parmi les hygiénistes du travail afin d'identifier les besoins (types des résultats, de modèles et de paramètres observables potentiels). Il a été constaté que les modèles d'exposition ne sont guère employés dans la pratique en Suisse, l'exposition étant principalement estimée sur la base de l'expérience de l'expert. De plus, l'émissions de polluants ainsi que leur dispersion autour de la source ont été considérés comme des paramètres fondamentaux. Pour tester la flexibilité et la précision des modèles d'exposition classiques, des expériences de modélisations ont été effectuées dans des situations concrètes. En particulier, des modèles prédictifs ont été utilisés pour évaluer l'exposition professionnelle au monoxyde de carbone et la comparer aux niveaux d'exposition répertoriés dans la littérature pour des situations similaires. De même, l'exposition aux sprays imperméabilisants a été appréciée dans le contexte d'une étude épidémiologique sur une cohorte suisse. Dans ce cas, certains expériences ont été entreprises pour caractériser le taux de d'émission des sprays imperméabilisants. Ensuite un modèle classique à deux-zone a été employé pour évaluer la dispersion d'aérosol dans le champ proche et lointain pendant l'activité de sprayage. D'autres expériences ont également été effectuées pour acquérir une meilleure compréhension des processus d'émission et de dispersion d'un traceur, en se concentrant sur la caractérisation de l'exposition du champ proche. Un design expérimental a été développé pour effectuer des mesures simultanées dans plusieurs points d'une cabine d'exposition, par des instruments à lecture directe. Il a été constaté que d'un point de vue statistique, la théorie basée sur les compartiments est sensée, bien que l'attribution à un compartiment donné ne pourrait pas se faire sur la base des simples considérations géométriques. Dans une étape suivante, des données expérimentales ont été collectées sur la base des observations faites dans environ 100 lieux de travail différents: des informations sur les déterminants observés ont été associées aux mesures d'exposition des informations sur les déterminants observés ont été associé. Ces différentes données ont été employées pour améliorer le modèle d'exposition à deux zones. Un outil a donc été développé pour inclure des déterminants spécifiques dans le choix du compartiment, renforçant ainsi la fiabilité des prévisions. Toutes ces investigations ont servi à améliorer notre compréhension des outils des modélisations ainsi que leurs limitations. L'intégration de déterminants mieux adaptés aux besoins des experts devrait les inciter à employer cet outil dans leur pratique. D'ailleurs, en augmentant la qualité des outils des modélisations, cette recherche permettra non seulement d'encourager leur utilisation systématique, mais elle pourra également améliorer l'évaluation de l'exposition basée sur les jugements d'experts et, par conséquent, la protection de la santé des travailleurs. Abstract Occupational exposure assessment is an important stage in the management of chemical exposures. Few direct measurements are carried out in workplaces, and exposures are often estimated based on expert judgements. There is therefore a major requirement for simple transparent tools to help occupational health specialists to define exposure levels. The aim of the present research is to develop and improve modelling tools in order to predict exposure levels. In a first step a survey was made among professionals to define their expectations about modelling tools (what types of results, models and potential observable parameters). It was found that models are rarely used in Switzerland and that exposures are mainly estimated from past experiences of the expert. Moreover chemical emissions and their dispersion near the source have also been considered as key parameters. Experimental and modelling studies were also performed in some specific cases in order to test the flexibility and drawbacks of existing tools. In particular, models were applied to assess professional exposure to CO for different situations and compared with the exposure levels found in the literature for similar situations. Further, exposure to waterproofing sprays was studied as part of an epidemiological study on a Swiss cohort. In this case, some laboratory investigation have been undertaken to characterize the waterproofing overspray emission rate. A classical two-zone model was used to assess the aerosol dispersion in the near and far field during spraying. Experiments were also carried out to better understand the processes of emission and dispersion for tracer compounds, focusing on the characterization of near field exposure. An experimental set-up has been developed to perform simultaneous measurements through direct reading instruments in several points. It was mainly found that from a statistical point of view, the compartmental theory makes sense but the attribution to a given compartment could ñó~be done by simple geometric consideration. In a further step the experimental data were completed by observations made in about 100 different workplaces, including exposure measurements and observation of predefined determinants. The various data obtained have been used to improve an existing twocompartment exposure model. A tool was developed to include specific determinants in the choice of the compartment, thus largely improving the reliability of the predictions. All these investigations helped improving our understanding of modelling tools and identify their limitations. The integration of more accessible determinants, which are in accordance with experts needs, may indeed enhance model application for field practice. Moreover, while increasing the quality of modelling tool, this research will not only encourage their systematic use, but might also improve the conditions in which the expert judgments take place, and therefore the workers `health protection.
Resumo:
Rapport de synthèse: Enjeux et contexte de recherche : la coarctation de l'aorte, rétrécissement de l'aorte thoracique descendante, est une des malformations cardiaques congénitales les plus fréquentes. Son diagnostic reste cependant difficile surtout lorsqu'elle est associée à la présence d'un canal artériel ou à une malformation cardiaque plus complexe. Dans ces contextes, les signes échographiques classiques qui posent habituellement le diagnostic (visualisation d'un rétrécissement juxtaductal et accélération au Doppler au niveau de l'isthme aortique) peuvent faire défaut ou être difficile à imager. La validation d'index basé sur des mesures anatomiques faciles à acquérir par échographie cardiaque, indépendantes de l'âge, de la situation hémodynamique et des malformations cardiaques associées représente une aide significative dans le diagnostic de la coarctation de l'aorte. Nous avons donc voulu valider par une étude rétrospective la fiabilité de deux index dans cette indication : l'index des artères carotido-sous-clavière (index CSA; rapport du diamètre de l'arc aortique transverse distal sur la distance entre les artères carotide et sous-clavière gauches) et l'index de l'aorte isthmique-descendante (index I/D; rapport des diamètres de l'aorte isthmique sur celui de l'aorte descendante). Notre article : nous avons rétrospectivement calculé la valeur des deux index (CSA et I/D) chez un groupe de 68 enfants avec coarctation et un groupe 24 cas contrôles apparenté pour l'âge et le sexe. Les enfants avec coarctation ont un index CSA et I/D significativement plus bas que le groupe contrôle (Index CSA : 0.84 ± 0.39 vs. 2.65 ± 0.82, p<0.0001 - Index I/D : 0.58 ± 0.18 vs. 0.98 ± 0.19, p<0.0001). Pour les deux index, ni la présence d'une autre malformation cardiaque, ni l'âge n'ont un impact sur la différence significative entre les deux groupes. Conclusions: notre recherche à permis de valider qu'un index CSA de moins de 1,5 est fortement suggestif d'une coarctation, indépendamment de l'âge du patient et de la présence d'une autre malformation cardiaque. L'index I/D (valeur limite 0,64) est moins spécifique que l'index CSA. L'association des deux index augmente la sensibilité et permet rétrospectivement le diagnostic de tous les cas de coarctation seulement sur la base d'une échographie cardiaque standard faite au lit du patient. Perspectives : cette étude rétrospective mérite d'être vérifiée par une étude prospective afin de confirmer la contribution de ces index à la prise en charge des patients suspects d'une coarctation de l'aorte. Cependant, la situation dans laquelle ces index pourraient avoir le plus grand impact reste encore à explorer. En effet, si le diagnostic postnatal de la coarctation est parfois difficile, son diagnostic prénatal l'est nettement plus. La présence obligatoire du canal artériel et l'existence d'une hypoplasie isthmique physiologique chez le foetus obligent le cardiologue foetale à observer des signes indirects, peu sensibles, d'une possible coarctation (prépondérance des cavités droites). La validation de l'index CSA et/ou de l'index I/D chez le foetus constituerait donc une avancée majeure dans le diagnostic prénatal de la coarctation de l'aorte.
Resumo:
En este trabajo se hace referencia a la posible consideración de las sociedades cooperativas como sociedades mercantiles, cumpliéndose determinadas circunstancias, y ello sin pérdida de sus características específicas en cuanto a la toma de decisiones, el reparto de beneficios y la búsqueda de la satisfacción de fines de interés general. Asimismo, se analizan las consecuencias de aumentar el porcentaje de operaciones realizadas con terceros no socios, respecto del total de operaciones realizadas por la sociedad cooperativa, y su incidencia en la cuantía de los fondos de la cooperativa y en la retribución del socio cooperativista. Se realiza en este punto una comparación con las sociedades capitalistas convencionales (S.A., S.L.). Finalmente, se propone una reforma legislativa al objeto de permitir aumentar el porcentaje de realización de operaciones cooperativizadas con terceros no socios, y ello sin pérdida de su tratamiento fiscal favorable. PALABRAS CLAVE: Cooperativas, mercantilidad, mutualismo, operaciones con terceros, régimen fiscal, reformas legislativas. CLAVES ECONLIT: P130, Q130, L310
Resumo:
Le travail policier et l'enquête judiciaire nécessitent de prendre de nombreuses décisions : choisir quelle trace analyser, mettre sous surveillance ou en détention un suspect, sont autant de décisions qui sont prises quotidiennement par les acteurs du système judiciaire. Ces décisions font l'objet de pesées d'intérêts qui se fondent sur l'analyse de l'information accessible. C'est le rôle de l'analyse criminelle de mettre en perspective l'information colligée pour la rendre intelligible aux décideurs compétents. L'usage de représentations graphiques est notamment recommandé pour soutenir l'analyse et la communication de ces informations.Des techniques de visualisation relationnelle sont notamment exploitées dans les enquêtes judiciaires afin de faciliter le traitement d'affaires d'envergure. Les éléments pertinents de l'enquête sont représentés sous la forme de schémas décrivant les relations entre les événements et les entités d'intérêts (tel que des personnes, des objets et des traces). Les exploitations classiques de ces techniques qui s'apparentent à des graphes, sont par exemple : la représentation de réseaux criminels, de trafics de marchandises, de chronologies d'événements, ainsi que la visualisation de relations téléphoniques et financières. Dans ce contexte, la visualisation soutient un nombre importants d'objectifs, tels qu'analyser les traces et les informations collectées, évaluer a posteriori une investigation, aider à qualifier les infractions, faciliter l'appréhension d'un dossier, voire soutenir une argumentation lors du procès.La pratique intègre des outils logiciels simples qui produisent des graphiques élégants et souvent percutants. Leur utilisation semble néanmoins soulever des difficultés. Cette recherche tend à montrer qu'il existe des disparités étonnantes lors de l'exploitation de ces techniques. Des biais de raisonnement et de perception peuvent être induits, allant jusqu'à provoquer des décisions aux conséquences parfois désastreuses. Ce constat révèle la nécessité de consolider les méthodes pratiquées.Pour mettre en évidence ces difficultés, des évaluations ont été effectuées avec des praticiens et des étudiants. Elles ont permis d'établir une image empirique de l'étendue des variations de conception et d'interprétation des représentations, ainsi que de leurs impacts sur la prise de décision. La nature et la diversité des concepts à représenter, l'absence d'un consensus émergeant sur la manière de représenter les données, la diversité des solutions visuelles envisageables, les contraintes imposées par les outils exploités et l'absence d'une formalisation claire du langage, sont autant de causes supposées des difficultés.Au cours des vingt dernières années, plusieurs axes de développement ont été proposés pour traiter les difficultés observées, tels que l'amélioration des automatismes facilitant la conception d'une représentation, l'exploitation des techniques de réseaux sociaux, l'automatisation de l'identification et de l'extraction des entités dans du texte non-structuré et la définition de langages formels. Cette recherche propose une approche parallèle fondée sur une exploitation adaptée de structures de graphe et de propriétés visuelles pour optimiser la représentation en fonction des objectifs définis et de la nature des informations à représenter.Des solutions ont été recherchées selon plusieurs axes. Des recommandations générales, issues de diverses communautés de recherche liées à la visualisation, ont été recherchées afin de proposer une démarche générale de conception des schémas relationnels. Par ailleurs, le développement d'un catalogue de bonnes pratiques formalisées sous la forme de patterns de visualisation a été amorcé. Chaque pattern décrit une solution particulière pour un problème d'analyse récurrent, tel que l'analyse d'une série de cambriolages. Finalement, l'impact sur les outils de la méthodologie proposée est discuté en regard des limites qu'ils imposent. Un prototype de visualisation multidimensionnel a été élaboré.Cette recherche met en évidence les difficultés rencontrées lors de l'exploitation de représentations graphiques pour soutenir le processus de l'enquête judiciaire et propose des éléments de méthode et des innovations techniques utiles tant pour l'enseignement de la discipline que pour sa pratique.