845 resultados para Standard fire
Resumo:
La ville préhispanique de Cantona, située dans la vallée d’Oriental dans l’état de Puebla au Mexique, atteignit sa première apogée culturelle entre 150 av. J.C. et 600/650 A.D. Durant cette période, des complexes cérémoniaux comprenant des groupes de pyramides-temples et des terrains de jeu de balle furent construits. Ces installations servirent au déroulement de nombreux rites au cours desquels les victimes de sacrifices étaient décapitées, démembrées, décharnées, écorchées, bouillies, brûlées et, dans certains cas, consommées. D’autres traitements du corps humain comportent l’inhumation d’individus en position assise et repliés sur eux-mêmes. Pour mieux comprendre le traitement mortuaire rituel des corps humains à Cantona, les découvertes faites sur place sont comparées aux données datant de la même époque obtenues dans trois régions voisines : la vallée de Mexico, Puebla-Tlaxcala et le golfe du Mexique. A partir de ces renseignements, on peut en déduire que la majorité des découvertes faites à Cantona sont les restes des dépouilles et offrandes provenant de rites destinés à la communication avec les dieux et à l’obtention de la fertilité, tandis que les dépouilles des individus en position assise appartiennent à des prêtres ou à des personnages religieux.
Resumo:
Durant la dernière décennie, les développements technologiques en radiothérapie ont transformé considérablement les techniques de traitement. Les nouveaux faisceaux non standard améliorent la conformité de la dose aux volumes cibles, mais également complexifient les procédures dosimétriques. Puisque des études récentes ont démontré l’invalidité de ces protocoles actuels avec les faisceaux non standard, un nouveau protocole applicable à la dosimétrie de référence de ces faisceaux est en préparation par l’IAEA-AAPM. Le but premier de cette étude est de caractériser les facteurs responsables des corrections non unitaires en dosimétrie des faisceaux non standard, et ainsi fournir des solutions conceptuelles afin de minimiser l’ordre de grandeur des corrections proposées dans le nouveau formalisme de l’IAEA-AAPM. Le deuxième but de l’étude est de construire des méthodes servant à estimer les incertitudes d’une manière exacte en dosimétrie non standard, et d’évaluer les niveaux d’incertitudes réalistes pouvant être obtenus dans des situations cliniques. Les résultats de l’étude démontrent que de rapporter la dose au volume sensible de la chambre remplie d’eau réduit la correction d’environ la moitié sous de hauts gradients de dose. Une relation théorique entre le facteur de correction de champs non standard idéaux et le facteur de gradient du champ de référence est obtenue. En dosimétrie par film radiochromique, des niveaux d’incertitude de l’ordre de 0.3% sont obtenus par l’application d’une procédure stricte, ce qui démontre un intérêt potentiel pour les mesures de faisceaux non standard. Les résultats suggèrent également que les incertitudes expérimentales des faisceaux non standard doivent être considérées sérieusement, que ce soit durant les procédures quotidiennes de vérification ou durant les procédures de calibration. De plus, ces incertitudes pourraient être un facteur limitatif dans la nouvelle génération de protocoles.
Resumo:
Depuis une trentaine d’années environ, les études sur la réfutation, ou elenchos (ἔλεγχος), se sont multipliées. Cet engouement n’est pas étranger à la publication d’un article de Gregory Vlastos, intitulé « The Socratic Elenchus », dans lequel sont abordées des thèses qui tranchent avec les théories généralement acceptées jusqu’alors. Or, il est intéressant de noter que Vlastos a complètement écarté l’Alcibiade de son étude, le jugeant apocryphe, et ce, même si les arguments apportés par les tenants de l'inauthenticité de l'Alcibiade sont loin d'être convaincants. Dans le cadre de ce mémoire, nous comptons mener une analyse détaillée du texte de Vlastos et de l’Alcibiade, en nous attachant particulièrement aux questions suivantes : qu’est-ce que l’Alcibiade nous dit de l’elenchos? Que nous apprend-il de nouveau? En quoi ces révélations originales viennent-elles invalider ou confirmer les théories de Vlastos ou notre conception traditionnelle de la réfutation socratique? Le premier chapitre s’intéressera principalement aux thèses présentées dans la dernière version de « The Socratic Elenchus », parue en 1994 dans Socratic Studies. Nous en ferons un résumé critique et nous intéresserons aux réactions de différents commentateurs. Le deuxième chapitre se concentrera quant à lui sur l’Alcibiade. Nous proposerons une analyse de ce dialogue en nous concentrant principalement sur le thème de l’elenchos, puis confronterons les principales thèses de Vlastos aux résultats de notre analyse. Notre mémoire montrera que la description de l'elenchos donnée par Vlastos ne correspond pas à celle fournie dans l’Alcibiade.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Les institutions juridiques ont été bâties autour des réalités connues depuis des millénaires, que nous appelons de nos jours des phénomènes du monde réel. Ces phénomènes retrouvent présentement un nouveau théâtre – le cyberespace, et les règles du droit font face au défi de s’approprier ce nouvel environnement. Entre autres, les technologies du cyberespace ont mis au monde divers moyens qui nous permettent de nous identifier et de manifester notre attitude envers les actes juridiques – des finalités qui ont été assurées de longue date par la signature manuscrite. Bien que ces nouveaux moyens aient mérité un nom similaire à leur contrepartie traditionnelle – l’appellation de signature électronique, ils restent des phénomènes dont la proximité avec la signature manuscrite est discutable. Force est de constater que le seul point commun entre les moyens classiques et électroniques de signer réside dans les fonctions qu’ils remplissent. C’est en se basant sur ces fonctions communes que le droit a adopté une attitude identique envers les moyens d’authentification traditionnels et électroniques et a accueilli ces derniers sous l’emprise de ses institutions. Cependant, ceci ne signifie pas que ces institutions se soient avérées appropriées et qu’elles ne demandent aucun ajustement. Un des buts de notre étude sera de mettre en relief les moyens d’adaptation qu’offre le droit pour réconcilier ces deux environnements. Ainsi, pour ajuster l’institution de la signature aux phénomènes électroniques, le droit s’est tourné vers le standard de fiabilité de la signature électronique. Le standard de fiabilité est un complément de l’institution juridique de signature qui ne se rapporte qu’à la signature électronique et dont cette étude démontrera les applications. Les composantes du standard de fiabilité qui occuperont un deuxième volet de notre étude représentent un ensemble de règles techniques liées à la signature électronique. Ainsi, comme le standard de fiabilité puise sa substance dans les propriétés de l’architecture du cyberespace, l’attitude du droit envers la signature électronique s’avère tributaire de la morphologie du cyberespace. Étant donné que les possibilités qui nous sont offertes par la technologie continue à déterminer la réglementation juridique, il est légitime de conclure que l’examen des tendances dans l’évolution du cyberespace nous fournira un point de vue prospectif sur l’évolution des règles du droit.
Resumo:
Introduction: The objective of this experimental research was to evaluate the slot’s vertical dimension and profile of four different 0.018″ self-ligating brackets and to identify the level of tolerance accepted by manufacturers during the fabrication process. It was then possible to calculate and compare the torque play of those brackets using the measured values and the nominal values. Material and Methods: Twenty-five 0.018″ self-ligating brackets of upper left central incisors from the following manufacturers, Speed® (Strite Industries, Cambridge, Ontario, Canada), InOvationR® (GAC, Bohemia, NY, USA), CarriereLX® (Ortho Organizers, Carlsbad, CA, USA) and SmartClip® (3M Unitek, Monrovia, CA, USA), were evaluated using electron microscopy with 150X images. The height of each bracket was measured at every 100 microns of depth from the lingual wall at five different levels. A Student T test was then used to compare our results with the manufacturer’s stated value of 0.018″. To determine if there was a significant difference between the four manufacturers, analysis of variance (ANOVA) was performed at the significance level of p<0.05. The torque play was then calculated using geometrical formulas. Results: On average, Speed brackets were oversized by 2.7%[MV 0.0185″ (SD:0.002)], InOvationR by 3.7% [MV 0.0187″ (SD:0.002)], CarriereLX by 3.2% [MV 0.0186″ (SD:0.002)] and SmartClipSL by 5.0% [MV 0.0189″ (SD:0.002)]. The height of all brackets was significantly higher than the nominal value of 0.018″ (p<0.001). The slot of SmartClip brackets was significantly larger than those of the other three manufacturers (p<0.001). None of the brackets studied had parallel gingival and occlusal walls; some were convergent and others divergent. These variations can induce a torque play up to 4.5 degrees with a 0.017″x0.025″ wire and 8.0 degrees with a 0.016″x0.022″ wire. Conclusion: All studied brackets were oversized. None of the brackets studied had parallel gingival and occlusal walls and there was no standard between manufacturers for the geometry of their slots. These variations can cause a slight increase of the torque play between the wire and the bracket compared with the nominal value.
Resumo:
Depuis quelques années, il y a un intérêt de la communauté en dosimétrie d'actualiser les protocoles de dosimétrie des faisceaux larges tels que le TG-51 (AAPM) et le TRS-398 (IAEA) aux champs non standard qui requièrent un facteur de correction additionnel. Or, ces facteurs de correction sont difficiles à déterminer précisément dans un temps acceptable. Pour les petits champs, ces facteurs augmentent rapidement avec la taille de champ tandis que pour les champs d'IMRT, les incertitudes de positionnement du détecteur rendent une correction cas par cas impraticable. Dans cette étude, un critère théorique basé sur la fonction de réponse dosimétrique des détecteurs est développé pour déterminer dans quelles situations les dosimètres peuvent être utilisés sans correction. Les réponses de quatre chambres à ionisation, d'une chambre liquide, d'un détecteur au diamant, d'une diode, d'un détecteur à l'alanine et d'un détecteur à scintillation sont caractérisées à 6 MV et 25 MV. Plusieurs stratégies sont également suggérées pour diminuer/éliminer les facteurs de correction telles que de rapporter la dose absorbée à un volume et de modifier les matériaux non sensibles du détecteur pour pallier l'effet de densité massique. Une nouvelle méthode de compensation de la densité basée sur une fonction de perturbation est présentée. Finalement, les résultats démontrent que le détecteur à scintillation peut mesurer les champs non standard utilisés en clinique avec une correction inférieure à 1%.
Resumo:
Contexte: Plusieurs études ont démontré que les indices environnementaux associés à la cigarette peuvent provoquer des envies de consommer (« cravings ») chez les fumeurs, ce qui nuit aux efforts d’abandon de la substance et favorise le maintien du tabagisme. Un bon nombre d’études en imagerie cérébrale ont examiné les bases neurophysiologiques de cette caractéristique clinique. Le tabagisme se caractérise aussi par l’incapacité des représentations négatives de la consommation (méfaits médicaux et sociaux) d’influencer la consommation des fumeurs. Étonnamment toutefois, très peu de travaux de recherche se sont intéressés à examiner les bases neurophysiologiques de cette insouciance envers les méfaits de la cigarette chez les fumeurs. En utilisant l'imagerie cérébrale fonctionnelle, l'objectif de cette étude était: d’examiner la réponse neurophysiologique des fumeurs chroniques à des images qui illustrent les effets négatifs de la cigarette (campagne anti-tabac); d’examiner le caractère affectif de cette réactivité utilisant des conditions contrôles (c.-à-d., images aversives non-liées au tabac et appétitives liées au tabac); d'examiner la connectivité fonctionnelle durant cette tâche entre les systèmes affectifs et exécutifs (une interaction qui peut favoriser ou entraver l'impact des évènements aversifs). Méthodes: 30 fumeurs chroniques ont passé une session de neuroimagerie durant laquelle ils devaient regarder des images appétitives et aversives de cigarettes, des images aversives non-reliées au tabac et des images neutres. Résultats: Les images aversives liés au tabagisme suscitent une plus grande activation dans le cortex médial préfrontal, l'amygdale, le gyrus frontal inférieur et le cortex orbitofrontal latéral en comparaison avec les images neutres, mais une moins grande activation dans des structures médiaux / sous-corticales comparé aux images aversives non-reliés et images appétitives reliées aux tabac. L’activité du système exécutif présente une connectivité fonctionnelle négative avec le système affectif lorsque les images aversives sont liées au tabac, mais pas quand elles ne le sont pas. Conclusions: Le modèle d'activation du cerveau observé suggère qu’il y a un biais dans la réactivité des fumeurs chroniques lorsqu’ils observent des représentations négatives de la consommation du tabac. L’activité du système exécutif cérébral semble promouvoir chez les fumeurs une baisse d’activité dans des régions impliquées dans la genèse d’une réponse physiologique affective; il s’agit d’un mécanisme qui permettrait de réduire l’impact persuasif de ces représentations des méfaits de la cigarette sur la consommation des fumeurs.
Resumo:
Ce texte porte sur l’analyse sémantique de la logique déontique. Nous analyserons de façon critique un texte de Schotch (1981) portant sur une interprétation de la logique déontique dans le cadre d’une sémantique non-kripkéenne. Nous laisserons de côté les choix relatifs à la syntaxe de son système afin de se concentrer sur l’analyse sémantique qu’il expose contre la logique déontique et sur celle qu’il propose en retour. Avant de voir le détail de son raisonnement, nous présenterons brièvement quelques notions de logique modale afin de faciliter la compréhension de l’argument de Schotch. Nous présenterons ensuite l’argument de l’auteur contre la logique déontique afin de pouvoir exposer sa solution, ce qui ouvrira la porte à une lecture critique de son analyse.
Resumo:
The demand for new telecommunication services requiring higher capacities, data rates and different operating modes have motivated the development of new generation multi-standard wireless transceivers. A multi-standard design often involves extensive system level analysis and architectural partitioning, typically requiring extensive calculations. In this research, a decimation filter design tool for wireless communication standards consisting of GSM, WCDMA, WLANa, WLANb, WLANg and WiMAX is developed in MATLAB® using GUIDE environment for visual analysis. The user can select a required wireless communication standard, and obtain the corresponding multistage decimation filter implementation using this toolbox. The toolbox helps the user or design engineer to perform a quick design and analysis of decimation filter for multiple standards without doing extensive calculation of the underlying methods.
Resumo:
In symmetric block ciphers, substitution and diffusion operations are performed in multiple rounds using sub-keys generated from a key generation procedure called key schedule. The key schedule plays a very important role in deciding the security of block ciphers. In this paper we propose a complex key generation procedure, based on matrix manipulations, which could be introduced in symmetric ciphers. The proposed key generation procedure offers two advantages. First, the procedure is simple to implement and has complexity in determining the sub-keys through crypt analysis. Secondly, the procedure produces a strong avalanche effect making many bits in the output block of a cipher to undergo changes with one bit change in the secret key. As a case study, matrix based key generation procedure has been introduced in Advanced Encryption Standard (AES) by replacing the existing key schedule of AES. The key avalanche and differential key propagation produced in AES have been observed. The paper describes the matrix based key generation procedure and the enhanced key avalanche and differential key propagation produced in AES. It has been shown that, the key avalanche effect and differential key propagation characteristics of AES have improved by replacing the AES key schedule with the Matrix based key generation procedure
Resumo:
The Paper unfolds the paradox that exists in the tribal community with respect to the development indicators and hence tries to cull out the difference in the standard of living of the tribes in a dichotomous framework, forward and backward. Four variables have been considered for ascertaining the standard of living and socio-economic conditions of the tribes. The data for the study is obtained from a primary survey in the three tribal predominant districts of Wayanad, Idukki and Palakkad. Wayanad was selected for studying six tribal communities (Paniya, Adiya, Kuruma, Kurichya, Urali and Kattunaika), Idukki for two communities (Malayarayan and Muthuvan) and Palakkad for one community (Irula). 500 samples from 9 prominent tribal communities of Kerala have been collected according to multistage proportionate random sample framework. The analysis highlights the disproportionate nature of socio-economic indicators within the tribes in Kerala owing to the failure of governmental schemes and assistances meant for their empowerment. The socio-economic variables, such as education, health, and livelihood have been augmented with SLI based on correlation analysis gives interesting inference for policy options as high educated tribal communities are positively correlated with high SLI and livelihood. Further, each of the SLI variable is decomposed using Correlation and Correspondence analysis for understanding the relative standing of the nine tribal sub communities in the three dimensional framework of high, medium and low SLI levels. Tribes with good education and employment (Malayarayan, Kuruma and Kurichya) have a better living standard and hence they can generally be termed as forward tribes whereas those with a low or poor education, employment and living standard indicators (Paniya, Adiya, Urali, Kattunaika, Muthuvans and Irula) are categorized as backward tribes
Resumo:
This study is an attempt to situate the quality of life and standard of living of local communities in ecotourism destinations inter alia their perception on forest conservation and the satisfaction level of the local community. 650 EDC/VSS members from Kerala demarcated into three zones constitute the data source. Four variables have been considered for evaluating the quality of life of the stakeholders of ecotourism sites, which is then funneled to the income-education spectrum for hypothesizing into the SLI framework. Zone-wise analysis of the community members working in tourism sector shows that the community members have benefited totally from tourism development in the region as they have got both employments as well as secured livelihood options. Most of the quality of life-indicators of the community in the eco-tourist centres show a promising position. The community perception does not show any negative impact on environment as well as on their local culture.