885 resultados para implicit authentication


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Malgré que plus de 50 ans nous séparent des premières études empiriques s’attardant à la diversité dans les équipes de travail, il demeure difficile de tirer des conclusions claires et cohérentes quant à la nature et à la direction des relations qu’elle entretient avec la performance groupale. Ce constat a amené de nombreux auteurs à formuler diverses recommandations visant à sortir le domaine de recherche de l’impasse. Dans un contexte où, d’une part, les organisations tendent à s’appuyer de plus en plus sur des équipes afin d’assurer leur efficacité et, d’autre part, la diversité ne cesse de s’accroitre au rythme de l’immigration et de la spécialisation du savoir, il devient particulièrement pertinent de poursuivre les efforts de recherche en fonction de ces recommandations afin de clarifier les impacts de la diversité sur la performance. La présente thèse s’inscrit dans un courant de recherche en pleine croissance qui répond aux appels des chercheurs du domaine et qui vise à évaluer les effets de la structure de la diversité plutôt qu’uniquement ceux de la quantité de diversité dans les équipes. La théorie des vecteurs de failles (Lau & Murnighan, 1998), qui sont des lignes hypothétiques divisant les membres d’une équipe lorsque des caractéristiques de diversité concordent et créent des sous-groupes homogènes, constitue une avancée majeure à cet effet. Toutefois, certains résultats empiriques contradictoires à son sujet mettent en lumière l’importance de prendre en considération l’ensemble des recommandations qui ont été formulés à l’intention des chercheurs du domaine de la diversité. À travers la lentille des vecteurs de failles, la thèse vise à approfondir notre compréhension du rôle de la diversité sur la performance des équipes en mettant en pratique ces diverses recommandations, qui invitent à examiner le rôle des mécanismes médiateurs ainsi que des effets modérateurs pouvant intervenir dans cette relation, à préciser les typologies employées et à prendre en considération l’influence du contexte dans lequel évoluent les équipes de travail. Le premier article constitue un effort de synthèse empirique cherchant à préciser les effets différenciés que peuvent avoir divers types de failles sur divers types de performance et à évaluer le rôle modérateur que joue le type d’équipe étudié dans ces relations. Les résultats de la méta-analyse, menée à l’aide d’un échantillon de 38 études comprenant 3046 équipes, viennent nuancer ceux précédemment rapportés dans la documentation scientifique et montrent que les failles ont un effet négatif sur la performance comportementale mais pas sur la performance de résultats. De plus, le type d’équipe modère cette relation de sorte que celle-ci est plus fortement négative pour les équipes de projet et les équipes de gestion. Le deuxième article évalue empiriquement l’effet des vecteurs de faille informationnels sur une dimension spécifique de la performance, l’adaptabilité d’équipe, en examinant le rôle médiateur de la coordination implicite ainsi que l’effet modérateur de la clarté des rôles et responsabilités. Une analyse de médiation modérée auprès d’un échantillon de 14 équipes de projet révèle que la coordination implicite médie la relation négative entre les vecteurs de faille informationnels et l’adaptabilité d’équipe. De plus, cette relation est plus fortement négative lorsque les rôles et responsabilités des équipiers sont clairs ou très clairs. Les implications théoriques et pratiques des résultats obtenus sont discutées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En se basant sur le principe organisationnel des deux types d’ensembles politiques rencontrés au Bénin, le but de cette recherche est d’explorer un ou des modèles conjoints, classiques et coutumiers, de participation en vue de promouvoir une démocratie participative plus proche des citoyens. Trois échelons spatiaux ont constitué le terrain de la recherche : l’Afrique, le Bénin centre et les milieux proches des anciennes royautés. La documentation et les données d’observations et d’entrevues ont été analysées par la démarche de théorisation ancrée et l’appréhension des phénomènes socio-spatiaux. Des quatre modèles originaux avec les critères endogènes d’appréciation de la participation mis en évidence et caractérisés dans les cultures du Bénin, deux, Togbésso-Hon-Togbassa et Daŋnou, émergent comme représentatifs des exigences d’une démocratie avec des formes territorialisées de la participation. La mise en perspective de la participation au Bénin avec les États d’Afrique montre une bonne performance qui le fait référencer comme le plus performant pour ses procédures et pratiques et comme source d’inspiration de mise en place des dispositifs participatifs dans le palmarès des grandes démocraties. Ses deux instruments de la décision, l’analyse participative et l’audience publique, restent perfectibles. La première, une innovation intéressante à encadrer, limite la participation à des acteurs choisis selon des critères généralement non énoncés. L’audience publique reste insatisfaisante par son inadéquation à la production de la décision collective et un modèle antinomique de la pensée politique africaine qui vise le consensus dans une démarche inclusive à essence délibérative sous forme de palabre. Fondement de la démocratie participative, la palabre offre le soubassement pour un modèle synergique basé sur les principes de délibération collective, d’offre de l’initiative de la décision au citoyen, de l’invitation aux débats et de l’écoute active (DROIE), d’un dispositif décisionnel flexible et adapté, au centre duquel se trouvent la délibération, le huis clos, la validation populaire et la reddition de compte, le recours et la réparation ainsi que le contrôle de qualité de la décision, essentiels à la gestion, et structurants à l’évaluation environnementale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La chimie est un sujet difficile étant donné ses concepts nombreux et souvent peu intuitifs. Mais au-delà de ces difficultés d’ordre épistémologique, l’apprentissage de la chimie peut être en péril lorsqu’il s’appuie sur des fondations instables, mêlées de conceptions alternatives. Les conceptions alternatives sont les représentations internes, tacites, des étudiants, qui sont en désaccord avec la théorie scientifiquement acceptée. Leur présence dans leur esprit peut nuire à la compréhension conceptuelle, et elle peut mener les étudiants à expliquer le comportement de la matière incorrectement et à faire des prédictions inexactes en chimie. Les conceptions alternatives sont réputées répandues et difficiles à repérer dans un cadre traditionnel d’enseignement. De nombreuses conceptions alternatives en chimie ont été mises en lumière par différents groupes de chercheurs internationaux, sans toutefois qu’une telle opération n’ait jamais été réalisée avec des étudiants collégiaux québécois. Le système d’éducation postsecondaire québécois représentant un contexte unique, une étude des difficultés particulières de ces étudiants était nécessaire pour tracer un portrait juste de la situation. De plus, des chercheurs proposent aujourd’hui de ne pas faire uniquement l’inventaire des conceptions, mais de s’attarder aussi à étudier comment, par quel processus, elles mènent à de mauvaises prédictions ou explications. En effet, ils soutiennent que les catalogues de conceptions ne peuvent pas être facilement utilisés par les enseignants, ce qui devrait pourtant être la raison pour les mettre en lumière : qu’elles soient prises en compte dans l’enseignement. Toutefois, aucune typologie satisfaisante des raisonnements et des conceptions alternatives en chimie, qui serait appuyée sur des résultats expérimentaux, n’existe actuellement dans les écrits de recherche. Plusieurs chercheurs en didactique de la chimie suggèrent qu’une telle typologie est nécessaire et devrait rendre explicites les modes de raisonnement qui mettent en jeu ces conceptions alternatives. L’explicitation du raisonnement employé par les étudiants serait ainsi la voie permettant de repérer la conception alternative sur laquelle ce raisonnement s’appuie. Le raisonnement est le passage des idées tacites aux réponses manifestes. Ce ne sont pas toutes les mauvaises réponses en chimie qui proviennent de conceptions alternatives : certaines proviennent d’un manque de connaissances, d’autres d’un agencement incorrect de concepts pourtant corrects. Comme toutes les sortes de mauvaises réponses d’étudiants sont problématiques lors de l’enseignement, il est pertinent de toutes les considérer. Ainsi, ces préoccupations ont inspiré la question de recherche suivante : Quelles conceptions alternatives et quels processus de raisonnement mènent les étudiants à faire de mauvaises prédictions en chimie ou à donner de mauvaises explications du comportement de la matière? C’est pour fournir une réponse à cette question que cette recherche doctorale a été menée. Au total, 2413 étudiants ont participé à la recherche, qui était divisée en trois phases : la phase préliminaire, la phase pilote et la phase principale. Des entrevues cliniques ont été menées à la phase préliminaire, pour explorer les conceptions alternatives des étudiants en chimie. Lors de la phase pilote, des questionnaires à choix multiples avec justification ouverte des réponses ont été utilisés pour délimiter le sujet, notamment à propos des notions de chimie les plus pertinentes sur lesquelles concentrer la recherche et pour mettre en lumière les façons de raisonner des étudiants à propos de ces notions. La phase principale, quant à elle, a utilisé le questionnaire à deux paliers à choix multiples « Molécules, polarité et phénomènes » (MPP) développé spécifiquement pour cette recherche. Ce questionnaire a été distribué aux étudiants via une adaptation de la plateforme Web ConSOL, développée durant la recherche par le groupe de recherche dont fait partie la chercheuse principale. Les résultats montrent que les étudiants de sciences de la nature ont de nombreuses conceptions alternatives et autres difficultés conceptuelles, certaines étant très répandues parmi leur population. En particulier, une forte proportion d’étudiants croient que l’évaporation d’un composé entraîne le bris des liaisons covalentes de ses molécules (61,1 %), que tout regroupement d’atomes est une molécule (78,9 %) et que les atomes ont des propriétés macroscopiques pareilles à celles de l’élément qu’ils constituent (66,0 %). D’un autre côté, ce ne sont pas toutes les mauvaises réponses au MPP qui montrent des conceptions alternatives. Certaines d’entre elles s’expliquent plutôt par une carence dans les connaissances antérieures (par exemple, lorsque les étudiants montrent une méconnaissance d’éléments chimiques communs, à 21,8 %) ou par un raisonnement logique incomplet (lorsqu’ils croient que le seul fait de posséder des liaisons polaires rend nécessairement une molécule polaire, ce qu’on observe chez 24,1 % d’entre eux). Les conceptions alternatives et les raisonnements qui mènent à des réponses incorrectes s’observent chez les étudiants de première année et chez ceux de deuxième année du programme de sciences, dans certains cas avec une fréquence diminuant entre les deux années, et dans d’autres, à la même fréquence chez les deux sous-populations. Ces résultats permettent de mitiger l’affirmation, généralement reconnue dans les écrits de recherche, selon laquelle les conceptions alternatives sont résistantes à l’enseignement traditionnel : selon les résultats de la présente recherche, certaines d’entre elles semblent en effet se résoudre à travers un tel contexte d’enseignement. Il demeure que plusieurs conceptions alternatives, carences dans les connaissances antérieures de base et erreurs de raisonnement ont été mises en lumière par cette recherche. Ces problèmes dans l’apprentissage mènent les étudiants collégiaux à faire des prédictions incorrectes du comportement de la matière, ou à expliquer ce comportement de façon incorrecte. Au regard de ces résultats, une réflexion sur l’enseignement de la chimie au niveau collégial, qui pourrait faire une plus grande place à la réflexion conceptuelle et à l’utilisation du raisonnement pour la prédiction et l’explication des phénomènes étudiés, serait pertinente à tenir.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Une récente théorie de la mémoire a proposé que lorsqu'un souvenir déjà bien consolidé est réactivé, il redevient labile et susceptible aux modifications avant d'être restabilisé (reconsolidé) en mémoire à long terme. Ce nouveau modèle réfute le modèle classique de la consolidation qui propose qu'une fois consolidés, les souvenirs soient permanents et donc résistants aux effets des agents amnésiques. Les études validant la théorie de la reconsolidation abondent chez les animaux, mais encore peu d'études ont été réalisées chez les humains. L'objectif de cette thèse est de vérifier, dans une population de sujets sains et de sujets souffrant de trouble de stress post-traumatique (TSPT), l'efficacité d'un agent pharmacologique, le propranolol (un β-bloquant noradrénergique) à atténuer des souvenirs émotionnels nouvellement acquis ou déjà bien consolidés. Plus spécifiquement, nous avons mené un essai clinique contrôlé à double insu chez des sujets sains en leur administrant du propranolol (vs du placebo) lors de l'acquisition d'un nouveau souvenir et une semaine plus tard, lors de sa réactivation. L'objectif du premier article était d'évaluer l'efficacité du propranolol à diminuer la consolidation et la reconsolidation d'un souvenir émotionnel. Par ailleurs, puisque les études chez les animaux ont démontré que ces deux processus mnésiques s'effectuent à l'intérieur d'une fenêtre temporelle précise, le moment de l'administration du propranolol fut pris en considération. Les résultats ont démontré que le propranolol est en mesure de diminuer la consolidation et la reconsolidation d'une histoire émotionnelle tel que démontré par un pourcentage de bonnes réponses plus faible que le groupe contrôle lors des rappels. Toutefois, pour que cet effet soit observé, le propranolol doit être administré une heure avant la présentation des stimuli, pour la consolidation et une heure avant leur réactivation, pour la reconsolidation. En outre, les études portant sur la consolidation et la reconsolidation chez les animaux et chez les humains obtiennent parfois des résultats contradictoires. Ceci pourrait s'expliquer par le type de stimuli utilisé. Ainsi, l'objectif du second article était de préciser quel type d'information est le plus susceptible d'être affecté par le propranolol lors de son acquisition (consolidation) et lors de sa réactivation (reconsolidation). Pour ce faire, les éléments de l'histoire émotionnelle ont été divisés en fonction de leur valence (émotionnel ou neutre) et de leur centralité (central ou périphérique). Les résultats ont démontré le propranolol affecte l'ensemble des informations centrales lors du blocage de la consolidation, mais qu'il affecte plus spécifiquement les éléments émotionnels centraux lors de la reconsolidation. Notre groupe ayant précédemment démontré que le traitement avec le propranolol est en mesure de réduire les symptômes de TSPT chez une population clinique, nous nous sommes interrogés sur son efficacité à diminuer la mémoire implicite d'un événement traumatique. Le propranolol a été administré aux participants à 6 reprises (une fois par semaine sur une période de 6 semaines) lors de la réactivation de leur trauma. Les résultats ont révélé que le traitement avec le propranolol est en mesure de diminuer la réponse psychophysiologique des participants à l'écoute du compte rendu de leur trauma une semaine et 4 mois suivant la fin du traitement. En somme, cette thèse démontre que le propranolol est en mesure de bloquer la consolidation et la reconsolidation de souvenirs émotionnels chez l'humain lorsqu'il est administré une heure avant l'acquisition ou la réactivation des souvenirs. Il arrive en outre à atténuer un souvenir déclaratif émotionnel chez des sujets sains, mais également un souvenir implicite chez des sujets souffrant de TSPT. Ainsi, ces résultats ouvrent la voie à la création de nouveaux traitements pour les psychopathologies ayant comme étiologie un souvenir émotionnel intense.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mon essai et mon roman se font l’écho l’un de l’autre, ils se répondent et reflètent ainsi le sujet de ma recherche : la polyphonie. Dans L’évolution du procédé polyphonique chez Suzanne Jacob, je m’attarde à trois romans de Suzanne Jacob, L’obéissance, Rouge, mère et fils et Fugueuses, œuvres chorales et teintées par la musique dans lesquelles la prose se décline en plusieurs voix. Puisque j’étudie la polyphonie dans son aspect musical et, parallèlement, dans une perspective littéraire, il est possible d’admettre que je fais moi aussi, au cœur de mon essai, l’exercice du contrepoint. Cet essai est précédé par Messe solennelle pour la famille Lebel, roman polyphonique qui, à la manière de Fugueuses, où la musique est déjà implicite dans le titre, se donne à lire comme une partition musicale. J’y présente quatre membres d’une même famille, deux hommes et deux femmes, qui doivent faire face à la mort de l’un des leurs. Ils se partagent une narration en contrepoint dans un récit à plusieurs voix (inspirées par les quatre catégories vocales principales en musique) dont la structure rappelle celle du requiem ou messe des morts.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La prise de décision est un processus computationnel fondamental dans de nombreux aspects du comportement animal. Le modèle le plus souvent rencontré dans les études portant sur la prise de décision est appelé modèle de diffusion. Depuis longtemps, il explique une grande variété de données comportementales et neurophysiologiques dans ce domaine. Cependant, un autre modèle, le modèle d’urgence, explique tout aussi bien ces mêmes données et ce de façon parcimonieuse et davantage encrée sur la théorie. Dans ce travail, nous aborderons tout d’abord les origines et le développement du modèle de diffusion et nous verrons comment il a été établi en tant que cadre de travail pour l’interprétation de la plupart des données expérimentales liées à la prise de décision. Ce faisant, nous relèveront ses points forts afin de le comparer ensuite de manière objective et rigoureuse à des modèles alternatifs. Nous réexaminerons un nombre d’assomptions implicites et explicites faites par ce modèle et nous mettrons alors l’accent sur certains de ses défauts. Cette analyse servira de cadre à notre introduction et notre discussion du modèle d’urgence. Enfin, nous présenterons une expérience dont la méthodologie permet de dissocier les deux modèles, et dont les résultats illustrent les limites empiriques et théoriques du modèle de diffusion et démontrent en revanche clairement la validité du modèle d'urgence. Nous terminerons en discutant l'apport potentiel du modèle d'urgence pour l'étude de certaines pathologies cérébrales, en mettant l'accent sur de nouvelles perspectives de recherche.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le présent mémoire porte sur les représentations sociales de la dangerosité en psychiatrie chez les intervenants de proximité (infirmières, préposés, et agent de sécurité), d’un milieu de soins psychiatriques. Nous cherchons à explorer comment ces intervenants perçoivent et interprètent les risques inhérents à leur métier et comment ils y réagissent en situation d’incertitude. Les concepts de dangerosité, d’ « individu dangereux » et de risque en psychiatrie sont abordés dans le présent mémoire, à travers un angle historique, social et anthropologique, suivant les lectures de Michel Foucault; de Robert Castel; de Ian Hacking; et de Mary Douglas. De l’observation participante dans une unité de soins psychiatriques aigus et des entrevues semi-structurées ont été réalisées auprès d’une dizaine d’intervenants en santé mentale. Une approche ethnographique et interprétative nous a permis de dégager les principales récurrences, divergences et contradictions intra et inter intervenants sur la question de la dangerosité et du risque en psychiatrie. Les résultats sont séparés en fonction de trois grands thèmes : 1) représentations sociales de la dangerosité 2) perceptions du risque au travail 3) réactions face au risque perçu. L’analyse de nos résultats montre que les connaissances qu’ont les intervenants sur la dangerosité ne se limitent pas à celles produites par le savoir expert, elles s’ouvrent aussi sur leur propre réalité clinique. De plus, contrairement aux prédictions du savoir expert, la différence observée entre les pratiques de contrôle des intervenants n’est pas la conséquence d’une surestimation du risque ni d’un manque d’information « objective » sur les facteurs de risque du comportement agressif, mais s’explique davantage en fonction de la présence ou de l’absence d’un lien thérapeutique et du degré de reconnaissance sociale dans les interactions entre les soignants et les soignés. Les éléments qui renforcent ou limitent l’établissement d’un lien de confiance sont explicités dans le présent mémoire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In recent years, we observed a significant increase of food fraud ranging from false label claims to the use of additives and fillers to increase profitability. Recently in 2013, horse and pig DNA were detected in beef products sold from several retailers. Mass spectrometry has become the workhorse in protein research and the detection of marker proteins could serve for both animal species and tissue authentication. Meat species authenticity will be performed using a well defined proteogenomic annotation, carefully chosen surrogate tryptic peptides and analysis using a hybrid quadrupole-Orbitrap mass spectrometer. Selected mammalian meat samples were homogenized, proteins were extracted and digested with trypsin. The samples were analyzed using a high-resolution mass spectrometer. The chromatography was achieved using a 30 minutes linear gradient along with a BioBasic C8 100 × 1 mm column at a flow rate of 75 µL/min. The mass spectrometer was operated in full-scan high resolution and accurate mass. MS/MS spectra were collected for selected proteotypic peptides. Muscular proteins were methodically analyzed in silico in order to generate tryptic peptide mass lists and theoretical MS/MS spectra. Following a comprehensive bottom-up proteomic analysis, we were able to detect and identify a proteotypic myoglobin tryptic peptide [120-134] for each species with observed m/z below 1.3 ppm compared to theoretical values. Moreover, proteotypic peptides from myosin-1, myosin-2 and -hemoglobin were also identified. This targeted method allowed a comprehensive meat speciation down to 1% (w/w) of undesired product.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse est divisée en trois chapitres. Le premier explique comment utiliser la méthode «level-set» de manière rigoureuse pour faire la simulation de feux de forêt en utilisant comme modèle physique pour la propagation le modèle de l'ellipse de Richards. Le second présente un nouveau schéma semi-implicite avec une preuve de convergence pour la solution d'une équation de type Hamilton-Jacobi anisotrope. L'avantage principal de cette méthode est qu'elle permet de réutiliser des solutions à des problèmes «proches» pour accélérer le calcul. Une autre application de ce schéma est l'homogénéisation. Le troisième chapitre montre comment utiliser les méthodes numériques des deux premiers chapitres pour étudier l'influence de variations à petites échelles dans la vitesse du vent sur la propagation d'un feu de forêt à l'aide de la théorie de l'homogénéisation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présente étude conduit les traditions fragmentées de la culture littéraire de Trieste vers les préoccupations contemporaines de la littérature mondiale à l’époque actuelle où la mondialisation est largement perçue comme le paradigme historique prédominant de la modernité. Ce que j’appelle la « littérature globalisée » renvoie à la refonte de la Weltliteratur – envisagée par Goethe et traduite comme « world literature » ou la « littérature universelle » – par des discours sur la culture mondiale et le post-nationalisme. Cependant, lorsque les études littéraires posent les questions de la « littérature globalisée », elles sont confrontées à un problème : le passage de l’idée universelle inhérente au paradigme de Goethe entre le Scylla d’un internationalisme relativiste et occidental, et le Charybde d’un mondialisme atopique et déshumanisé. Les spécialistes de la littérature mondiale qui tendent vers la première position acquièrent un fondement institutionnel en travaillant avec l’hypothèse implicite selon laquelle les nations sont fondées sur les langues nationales, ce qui souscrit à la relation entre la littérature mondiale et les littératures nationales. L’universalité de cette hypothèse implicite est réfutée par l’écriture triestine. Dans cette étude, je soutiens que l’écriture triestine du début du XXe siècle agit comme un précurseur de la réflexion sur la culture littéraire globalisée du XXIe siècle. Elle dispose de sa propre économie de sens, de sorte qu’elle n’entre pas dans les nationalismes littéraires, mais elle ne tombe pas non plus dans le mondialisme atopique. Elle n’est pas catégoriquement opposée à la littérature nationale; mais elle ne permet pas aux traditions nationales de prendre racine. Les écrivains de Triestine exprimaient le désir d’un sentiment d’unité et d’appartenance, ainsi que celui d’une conscience critique qui dissout ce désir. Ils résistaient à l’idéalisation de ces particularismes et n’ont jamais réussi à réaliser la coalescence de ses écrits dans une tradition littéraire unifiée. Par conséquent, Trieste a souvent été considérée comme un non-lieu et sa littérature comme une anti-littérature. En contournant les impératifs territoriaux de la tradition nationale italienne – comme il est illustré par le cas de Italo Svevo – l’écriture triestine a été ultérieurement incluse dans les paramètres littéraires et culturels de la Mitteleuropa, où son expression a été imaginée comme un microcosme de la pluralité supranationale de l’ancien Empire des Habsbourg. Toutefois, le macrocosme projeté de Trieste n’est pas une image unifiée, comme le serait un globe; mais il est plutôt une nébuleuse planétaire – selon l’image de Svevo – où aucune idéalisation universalisante ne peut se réaliser. Cette étude interroge l’image de la ville comme un microcosme et comme un non-lieu, comme cela se rapporte au macrocosme des atopies de la mondialisation, afin de démontrer que l’écriture de Trieste est la littérature globalisée avant la lettre. La dialectique non résolue entre faire et défaire la langue littéraire et l’identité à travers l’écriture anime la culture littéraire de Trieste, et son dynamisme contribue aux débats sur la mondialisation et les questions de la culture en découlant. Cette étude de l’écriture triestine offre des perspectives critiques sur l’état des littératures canoniques dans un monde où les frontières disparaissent et les non-lieux se multiplient. L’image de la nébuleuse planétaire devient possiblement celle d’un archétype pour le monde globalisé d’aujourd’hui.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper introduces and examines the logicist construction of Peano Arithmetic that can be performed into Leśniewski’s logical calculus of names called Ontology. Against neo-Fregeans, it is argued that a logicist program cannot be based on implicit definitions of the mathematical concepts. Using only explicit definitions, the construction to be presented here constitutes a real reduction of arithmetic to Leśniewski’s logic with the addition of an axiom of infinity. I argue however that such a program is not reductionist, for it only provides what I will call a picture of arithmetic, that is to say a specific interpretation of arithmetic in which purely logical entities play the role of natural numbers. The reduction does not show that arithmetic is simply a part of logic. The process is not of ontological significance, for numbers are not shown to be logical entities. This neo-logicist program nevertheless shows the existence of a purely analytical route to the knowledge of arithmetical laws.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Internet today has become a vital part of day to day life, owing to the revolutionary changes it has brought about in various fields. Dependence on the Internet as an information highway and knowledge bank is exponentially increasing so that a going back is beyond imagination. Transfer of critical information is also being carried out through the Internet. This widespread use of the Internet coupled with the tremendous growth in e-commerce and m-commerce has created a vital need for infonnation security.Internet has also become an active field of crackers and intruders. The whole development in this area can become null and void if fool-proof security of the data is not ensured without a chance of being adulterated. It is, hence a challenge before the professional community to develop systems to ensure security of the data sent through the Internet.Stream ciphers, hash functions and message authentication codes play vital roles in providing security services like confidentiality, integrity and authentication of the data sent through the Internet. There are several ·such popular and dependable techniques, which have been in use widely, for quite a long time. This long term exposure makes them vulnerable to successful or near successful attempts for attacks. Hence it is the need of the hour to develop new algorithms with better security.Hence studies were conducted on various types of algorithms being used in this area. Focus was given to identify the properties imparting security at this stage. By making use of a perception derived from these studies, new algorithms were designed. Performances of these algorithms were then studied followed by necessary modifications to yield an improved system consisting of a new stream cipher algorithm MAJE4, a new hash code JERIM- 320 and a new message authentication code MACJER-320. Detailed analysis and comparison with the existing popular schemes were also carried out to establish the security levels.The Secure Socket Layer (SSL) I Transport Layer Security (TLS) protocol is one of the most widely used security protocols in Internet. The cryptographic algorithms RC4 and HMAC have been in use for achieving security services like confidentiality and authentication in the SSL I TLS. But recent attacks on RC4 and HMAC have raised questions about the reliability of these algorithms. Hence MAJE4 and MACJER-320 have been proposed as substitutes for them. Detailed studies on the performance of these new algorithms were carried out; it has been observed that they are dependable alternatives.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In the present thesis we have formulated the Dalgarno-Lewis procedure for two-and three-photon processes and an elegant alternate expressions are derived. Starting from a brief review on various multiphoton processes we have discussed the difficulties coming in the perturbative treatment of multiphoton processes. A small discussion on various available methods for studying multiphoton processes are presented in chapter 2. These theoretical treatments mainly concentrate on the evaluation of the higher order matrix elements coming in the perturbation theory. In chapter 3 we have described the use of Dalgarno-Lewis procedure and its implimentation on second order matrix elements. The analytical expressions for twophoton transition amplitude, two-photon ionization cross section, dipole dynamic polarizability and Kramers-Heiseberg are obtained in a unified manner. Fourth chapter is an extension of the implicit summation technique presented in chapter 3. We have clearly mentioned the advantage of our method, especially the analytical continuation of the relevant expressions suited for various values of radiation frequency which is also used for efficient numerical analysis. A possible extension of the work is to study various multiphoton processcs from the stark shifted first excited states of hydrogen atom. We can also extend this procedure for studying multiphoton processes in alkali atoms as well as Rydberg atoms. Also, instead of going for analytical expressions, one can try a complete numerical evaluation of the higher order matrix elements using this procedure.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The difficulties arising in the calculation of the nuclear curvature energy are analyzed in detail, especially with reference to relativistic models. It is underlined that the implicit dependence on curvature of the quantal wave functions is directly accessible only in a semiclassical framework. It is shown that also in the relativistic models quantal and semiclassical calculations of the curvature energy are in good agreement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In a sigma-delta analog to digital (A/D) As most of the sigma-delta ADC applications require converter, the most computationally intensive block is decimation filters with linear phase characteristics, the decimation filter and its hardware implementation symmetric Finite Impulse Response (FIR) filters are may require millions of transistors. Since these widely used for implementation. But the number of FIR converters are now targeted for a portable application, filter coefficients will be quite large for implementing a a hardware efficient design is an implicit requirement. narrow band decimation filter. Implementing decimation In this effect, this paper presents a computationally filter in several stages reduces the total number of filter efficient polyphase implementation of non-recursive coefficients, and hence reduces the hardware complexity cascaded integrator comb (CIC) decimators for and power consumption [2]. Sigma-Delta Converters (SDCs). The SDCs are The first stage of decimation filter can be operating at high oversampling frequencies and hence implemented very efficiently using a cascade of integrators require large sampling rate conversions. The filtering and comb filters which do not require multiplication or and rate reduction are performed in several stages to coefficient storage. The remaining filtering is performed reduce hardware complexity and power dissipation. either in single stage or in two stages with more complex The CIC filters are widely adopted as the first stage of FIR or infinite impulse response (IIR) filters according to decimation due to its multiplier free structure. In this the requirements. The amount of passband aliasing or research, the performance of polyphase structure is imaging error can be brought within prescribed bounds by compared with the CICs using recursive and increasing the number of stages in the CIC filter. The non-recursive algorithms in terms of power, speed and width of the passband and the frequency characteristics area. This polyphase implementation offers high speed outside the passband are severely limited. So, CIC filters operation and low power consumption. The polyphase are used to make the transition between high and low implementation of 4th order CIC filter with a sampling rates. Conventional filters operating at low decimation factor of '64' and input word length of sampling rate are used to attain the required transition '4-bits' offers about 70% and 37% of power saving bandwidth and stopband attenuation. compared to the corresponding recursive and Several papers are available in literature that deals non-recursive implementations respectively. The same with different implementations of decimation filter polyphase CIC filter can operate about 7 times faster architecture for sigma-delta ADCs. Hogenauer has than the recursive and about 3.7 times faster than the described the design procedures for decimation and non-recursive CIC filters.