874 resultados para formulas


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Recent Storms in Nordic countries were a reason of long power outages in huge territories. After these disasters distribution networks' operators faced with a problem how to provide adequate quality of supply in such situation. The decision of utilization cable lines rather than overhead lines were made, which brings new features to distribution networks. The main idea of this work is a complex analysis of medium voltage distribution networks with long cable lines. High value of cable’s specific capacitance and length of lines determine such problems as: high values of earth fault currents, excessive amount of reactive power flow from distribution to transmission network, possibility of a high voltage level at the receiving end of cable feeders. However the core tasks was to estimate functional ability of the earth fault protection and the possibility to utilize simplified formulas for operating setting calculations in this network. In order to provide justify solution or evaluation of mentioned above problems corresponding calculations were made and in order to analyze behavior of relay protection principles PSCAD model of the examined network have been created. Evaluation of the voltage rise in the end of a cable line have educed absence of a dangerous increase in a voltage level, while excessive value of reactive power can be a reason of final penalty according to the Finish regulations. It was proved and calculated that for this networks compensation of earth fault currents should be implemented. In PSCAD models of the electrical grid with isolated neutral, central compensation and hybrid compensation were created. For the network with hybrid compensation methodology which allows to select number and rated power of distributed arc suppression coils have been offered. Based on the obtained results from experiments it was determined that in order to guarantee selective and reliable operation of the relay protection should be utilized hybrid compensation with connection of high-ohmic resistor. Directional and admittance based relay protection were tested under these conditions and advantageous of the novel protection were revealed. However, for electrical grids with extensive cabling necessity of a complex approach to the relay protection were explained and illustrated. Thus, in order to organize reliable earth fault protection is recommended to utilize both intermittent and conventional relay protection with operational settings calculated by the use of simplified formulas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract Flavors represent a small but significant segment of food industry. Sensory characteristics play an important role in the process of consumer acceptance and preference. Indocalamus leaf takes on a pleasant odor and indocalamus leaf flavor can be used in many products. However, indocalamus leaf flavor formula has not been reported. Therefore, developing an indocalamus leaf flavor is of significant interests. Note is a distinct flavor or odor characteristic. This paper concentrates on preparation and creation of indocalamus leaf flavor according to the notes of indocalamus leaf. The notes were obtained by smelling indocalamus leaf, and the results showed that the notes of indocalamus leaf flavor can be classified as: green-leafy note, sweet note, beany note, aldehydic note, waxy note, woody note, roast note, creamy note, and nutty note. According to the notes of indocalamus leaf odor, a typical indocalamus leaf flavor formula was obtained. The indocalamus leaf flavor blended is pleasant, harmonious, and has characteristics of indocalamus leaf odor.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tämän diplomityön tarkoituksena oli kehittää robottihitsauksen toimintoja KKR Steel Oy:ssä. Tärkeimmät tutkimuskohteet olivat robottisolujen toiminnan tehostaminen ja uusien robottihitsaukseen sopivien tuotteiden kartoittaminen. Työ on jaettu teoreettiseen ja käytännön osuuteen. Teoriaosassa perehdytään kirjallisuuskatsauksen kautta robottihitsauksen perusteisiin, hitsauksen robotisointiin sekä tuottavuuteen ja laatuun. Robottihitsauksen osuudessa käsitellään hitsausrobotin rakennetta, siihen liittyviä oheislaitteita ja robottien ohjelmointia. Hitsauksen robotisoinnissa selvitetään syitä robottihitsauksen käyttöönotolle, robotisoitavilta tuotteilta vaadittavia ominaisuuksia sekä erilaisia toimenpiteitä robottiaseman toiminnan tehostamiseksi. Tuottavuuteen liittyvässä osuudessa selvitetään erilaisten laskentakaavojen ja tunnuslukujen käyttöä ja merkitystä hitsauksessa. Käytännön osuudessa kartoitettiin yrityksen robottihitsauksen lähtötilanne ja selvitettiin ongelmakohtien perusteella kehittämistoimenpiteitä. Tutkimuksissa seurattiin ja havainnoitiin hitsaustuotannon eri vaiheita, minkä perusteella laadittiin erilaisia parannuskeinoja. Toimenpiteistä saatavan hyödyn arviointiin käytettiin yrityksen tuotantoon sopivia mittareita kuten läpimenoaikaa ja kaariaikasuhdetta. Havaittujen ongelmakohtien perusteella ryhdyttiin kehittämään hitsauskiinnittimien suunnittelua ja käsittelylaitteiden käyttöä hitsaustuotannossa sekä hyödyntämään etäohjelmointia tuotteiden viennissä robottiasemille. Lisäksi robottiasemien käyttöastetta pyrittiin nostamaan tutkimalla käsinhitsattavia tuotteita ja siirtämällä niistä robotille soveltuvimmat robottiasemille hitsattavaksi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Työn teoreettisessa osuudessa tehdään katsaus kiertoleijupetiteknologian eri osa-alueisiin: leijupedin virtausdynamiikkaan, hiukkaserottimeen ja kiintoaineen palautusmekanismiin. Myös teknologian historiaa ja muita käyttötarkoituksia energiantuotannon ohella käydään läpi. Termodynamiikkaa sekä lämmönsiirron ja voimalaitosprosessien teoriaa käsitellään mallinnuksessa tarvittavilta osin. Mallinnusosiossa käydään läpi kiertoleijupetihöyrykattilan matemaattisen mallin tekoprosessia. Malli perustuu yleisesti saatavilla oleviin yhtälöihin ja korrelaatioihin. Mallintaminen koostuu höyrykattilan jakamisesta lämpöpintoihin ja niiden mitoittamisesta. Mallissa esitetään myös näkemys siitä, miten lämpö siirtyy savukaasuun ja miten petimateriaalin kierto tapahtuu tulipesässä.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

TAVOITTEET: Tämän tutkielman tarkoitus on tarkastella eri toimialojen likviditeettitasoja vuosien 2007 ja 2013 välillä. Se tarkastelee myös kassanhallinnan ja likviditeetin kirjallisuutta, erilaisia likviditeettiä kuvaavia tunnuslukuja sekä asioita, joilla on vaikutusta likviditeettiin. Tämän lisäksi se tutkii informaatio ja kommunikaatio sektoria tarkemmin. DATA: Data on kerätty Orbis tietokannasta. Toimialakohtaiset keskiarvot on laskettu joko kappaleen 2 esittämillä kaavoilla tai noudettu suoraan tietokannasta. Hajonta kuvaajat on tehty Excelillä ja korrelaatio matriisi ja regressioanalyysit SAS EG:llä. TULOKSET: Tämä tutkimus esittää toimialakohtaiset keskiarvot liquidity ratiosta, solvency ratiosta sekä gearingista, kuten monista muista likviditeettiä kuvaavista tai siihen vaikuttavista tunnusluvuista. Tutkimus osoittaa, että keskimäärin likviditeetti ja maksuvalmius ovat säilyneet melko samana, mutta toimialakohtaiset muutokset ovat voimakkaita. IC sektorilla likviditeettiin vaikuttaa katetuotto, työntekijöiden määrä, liikevaihto, taseen määrä sekä maksuaika.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The review of intelligent machines shows that the demand for new ways of helping people in perception of the real world is becoming higher and higher every year. This thesis provides information about design and implementation of machine vision for mobile assembly robot. The work has been done as a part of LUT project in Laboratory of Intelligent Machines. The aim of this work is to create a working vision system. The qualitative and quantitative research were done to complete this task. In the first part, the author presents the theoretical background of such things as digital camera work principles, wireless transmission basics, creation of live stream, methods used for pattern recognition. Formulas, dependencies and previous research related to the topic are shown. In the second part, the equipment used for the project is described. There is information about the brands, models, capabilities and also requirements needed for implementation. Although, the author gives a description of LabVIEW software, its add-ons and OpenCV which are used in the project. Furthermore, one can find results in further section of considered thesis. They mainly represented by screenshots from cameras, working station and photos of the system. The key result of this thesis is vision system created for the needs of mobile assembly robot. Therefore, it is possible to see graphically what was done on examples. Future research in this field includes optimization of the pattern recognition algorithm. This will give less response time for recognizing objects. Presented by author system can be used also for further activities which include artificial intelligence usage.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

With the recent growth in cultural complexity, many organizations are faced with increasingly diverse employee pools. Gaining a greater understanding of the values that employees possess is the first step in effectively satisfying their needs and achieving a more productive workforce (lung & Avolio, 2000). Values playa significant role in influencing individual behaviours. It is therefore necessary to assess the qualities of employee value systems and directly link them to the values of the organization. The importance of values and value congruence has been emphasized by many organizational behaviour researchers (cf. Adkins & Caldwell, 2004; Erdogan, Kraimer, & Liden, 2004; Jung & Avolio, 2000; Rokeach, 1973); however the emphasis on value studies remains fairly stagnant within the sport industry (Amis, Slack, & Hinings, 2002). In order to examine the realities that were constructed by the participants in this study a holistic view of the impact of values within a specific sport organization were provided. The purpose of this case study was to examine organizational and employee values to understand the effects of values and value congruence on employee behaviours within the context of a large Canadian sport organization. A mUltiple methods case study approach was adopted in order to fully serve the purpose and provide a comprehensive view of the organization being examined. Document analysis, observations, surveys, as well as semi-structured interviews were conducted. The process allowed for triangulation and confirmability of the findings. Each method functioned to create an overarching understanding of the values and value congruence within this organization. The analysis of the findings was divided into qualitative and quantitative sections. The qualitative documents were analyzed twice, once manually by the researcher and once via AtIas.ti Version 4 (1998). The a priori and emergent coding that took place was based on triangulating the findings and uncovering common themes throughout the data. The Rokeach Value Survey (1973) that was incorporated into the survey design of the study was analyzed using descriptive statistics, as well as Mann-Whitney U, and Kruskal Wallis formulas. These were deemed appropriate for analysis given the non-parametric nature of the survey instrument (Kinnear & Gray, 2004). The quantitative survey served to help define the values and value congruence that was then holistically examined through the qualitative interviews, document analyses, and observations. The results of the study indicated incongruent value levels between employees and those stated or perceived as the organization's values. Each finding demonstrated that varying levels of congruence may have diverse affects on individual behaviours. These behaviours range from production levels to interactions with fellow employees to turnover. In addition to the findings pertaining to the research questions, a number of other key issues were uncovered regarding departmentalization, communication, and board relations. Each has contributed to a greater understanding of the organization and has created direction for further research within this area of study.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RelAPS is an interactive system assisting in proving relation-algebraic theorems. The aim of the system is to provide an environment where a user can perform a relation-algebraic proof similar to doing it using pencil and paper. The previous version of RelAPS accepts only Horn-formulas. To extend the system to first order logic, we have defined and implemented a new language based on theory of allegories as well as a new calculus. The language has two different kinds of terms; object terms and relational terms, where object terms are built from object constant symbols and object variables, and relational terms from typed relational constant symbols, typed relational variables, typed operation symbols and the regular operations available in any allegory. The calculus is a mixture of natural deduction and the sequent calculus. It is formulated in a sequent style but with exactly one formula on the right-hand side. We have shown soundness and completeness of this new logic which verifies that the underlying proof system of RelAPS is working correctly.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dynamic logic is an extension of modal logic originally intended for reasoning about computer programs. The method of proving correctness of properties of a computer program using the well-known Hoare Logic can be implemented by utilizing the robustness of dynamic logic. For a very broad range of languages and applications in program veri cation, a theorem prover named KIV (Karlsruhe Interactive Veri er) Theorem Prover has already been developed. But a high degree of automation and its complexity make it di cult to use it for educational purposes. My research work is motivated towards the design and implementation of a similar interactive theorem prover with educational use as its main design criteria. As the key purpose of this system is to serve as an educational tool, it is a self-explanatory system that explains every step of creating a derivation, i.e., proving a theorem. This deductive system is implemented in the platform-independent programming language Java. In addition, a very popular combination of a lexical analyzer generator, JFlex, and the parser generator BYacc/J for parsing formulas and programs has been used.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

If you want to know whether a property is true or not in a specific algebraic structure,you need to test that property on the given structure. This can be done by hand, which can be cumbersome and erroneous. In addition, the time consumed in testing depends on the size of the structure where the property is applied. We present an implementation of a system for finding counterexamples and testing properties of models of first-order theories. This system is supposed to provide a convenient and paperless environment for researchers and students investigating or studying such models and algebraic structures in particular. To implement a first-order theory in the system, a suitable first-order language.( and some axioms are required. The components of a language are given by a collection of variables, a set of predicate symbols, and a set of operation symbols. Variables and operation symbols are used to build terms. Terms, predicate symbols, and the usual logical connectives are used to build formulas. A first-order theory now consists of a language together with a set of closed formulas, i.e. formulas without free occurrences of variables. The set of formulas is also called the axioms of the theory. The system uses several different formats to allow the user to specify languages, to define axioms and theories and to create models. Besides the obvious operations and tests on these structures, we have introduced the notion of a functor between classes of models in order to generate more co~plex models from given ones automatically. As an example, we will use the system to create several lattices structures starting from a model of the theory of pre-orders.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper develops a general stochastic framework and an equilibrium asset pricing model that make clear how attitudes towards intertemporal substitution and risk matter for option pricing. In particular, we show under which statistical conditions option pricing formulas are not preference-free, in other words, when preferences are not hidden in the stock and bond prices as they are in the standard Black and Scholes (BS) or Hull and White (HW) pricing formulas. The dependence of option prices on preference parameters comes from several instantaneous causality effects such as the so-called leverage effect. We also emphasize that the most standard asset pricing models (CAPM for the stock and BS or HW preference-free option pricing) are valid under the same stochastic setting (typically the absence of leverage effect), regardless of preference parameter values. Even though we propose a general non-preference-free option pricing formula, we always keep in mind that the BS formula is dominant both as a theoretical reference model and as a tool for practitioners. Another contribution of the paper is to characterize why the BS formula is such a benchmark. We show that, as soon as we are ready to accept a basic property of option prices, namely their homogeneity of degree one with respect to the pair formed by the underlying stock price and the strike price, the necessary statistical hypotheses for homogeneity provide BS-shaped option prices in equilibrium. This BS-shaped option-pricing formula allows us to derive interesting characterizations of the volatility smile, that is, the pattern of BS implicit volatilities as a function of the option moneyness. First, the asymmetry of the smile is shown to be equivalent to a particular form of asymmetry of the equivalent martingale measure. Second, this asymmetry appears precisely when there is either a premium on an instantaneous interest rate risk or on a generalized leverage effect or both, in other words, whenever the option pricing formula is not preference-free. Therefore, the main conclusion of our analysis for practitioners should be that an asymmetric smile is indicative of the relevance of preference parameters to price options.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this paper : a) the consumer’s problem is studied over two periods, the second one involving S states, and the consumer being endowed with S+1 incomes and having access to N financial assets; b) the consumer is then representable by a continuously differentiable system of demands, commodity demands, asset demands and desirabilities of incomes (the S+1 Lagrange multiplier of the S+1 constraints); c) the multipliers can be transformed into subjective Arrow prices; d) the effects of the various incomes on these Arrow prices decompose into a compensation effect (an Antonelli matrix) and a wealth effect; e) the Antonelli matrix has rank S-N, the dimension of incompleteness, if the consumer can financially adjust himself when facing income shocks; f) the matrix has rank S, if not; g) in the first case, the matrix represents a residual aversion; in the second case, a fundamental aversion; the difference between them is an aversion to illiquidity; this last relation corresponds to the Drèze-Modigliani decomposition (1972); h) the fundamental aversion decomposes also into an aversion to impatience and a risk aversion; i) the above decompositions span a third decomposition; if there exists a sure asset (to be defined, the usual definition being too specific), the fundamental aversion admits a three-component decomposition, an aversion to impatience, a residual aversion and an aversion to the illiquidity of risky assets; j) the formulas of the corresponding financial premiums are also presented.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le sujet principal de cette thèse est la distribution des nombres premiers dans les progressions arithmétiques, c'est-à-dire des nombres premiers de la forme $qn+a$, avec $a$ et $q$ des entiers fixés et $n=1,2,3,\dots$ La thèse porte aussi sur la comparaison de différentes suites arithmétiques par rapport à leur comportement dans les progressions arithmétiques. Elle est divisée en quatre chapitres et contient trois articles. Le premier chapitre est une invitation à la théorie analytique des nombres, suivie d'une revue des outils qui seront utilisés plus tard. Cette introduction comporte aussi certains résultats de recherche, que nous avons cru bon d'inclure au fil du texte. Le deuxième chapitre contient l'article \emph{Inequities in the Shanks-Rényi prime number race: an asymptotic formula for the densities}, qui est le fruit de recherche conjointe avec le professeur Greg Martin. Le but de cet article est d'étudier un phénomène appelé le <>, qui s'observe dans les <>. Chebyshev a observé qu'il semble y avoir plus de premiers de la forme $4n+3$ que de la forme $4n+1$. De manière plus générale, Rubinstein et Sarnak ont montré l'existence d'une quantité $\delta(q;a,b)$, qui désigne la probabilité d'avoir plus de premiers de la forme $qn+a$ que de la forme $qn+b$. Dans cet article nous prouvons une formule asymptotique pour $\delta(q;a,b)$ qui peut être d'un ordre de précision arbitraire (en terme de puissance négative de $q$). Nous présentons aussi des résultats numériques qui supportent nos formules. Le troisième chapitre contient l'article \emph{Residue classes containing an unexpected number of primes}. Le but est de fixer un entier $a\neq 0$ et ensuite d'étudier la répartition des premiers de la forme $qn+a$, en moyenne sur $q$. Nous montrons que l'entier $a$ fixé au départ a une grande influence sur cette répartition, et qu'il existe en fait certaines progressions arithmétiques contenant moins de premiers que d'autres. Ce phénomène est plutôt surprenant, compte tenu du théorème des premiers dans les progressions arithmétiques qui stipule que les premiers sont équidistribués dans les classes d'équivalence $\bmod q$. Le quatrième chapitre contient l'article \emph{The influence of the first term of an arithmetic progression}. Dans cet article on s'intéresse à des irrégularités similaires à celles observées au troisième chapitre, mais pour des suites arithmétiques plus générales. En effet, nous étudions des suites telles que les entiers s'exprimant comme la somme de deux carrés, les valeurs d'une forme quadratique binaire, les $k$-tuplets de premiers et les entiers sans petit facteur premier. Nous démontrons que dans chacun de ces exemples, ainsi que dans une grande classe de suites arithmétiques, il existe des irrégularités dans les progressions arithmétiques $a\bmod q$, avec $a$ fixé et en moyenne sur $q$.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présente recherche a pour objectif d’examiner les stratégies de politesse utilisées par des apprenants coréens qui apprennent le français comme langue seconde lors des situations de demande et de mettre en évidence le rôle de la L1 et de la culture d’origine des apprenants quant à leurs choix des stratégies de politesse en français. Trois groupes de répondants ont participé à la recherche : 30 locuteurs natifs coréens qui habitent à Séoul, en Corée, 30 étudiants coréens apprenant le français comme langue seconde à Montréal, au Canada, et 30 locuteurs natifs francophones habitant Montréal. Les données recueillies auprès des locuteurs natifs ont servi de bases de données reflétant respectivement les normes de la L1 et celles de la langue cible. Pour la collecte de données, nous avons utilisé quatre outils : le Discourse Completion Test (DCT) écrit, des échelles d’évaluation des variables contextuelles, un Questionnaire à choix multiples (QCM) ainsi qu’une entrevue semi-structurée. Les réponses obtenues au DCT écrit ont été analysées à l’aide du schéma de codage élaboré dans le cadre du Cross-Cultural Speech Act Realization Project (CCSARP) (Blum-Kulka, House, & Kasper, 1989). Les résultats de notre recherche ont démontré que les apprenants coréens ont estimé les variables contextuelles, comme l’intimité et le pouvoir social ressentis vis-à-vis de l’interlocuteur dans les situations de demande de façon similaire aux locuteurs natifs francophones, alors qu’ils ont eu tendance à estimer une plus grande gravité d’imposition de la demande que les deux groupes de locuteurs natifs dans plusieurs situations de demande. Quant aux stratégies de demande, tandis que ce sont les stratégies indirectes qui ont été le plus fréquemment utilisées par les apprenants coréens et les locuteurs natifs francophones, les apprenants coréens ont montré une tendance au transfert pragmatique de la L1, en recourant aux stratégies directes plus fréquemment que les locuteurs natifs francophones. De plus, étant donné que les apprenants coréens ont utilisé beaucoup moins d’atténuateurs que les locuteurs natifs francophones, leurs formules de demande étaient plus directes et moins polies que celles employées par les locuteurs natifs francophones. En ce qui concerne les mouvements de soutien (supportive moves), les apprenants coréens se sont démarqués des deux groupes de locuteurs natifs, en recourant plus fréquemment à certaines catégories de mouvements de soutien que les autres répondants. Les analyses de corrélation entre l’estimation des variables contextuelles et le choix des stratégies de politesse nous ont permis de constater que les apprenants coréens ainsi que les locuteurs natifs francophones ont eu tendance à utiliser davantage d’atténuateurs lorsque le locuteur possède moins de pouvoir social. Les implications des résultats pour l’enseignement et l’apprentissage des aspects de la politesse dans la classe de français langue seconde ont été exposées.