937 resultados para codes de conduite
Resumo:
Cette thèse identifie une cooccurrence des discours à propos de l’hypersexualisation des jeunes filles et ceux concernant le port du voile islamique qui sont, depuis quelques années, au cœur des préoccupations sociales au Québec comme ailleurs en Occident. Plus spécifiquement, elle propose une « économie générale des discours » (Foucault, 1976) contemporains sur l’hypersexualisation et le port du voile, dans une perspective conjoncturelle, par et à travers trois contextes d'analyse particuliers : féministe, médiatique et public. Elle démontre comment l’hypersexualisation et le port du voile sont problématisés (Foucault, 2001/1984), c'est-à-dire qu’ils sont posés comme nouveaux problèmes sociaux engendrant et cristallisant bon nombre de craintes et d’anxiétés contemporaines. Ainsi, la thèse est composée de trois chapitres centraux qui reprennent chacun des contextes de problématisation identifiés. Le chapitre intitulé « Féminisme(s) et égalité des sexes », avance que l’égalité des sexes est invoquée comme valeur moderne, féministe et québécoise par excellence et qu’elle participe, à ce titre, de la problématisation du port du voile et de l’hypersexualisation. Le chapitre suivant, « Médias, diversité et (hyper) visibilité », concentre l’analyse sur les médias et la culture populaire, à la fois sujets énonciateurs, régimes et objets de discours, participant à construire et à délimiter l’adolescence et la religion/culture musulmane comme des mondes à part, mystérieux, tout en les exposant au public. Enfin, à partir d’une analyse des discours publics à propos de l’hypersexualisation et du port du voile, le chapitre intitulé « Laïcité, sexualité et neutralité » met en lumière les façons par lesquelles ces problèmes sont constitutifs de chartes, de codes et d’autres formes de règlementations qui viennent non seulement normaliser mais également discipliner la conduite de chacun, au nom du bien commun et de la neutralité de l’État. Un « Retour sur la conjoncture » vient conclure la thèse en mettant en lumière certains éléments conjoncturels qui traversent ses principaux chapitres, dont les questions du consensus et de l’extrême.
Resumo:
Le développement de la nutrigénétique/nutrigénomique (NGx) a suscité de nombreuses attentes puisque les retombées qui lui sont associées s’avèrent potentiellement bénéfiques autant pour les individus en santé que pour les individus malades. De grandes attentes avaient également été associées au Projet de décryptage du Génome Humain (PGH). Aujourd’hui, seules quelques attentes de celles envisagées se sont concrétisées. Le PGH a donc évolué dans un contexte marqué par du biohype, soit la promotion d’attentes exagérées, voir irréalistes. Étant donné l’importance des attentes associées avec le développement de la NGx et des limites méthodologiques auxquelles fait encore face la recherche clinique conduite dans ce domaine, l’objectif principal de cette thèse est de déterminer si les publications scientifiques rapportant des résultats de recherches cliniques effectuées en NGx contribuent à l’émergence d’un phénomène de biohype. Plus spécifiquement, il s’agira également de documenter la perception des chercheurs oeuvrant dans le domaine de la NGx du phénomène de biohype, d’identifier certains facteurs qui pourraient expliquer son émergence dans la littérature scientifique propre à ce domaine et de proposer des pistes d’actions pour limiter les risques associés à ce phénomène. Nous avons tout d’abord procédé à une analyse documentaire d’articles scientifiques rapportant des résultats issus de recherches cliniques en NGx. Celle-ci nous a révélé que plusieurs bénéfices étaient promus dans cette littérature alors même que les limites méthodologiques n’étaient pas d’emblée présentées et discutées. Cette observation nous portait à croire que ces bénéfices étant potentiellement prématurés. Nous avons ensuite voulu valider notre constat auprès des chercheurs œuvrant principalement dans le domaine de la NGx. Cette enquête nous a permis de constater que les chercheurs étaient généralement en accord avec les bénéfices que nous avons recensés dans les articles scientifiques. Toutefois, ils n’envisageaient pas leur concrétisation à moyen terme. Par ailleurs, cette enquête nous a également révélé que les limitations méthodologiques actuellement rencontrées dans la conduite de recherches cliniques soulevaient des doutes quant à la faisabilité des bénéfices promut dans les articles scientifiques. Ces données viennent confirmer notre observation à savoir qu’un phénomène de biohype serait réellement en émergence dans les articles scientifiques rapportant des résultats de recherches cliniques en NGx. Outre des informations concernant les publics ciblés par les chercheurs et les éléments que doivent contenir un article scientifique, cette enquête nous a également aidés à mieux comprendre les avantages associés à la promotion de bénéfices. Selon la majorité des chercheurs interrogés, la promotion de bénéfices dans un article scientifique augmenterait les chances d’un manuscrit d’être publié et favoriserait la continuité du financement du domaine de recherche. Cette activité étant caractérisée par un environnement compétitif, la promotion de bénéfices semble être une avenue à envisager pour se démarquer. Quoique la promotion de bénéfices prématurés ou exagérés ne soit pas considérée comme de l’inconduite scientifique, elle peut causer entre autres un affaiblissement du sentiment de confiance entre le public et les chercheurs et ultimement, contrevenir à la continuité d’une saine activité de recherche. À la lumière de ces données, nous croyons qu’une des stratégies qui permettrait de prévenir l’apparition des risques associés au phénomène de biohype serait de sensibiliser les chercheurs et les éditeurs de journaux scientifiques à ces derniers. Plus particulièrement, nous encourageons l’intégration de lignes directrices portant sur la gestion du biohype dans les codes de conduites qui ont été mis en place pour favoriser les bonnes pratiques en recherche.
Resumo:
Depuis les années 1990, de nombreuses recherches ont porté sur le dévoilement de l’agression sexuelle chez l’enfant et sur les caractéristiques y étant associées. Outre les facteurs liés à l’enfant et au contexte, le type de questions utilisé par l’intervieweur (notamment les invitations et les questions ouvertes) est une variable déterminante pour le dévoilement de l’enfant et la quantité de détails qui sera fournie entourant l’agression sexuelle. Bien que plusieurs enquêteurs reçoivent une formation sur l’utilisation des questions ouvertes dans les entrevues avec les enfants, peu d’entre eux utilisent un style de question approprié une fois sur le terrain. L’objectif de cette recherche vise à déterminer si certaines caractéristiques personnelles des enquêteurs sont associées à leur adhésion à un protocole d’entrevue structuré pour lequel ils ont été formés, à l’utilisation de questions ouvertes dans des entrevues d’enquête auprès d’enfants soupçonnés d’avoir vécu une agression sexuelle et à la quantité de détails dévoilés par l’enfant lors de ces entrevues. Deux études ont été menées pour répondre à cette question. La première étude a été effectuée à l'École nationale de police du Québec auprès de 24 enquêteurs de police ayant suivi une formation d'une semaine visant l’apprentissage du protocole d’entrevue structuré du National Institute of Child Health and Human Development (NICHD). Le genre féminin, les habiletés cognitives et le trait de personnalité Ouverture à l’expérience sont trois caractéristiques personnelles qui ont été reliées positivement à la performance des enquêteurs lors d’une entrevue simulée avec un comédien jouant le rôle d’un enfant victime d’agression sexuelle, tandis que le nombre d’années d’expérience et la capacité de gestion du stress de ces enquêteurs ont montré une relation négative avec cette performance. Dans la seconde étude effectuée sur le terrain auprès de 13 enquêteurs du Service de police de la Ville de Montréal, 114 entrevues conduites auprès d’enfants ayant dévoilé une agression sexuelle ont été recueillies et cotées pour mesurer l’adhésion au protocole d’entrevue du NICHD, le ratio de questions ouvertes et la quantité de détails dévoilés par l’enfant par question posée par l’enquêteur. L’intelligence émotionnelle et les traits de personnalité Extraversion, Esprit consciencieux et Agréabilité ont été trouvés comme des caractéristiques personnelles positivement associées à l’adhésion au protocole d’entrevue et à l’utilisation de questions ouvertes, tandis que le nombre d’années d’expérience et le trait de personnalité Névrosisme ont été négativement associés à ces deux critères de performance. Le niveau d’habiletés cognitives des enquêteurs a quant à lui montré une association positive avec la quantité de détails dévoilés par l’enfant. La signification et l’interprétation de ces résultats, de même que les implications potentielles pour la sélection et la formation des enquêteurs sont finalement discutées.
Resumo:
Communication is the process of transmitting data across channel. Whenever data is transmitted across a channel, errors are likely to occur. Coding theory is a stream of science that deals with finding efficient ways to encode and decode data, so that any likely errors can be detected and corrected. There are many methods to achieve coding and decoding. One among them is Algebraic Geometric Codes that can be constructed from curves. Cryptography is the science ol‘ security of transmitting messages from a sender to a receiver. The objective is to encrypt message in such a way that an eavesdropper would not be able to read it. A eryptosystem is a set of algorithms for encrypting and decrypting for the purpose of the process of encryption and decryption. Public key eryptosystem such as RSA and DSS are traditionally being prel‘en‘ec| for the purpose of secure communication through the channel. llowever Elliptic Curve eryptosystem have become a viable altemative since they provide greater security and also because of their usage of key of smaller length compared to other existing crypto systems. Elliptic curve cryptography is based on group of points on an elliptic curve over a finite field. This thesis deals with Algebraic Geometric codes and their relation to Cryptography using elliptic curves. Here Goppa codes are used and the curves used are elliptic curve over a finite field. We are relating Algebraic Geometric code to Cryptography by developing a cryptographic algorithm, which includes the process of encryption and decryption of messages. We are making use of fundamental properties of Elliptic curve cryptography for generating the algorithm and is used here to relate both.
Resumo:
In previous work (Olshausen & Field 1996), an algorithm was described for learning linear sparse codes which, when trained on natural images, produces a set of basis functions that are spatially localized, oriented, and bandpass (i.e., wavelet-like). This note shows how the algorithm may be interpreted within a maximum-likelihood framework. Several useful insights emerge from this connection: it makes explicit the relation to statistical independence (i.e., factorial coding), it shows a formal relationship to the algorithm of Bell and Sejnowski (1995), and it suggests how to adapt parameters that were previously fixed.
Resumo:
Use of orthogonal space-time block codes (STBCs) with multiple transmitters and receivers can improve signal quality. However, in optical intensity modulated signals, output of the transmitter is non-negative and hence standard orthogonal STBC schemes need to be modified. A generalised framework for applying orthogonal STBCs for free-space IM/DD optical links is presented.
Resumo:
Use of orthogonal space-time block codes (STBCs) with multiple transmitters and receivers can improve signal quality. However, in optical intensity modulated signals, output of the transmitter is non-negative and hence standard orthogonal STBC schemes need to be modified. A generalised framework for applying orthogonal STBCs for free-space IM/DD optical links is presented.
Resumo:
Little has so far been reported on the robustness of non-orthogonal space-time block codes (NO-STBCs) over highly correlated channels (HCC). Some of the existing NO-STBCs are indeed weak in robustness against HCC. With a view to overcoming such a limitation, a generalisation of the existing robust NO-STBCs based on a 'matrix Alamouti (MA)' structure is presented.
Resumo:
Purpose – UK Government policy to address perceived market failure in commercial property leasing has largely been pursued through industry self-regulation. Yet, it is proving difficult to assess whether self-regulation on leasing has been a “success”, or even to determine how to evaluate this. The purpose of this paper is to provide a framework for this and a clearer understanding of self-regulation in commercial leasing. Design/methodology/approach – A literature review suggests key criteria to explain the (in)effectiveness of self-regulation. UK lease codes are analysed in the light of this literature, drawing on previous research carried out by the authors on the operation of these codes. Findings – Lease codes appear to be failing as an effective system of self-regulation. While there are influential market actors championing them, the fragmentation of the leasing process lessens this influence. The structures are not there to ensure implementation, monitor compliance and record views of affected stakeholders. Research limitations/implications – This work adds to the literature on self-regulation in general, and provides an insight into its operation in a previously unexplored industry. Research is needed into the experience of other countries in regulating the property industry by voluntary means. Social implications – There are institutional limitations to self-regulation within the property industry. This has implications for policy makers in considering the advantages and limitation of using a voluntary solution to achieve policy aims within the commercial leasing market. Originality/value – This paper provides a first step in considering the lease codes in the wider context of industry self-regulation and is relevant to policy makers and industry bodies.
Resumo:
There has been considerable interest in the climate impact of trends in stratospheric water vapor (SWV). However, the representation of the radiative properties of water vapor under stratospheric conditions remains poorly constrained across different radiation codes. This study examines the sensitivity of a detailed line-by-line (LBL) code, a Malkmus narrow-band model and two broadband GCM radiation codes to a uniform perturbation in SWV in the longwave spectral region. The choice of sampling rate in wave number space (Δν) in the LBL code is shown to be important for calculations of the instantaneous change in heating rate (ΔQ) and the instantaneous longwave radiative forcing (ΔFtrop). ΔQ varies by up to 50% for values of Δν spanning 5 orders of magnitude, and ΔFtrop varies by up to 10%. In the three less detailed codes, ΔQ differs by up to 45% at 100 hPa and 50% at 1 hPa compared to a LBL calculation. This causes differences of up to 70% in the equilibrium fixed dynamical heating temperature change due to the SWV perturbation. The stratosphere-adjusted radiative forcing differs by up to 96% across the less detailed codes. The results highlight an important source of uncertainty in quantifying and modeling the links between SWV trends and climate.
Resumo:
In cooperative communication networks, owing to the nodes' arbitrary geographical locations and individual oscillators, the system is fundamentally asynchronous. This will damage some of the key properties of the space-time codes and can lead to substantial performance degradation. In this paper, we study the design of linear dispersion codes (LDCs) for such asynchronous cooperative communication networks. Firstly, the concept of conventional LDCs is extended to the delay-tolerant version and new design criteria are discussed. Then we propose a new design method to yield delay-tolerant LDCs that reach the optimal Jensen's upper bound on ergodic capacity as well as minimum average pairwise error probability. The proposed design employs stochastic gradient algorithm to approach a local optimum. Moreover, it is improved by using simulated annealing type optimization to increase the likelihood of the global optimum. The proposed method allows for flexible number of nodes, receive antennas, modulated symbols and flexible length of codewords. Simulation results confirm the performance of the newly-proposed delay-tolerant LDCs.