944 resultados para technical and scientific translation
Resumo:
Between 1700 and 1850, per-capita income doubled in Europe while falling in the rest of Eurasia. Neither geography nor economic institutions can explain this sudden divergence. Here the consequences of differences in communications technology are examined. For the first time, there appeared in Europe a combination of a standardized medium (national vernaculars with a phonetic alphabet) and a non-standardized message (competing religious, political and scientific ideas). The result was an unprecedented fall in the cost of combining ideas and burst of productivity-raising innovation. Elsewhere, decreasing standardization of the medium and increasing standardization of the message blocked innovation.
Resumo:
Les lésions de la moelle épinière ont un impact significatif sur la qualité de la vie car elles peuvent induire des déficits moteurs (paralysie) et sensoriels. Ces déficits évoluent dans le temps à mesure que le système nerveux central se réorganise, en impliquant des mécanismes physiologiques et neurochimiques encore mal connus. L'ampleur de ces déficits ainsi que le processus de réhabilitation dépendent fortement des voies anatomiques qui ont été altérées dans la moelle épinière. Il est donc crucial de pouvoir attester l'intégrité de la matière blanche après une lésion spinale et évaluer quantitativement l'état fonctionnel des neurones spinaux. Un grand intérêt de l'imagerie par résonance magnétique (IRM) est qu'elle permet d'imager de façon non invasive les propriétés fonctionnelles et anatomiques du système nerveux central. Le premier objectif de ce projet de thèse a été de développer l'IRM de diffusion afin d'évaluer l'intégrité des axones de la matière blanche après une lésion médullaire. Le deuxième objectif a été d'évaluer dans quelle mesure l'IRM fonctionnelle permet de mesurer l'activité des neurones de la moelle épinière. Bien que largement appliquées au cerveau, l'IRM de diffusion et l'IRM fonctionnelle de la moelle épinière sont plus problématiques. Les difficultés associées à l'IRM de la moelle épinière relèvent de sa fine géométrie (environ 1 cm de diamètre chez l'humain), de la présence de mouvements d'origine physiologique (cardiaques et respiratoires) et de la présence d'artefacts de susceptibilité magnétique induits par les inhomogénéités de champ, notamment au niveau des disques intervertébraux et des poumons. L'objectif principal de cette thèse a donc été de développer des méthodes permettant de contourner ces difficultés. Ce développement a notamment reposé sur l'optimisation des paramètres d'acquisition d'images anatomiques, d'images pondérées en diffusion et de données fonctionnelles chez le chat et chez l'humain sur un IRM à 3 Tesla. En outre, diverses stratégies ont été étudiées afin de corriger les distorsions d'images induites par les artefacts de susceptibilité magnétique, et une étude a été menée sur la sensibilité et la spécificité de l'IRM fonctionnelle de la moelle épinière. Les résultats de ces études démontrent la faisabilité d'acquérir des images pondérées en diffusion de haute qualité, et d'évaluer l'intégrité de voies spinales spécifiques après lésion complète et partielle. De plus, l'activité des neurones spinaux a pu être détectée par IRM fonctionnelle chez des chats anesthésiés. Bien qu'encourageants, ces résultats mettent en lumière la nécessité de développer davantage ces nouvelles techniques. L'existence d'un outil de neuroimagerie fiable et robuste, capable de confirmer les paramètres cliniques, permettrait d'améliorer le diagnostic et le pronostic chez les patients atteints de lésions médullaires. Un des enjeux majeurs serait de suivre et de valider l'effet de diverses stratégies thérapeutiques. De telles outils représentent un espoir immense pour nombre de personnes souffrant de traumatismes et de maladies neurodégénératives telles que les lésions de la moelle épinière, les tumeurs spinales, la sclérose en plaques et la sclérose latérale amyotrophique.
Resumo:
L’émergence de l’utilisation du méthylphénidate (MPH; Ritalin) par des étudiants universitaires afin d’améliorer leur concentration et leurs performances universitaires suscite l’intérêt du public et soulève d’importants débats éthiques auprès des spécialistes. Les différentes perspectives sur l’amélioration des performances cognitives représentent une dimension importante des défis sociaux et éthiques autour d’un tel phénomène et méritent d’être élucidées. Ce mémoire vise à examiner les discours présents dans les reportages internationaux de presse populaire, les discours en bioéthique et en en santé publique sur le thème de l’utilisation non médicale du méthylphénidate. Cette recherche a permis d’identifier et d’analyser des « lacunes » dans les perspectives éthiques, sociales et scientifiques de l’utilisation non médicale du méthylphénidate pour accroître la performance cognitive d’individus en santé. Une analyse systématique du contenu des discours sur l’utilisation non médicale du méthylphénidate pour accroître la performance cognitive a identifié des paradigmes divergents employés pour décrire l’utilisation non médicale du méthylphénidate et discuter ses conséquences éthiques. Les paradigmes « choix de mode de vie », « abus de médicament » et « amélioration de la cognition » sont présents dans les discours de la presse populaire, de la bioéthique et de la santé publique respectivement. Parmi les principales différences entre ces paradigmes, on retrouve : la description de l’utilisation non médicale d’agents neuropharmacologiques pour l’amélioration des performances, les risques et bénéfices qui y sont associés, la discussion d’enjeux éthiques et sociaux et des stratégies de prévention et les défis associés à l’augmentation de la prévalence de ce phénomène. La divergence de ces paradigmes reflète le pluralisme des perceptions de l’utilisation non médicale d’agents neuropharmacologiques Nos résultats suggèrent la nécessité de débats autour de l’amélioration neuropharmacologique afin de poursuivre l’identification des enjeux et de développer des approches de santé publique cohérentes.
Resumo:
À l’ère de la mondialisation institutionnelle des sociétés modernes, alors que la confluence d’une myriade d’influences à la fois micro et macro-contextuelles complexifient le panorama sociopolitique international, l’intégration de l’idéal participatif par les processus de démocratisation de la santé publique acquiert l’apparence d’une stratégie organisationnelle promouvant la cohésion des multiples initiatives qui se tissent simultanément aux échelles locale et globale. L’actualisation constante des savoirs contemporains par les divers secteurs sociétaux ainsi que la perception sociale de différents risques conduisent à la prise de conscience des limites de la compétence technique des systèmes experts associés au domaine de la santé et des services sociaux. La santé publique, une des responsables légitimes de la gestion des risques modernes à l’échelle internationale, fait la promotion de la création d’espaces participatifs permettant l’interaction mutuelle d’acteurs intersectoriels et de savoirs multiples constamment modifiables. Il s’agit là d’une stratégie de relocalisation institutionnelle de l’action collective afin de rétablir la confiance envers la fiabilité des représentants de la santé publique internationale, qui ne répondent que partiellement aux besoins actuels de la sécurité populationnelle. Dans ce contexte, les conseils locaux de santé (CLS), mis en place à l’échelle internationale dans le cadre des politiques régionales de décentralisation des soins de santé primaires (SSP), représentent ainsi des espaces participatifs intéressants qui renferment dans leur fonctionnement tout un univers de forces de tension paradoxales. Ils nous permettent d’examiner la relation de caractère réciproque existant entre, d’une part, une approche plus empirique par l’analyse en profondeur des pratiques participatives (PP) plus spécifiques et, d’autre part, une compréhension conceptuelle de la mondialisation institutionnelle qui définit les tendances expansionnistes très générales des sociétés contemporaines. À l’aide du modèle de la transition organisationnelle (MTO), nous considérons que les PP intégrées à la gouverne des CLS sont potentiellement porteuses de changement organisationnel, dans le sens où elles sont la condition et la conséquence de nombreuses traductions stratégiques et systémiques essentiellement transformatrices. Or, pour qu’une telle transformation puisse s’accomplir, il est nécessaire de développer les compétences participatives pertinentes, ce qui confère au phénomène participatif la connotation d’apprentissage organisationnel de nouvelles formes d’action et d’intervention collectives. Notre modèle conceptuel semble fournir un ensemble de considérations épistémosociales fort intéressantes et très prometteuses permettant d’examiner en profondeur les dimensions nécessaires d’un renouvellement organisationnel de la participation dans le champ complexe de la santé publique internationale. Il permet de concevoir les interventions complexes comme des réseaux épistémiques de pratiques participatives (RÉPP) rassemblant des acteurs très diversifiés qui s’organisent autour d’un processus de conceptualisation transculturelle de connaissances ainsi que d’opérationnalisation intersectorielle des actions, et ce, par un ensemble de mécanismes d’instrumentalisation organisationnelle de l’apprentissage. De cette façon, le MTO ainsi que la notion de RÉPP permettent de mieux comprendre la création de passages incessants entre l’intégration locale des PP dans la gouverne des interventions complexes de la santé et des services sociaux – tels que les CLS –, et les processus plus larges de réorganisation démocratique de la santé publique dans le contexte global de la mondialisation institutionnelle. Cela pourrait certainement nous aider à construire collectivement l’expression réflexive et manifeste des valeurs démocratiques proposées dans la Déclaration d’Alma-Ata, publiée en 1978, lors de la première Conférence internationale sur les SSP.
Resumo:
Vers la fin du 19ème siècle, le moine et réformateur hindou Swami Vivekananda affirma que la science moderne convergeait vers l'Advaita Vedanta, un important courant philosophique et religieux de l'hindouisme. Au cours des décennies suivantes, suite aux apports scientifiques révolutionnaires de la théorie de la relativité d'Einstein et de la physique quantique, un nombre croissant d'auteurs soutenaient que d'importants "parallèles" pouvaient être tracés entre l'Advaita Vedanta et la physique moderne. Encore aujourd'hui, de tels rapprochements sont faits, particulièrement en relation avec la physique quantique. Cette thèse examine de manière critique ces rapprochements à travers l'étude comparative détaillée de deux concepts: le concept d'akasa dans l'Advaita Vedanta et celui de vide en physique quantique. L'énoncé examiné est celui selon lequel ces deux concepts pointeraient vers une même réalité: un substratum omniprésent et subtil duquel émergent et auquel retournent ultimement les divers constituants de l'univers. Sur la base de cette étude comparative, la thèse argumente que des comparaisons de nature conceptuelle favorisent rarement la mise en place d'un véritable dialogue entre l'Advaita Vedanta et la physique moderne. Une autre voie d'approche serait de prendre en considération les limites épistémologiques respectivement rencontrées par ces disciplines dans leur approche du "réel-en-soi" ou de la "réalité ultime." Une attention particulière sera portée sur l'épistémologie et le problème de la nature de la réalité dans l'Advaita Vedanta, ainsi que sur le réalisme scientifique et les implications philosophiques de la non-séparabilité en physique quantique.
Resumo:
La protection des renseignements personnels est au cœur des préoccupations de tous les acteurs du Web, commerçants ou internautes. Si pour les uns trop de règles en la matière pourraient freiner le développement du commerce électronique, pour les autres un encadrement des pratiques est essentiel à la protection de leur vie privée. Même si les motivations de chacun sont divergentes, le règlement de cette question apparaît comme une étape essentielle dans le développement du réseau. Le Platform for Privacy Preference (P3P) propose de contribuer à ce règlement par un protocole technique permettant la négociation automatique, entre l’ordinateur de l’internaute et celui du site qu’il visite, d’une entente qui encadrera les échanges de renseignements. Son application pose de nombreuses questions, dont celle de sa capacité à apporter une solution acceptable à tous et surtout, celle du respect des lois existantes. La longue et difficile élaboration du protocole, ses dilutions successives et sa mise en vigueur partielle témoignent de la difficulté de la tâche à accomplir et des résistances qu’il rencontre. La première phase du projet se limite ainsi à l’encodage des politiques de vie privée des sites et à leur traduction en termes accessibles par les systèmes des usagers. Dans une deuxième phase, P3P devrait prendre en charge la négociation et la conclusion d’ententes devant lier juridiquement les parties. Cette tâche s’avère plus ardue, tant sous l’angle juridique que sous celui de son adaptation aux us et coutumes du Web. La consolidation des fonctions mises en place dans la première version apparaît fournir une solution moins risquée et plus profitable en écartant la possible conclusion d’ententes incertaines fondées sur une technique encore imparfaite. Mieux éclairer le consentement des internautes à la transmission de leurs données personnelles par la normalisation des politiques de vie privée pourrait être en effet une solution plus simple et efficace à court terme.
Resumo:
Cet article présente et analyse la menace grandissante que représente le vol d’identité dans le cyberespace. Le développement, dans la dernière décennie, du commerce électronique ainsi que des transactions et des communications numériques s’accélère. Cette progression non linéaire a généré une myriade de risques associés à l’utilisation des technologies de l’information et de la communication (les TIC) dans le cyberespace, dont un des plus importants est sans conteste la menace du vol d’identité. Cet article vise à donner un aperçu des enjeux et des risques relatifs au vol d’identité et cherche à offrir certaines solutions basées sur la nécessité d’opter pour une politique à trois volets qui englobe des approches stratégiques et règlementaires, techniques et culturelles.
Resumo:
Compte-rendu / Review
Resumo:
Depuis les années cinquante la sociologie a été concernée par le phénomène des mouvements sociaux. Diverses théories ont essayé de les expliquer. Du collective behaviour à la mobilisation des ressources, par l`entremise de processus politiques, et de la perspective de framing jusqu'à la théorie des nouveaux mouvements sociaux, la sociologie a trouvé certains moyens pour expliquer ces phénomènes. Bien que toutes ces perspectives couvrent et saisissent des facettes importantes des angles de l'action collective, ils le font de manière disparate, en regardant un côté et en omettant l'autre. Les différences entre les points de vue proviennent, d'une part, d'un changement dans les contextes sociaux, historiques et scientifiques, et d'autre part du fait que les différentes approches ne posent pas les mêmes questions, même si certaines questions se chevauchent. Poser des questions différentes amène à considérer des aspects différents. En conséquence, ce n'est pas seulement une question de donner une réponse différente à la même question, mais aussi une question de regarder le même objet d'étude, à partir d'un angle différent. Cette situation réside à la base de la première partie de ma thèse principale: le champ de la théorie des mouvements sociaux n'est pas suffisant, ni suffisamment intégré pour expliquer l'action collective et nous avons besoin d'une théorie plus complète afin d'obtenir une meilleure compréhension des mouvements et la façon dont ils remplissent leur rôle de précurseurs de changement dans la société. Par conséquent, je considère que nous avons besoin d'une théorie qui est en mesure d'examiner tous les aspects des mouvements en même temps et, en outre, est capable de regarder au-delà de la forme de l'objet d’étude afin de se concentrer sur l'objet lui-même. Cela m'amène à la deuxième partie de l'argument, qui est l'affirmation selon laquelle la théorie générale des systèmes telle que formulée par Niklas Luhmann peut contribuer à une meilleure compréhension de l'action collective. Il s'agit d'une théorie intégrale qui peut compléter le domaine de la théorie de l`action collective en nous fournissant les outils nécessaires pour rechercher dynamiquement les mouvements sociaux et de les comprendre dans le contexte social en perpétuel changement. Une analyse du mouvement environnementaliste sera utilisé pour montrer comment les outils fournis par cette théorie nous permettent de mieux comprendre non seulement les mouvements sociaux, mais également le contexte dans lequel ils fonctionnent, comment ils remplissent leur rôle, comment ils évoluent et comment ils changent aussi la société.
Resumo:
Paper presented during the roundtable “The Exquisite Corpus: Film Heritage and Found Footage Films. Passing Through/Across Medias and Film Bodies” at the XIV MAGIS – Gorizia International Film Studies Spring School in Gorizia, Italy, March 9-15 2016
Resumo:
Material synthesizing and characterization has been one of the major areas of scientific research for the past few decades. Various techniques have been suggested for the preparation and characterization of thin films and bulk samples according to the industrial and scientific applications. Material characterization implies the determination of the electrical, magnetic, optical or thermal properties of the material under study. Though it is possible to study all these properties of a material, we concentrate on the thermal and optical properties of certain polymers. The thermal properties are detennined using photothermal beam deflection technique and the optical properties are obtained from various spectroscopic analyses. In addition, thermal properties of a class of semiconducting compounds, copper delafossites, arc determined by photoacoustic technique.Photothermal technique is one of the most powerful tools for non-destructive characterization of materials. This forms a broad class of technique, which includes laser calorimetry, pyroelectric technique, photoacollstics, photothermal radiometric technique, photothermal beam deflection technique etc. However, the choice of a suitable technique depends upon the nature of sample and its environment, purpose of measurement, nature of light source used etc. The polynler samples under the present investigation are thermally thin and optically transparent at the excitation (pump beam) wavelength. Photothermal beam deflection technique is advantageous in that it can be used for the detennination of thermal diffusivity of samples irrespective of them being thermally thick or thennally thin and optically opaque or optically transparent. Hence of all the abovementioned techniques, photothemlal beam deflection technique is employed for the successful determination of thermal diffusivity of these polymer samples. However, the semi conducting samples studied are themlally thick and optically opaque and therefore, a much simpler photoacoustic technique is used for the thermal characterization.The production of polymer thin film samples has gained considerable attention for the past few years. Different techniques like plasma polymerization, electron bombardment, ultra violet irradiation and thermal evaporation can be used for the preparation of polymer thin films from their respective monomers. Among these, plasma polymerization or glow discharge polymerization has been widely lIsed for polymer thin fi Im preparation. At the earlier stages of the discovery, the plasma polymerization technique was not treated as a standard method for preparation of polymers. This method gained importance only when they were used to make special coatings on metals and began to be recognized as a technique for synthesizing polymers. Thc well-recognized concept of conventional polymerization is based on molecular processcs by which thc size of the molecule increases and rearrangemcnt of atoms within a molecule seldom occurs. However, polymer formation in plasma is recognized as an atomic process in contrast to the above molecular process. These films are pinhole free, highly branched and cross linked, heat resistant, exceptionally dielectric etc. The optical properties like the direct and indirect bandgaps, refractive indices etc of certain plasma polymerized thin films prepared are determined from the UV -VIS-NIR absorption and transmission spectra. The possible linkage in the formation of the polymers is suggested by comparing the FTIR spectra of the monomer and the polymer. The thermal diffusivity has been measured using the photothermal beam deflection technique as stated earlier. This technique measures the refractive index gradient established in the sample surface and in the adjacent coupling medium, by passing another optical beam (probe beam) through this region and hence the name probe beam deflection. The deflection is detected using a position sensitive detector and its output is fed to a lock-in-amplifIer from which the amplitude and phase of the deflection can be directly obtained. The amplitude and phase of the deflection signal is suitably analyzed for determining the thermal diffusivity.Another class of compounds under the present investigation is copper delafossites. These samples in the form of pellets are thermally thick and optically opaque. Thermal diffusivity of such semiconductors is investigated using the photoacoustic technique, which measures the pressure change using an elcctret microphone. The output of the microphone is fed to a lock-in-amplificr to obtain the amplitude and phase from which the thermal properties are obtained. The variation in thermal diffusivity with composition is studied.
Resumo:
The service quality of any sector has two major aspects namely technical and functional. Technical quality can be attained by maintaining technical specification as decided by the organization. Functional quality refers to the manner which service is delivered to customer which can be assessed by the customer feed backs. A field survey was conducted based on the management tool SERVQUAL, by designing 28 constructs under 7 dimensions of service quality. Stratified sampling techniques were used to get 336 valid responses and the gap scores of expectations and perceptions are analyzed using statistical techniques to identify the weakest dimension. To assess the technical aspects of availability six months live outage data of base transceiver were collected. The statistical and exploratory techniques were used to model the network performance. The failure patterns have been modeled in competing risk models and probability distribution of service outage and restorations were parameterized. Since the availability of network is a function of the reliability and maintainability of the network elements, any service provider who wishes to keep up their service level agreements on availability should be aware of the variability of these elements and its effects on interactions. The availability variations were studied by designing a discrete time event simulation model with probabilistic input parameters. The probabilistic distribution parameters arrived from live data analysis was used to design experiments to define the availability domain of the network under consideration. The availability domain can be used as a reference for planning and implementing maintenance activities. A new metric is proposed which incorporates a consistency index along with key service parameters that can be used to compare the performance of different service providers. The developed tool can be used for reliability analysis of mobile communication systems and assumes greater significance in the wake of mobile portability facility. It is also possible to have a relative measure of the effectiveness of different service providers.
Resumo:
The present study examines the type of NTMs, especially the quality regulations and safety standards encountered by the marine product exports of Kerala in its major import markets of the EU, the US and Japan. An analysis of whether the safety and quality standards prescribed by these developed countries on the imported fish and fishery products are purely based on risk assessment and scientific evidence or are they erected as disguised barriers to trade is attempted
Resumo:
The library professional in an academic institution has to anticipate the changing expectations of the users, and be flexible in adopting new skills and levels of awareness. Technology has drastically changed the way librarians define themselves and the way they think about their profession and the institutions they serve. In addition to the technical and professional skills, commitment to user centred services and skills for effective oral and written communication; they must have other skills, including business and management, teaching, leadership, etc. Eventually, library and information professionals in academic libraries need to update their knowledge and skills in Information and Communication Technology (ICT) as they play the role of key success factor in enabling the library to perform its role as an information support system for the society.
Resumo:
Statistical Machine Translation (SMT) is one of the potential applications in the field of Natural Language Processing. The translation process in SMT is carried out by acquiring translation rules automatically from the parallel corpora. However, for many language pairs (e.g. Malayalam- English), they are available only in very limited quantities. Therefore, for these language pairs a huge portion of phrases encountered at run-time will be unknown. This paper focuses on methods for handling such out-of-vocabulary (OOV) words in Malayalam that cannot be translated to English using conventional phrase-based statistical machine translation systems. The OOV words in the source sentence are pre-processed to obtain the root word and its suffix. Different inflected forms of the OOV root are generated and a match is looked up for the word variants in the phrase translation table of the translation model. A Vocabulary filter is used to choose the best among the translations of these word variants by finding the unigram count. A match for the OOV suffix is also looked up in the phrase entries and the target translations are filtered out. Structuring of the filtered phrases is done and SMT translation model is extended by adding OOV with its new phrase translations. By the results of the manual evaluation done it is observed that amount of OOV words in the input has been reduced considerably