999 resultados para InterNet (Computation nets)
Resumo:
Le domaine de recherche scientifique sur les cyberdépendances présente de multiples définitions de cette pathologie. À partir du matériel empirique issu des débats relatifs à la proposition d'inclure l'addiction à Internet dans le Manuel Diagnostique et Statistique des Troubles mentaux (DSM-V), ce mémoire vise à comprendre les processus sociaux bornant le développement de cette pathologie au regard de la théorie de la biomédicalisation. À cette fin, un premier travail sociohistorique retrace les voies de la biologisation progressive des pratiques sociales de communication en ligne amorcées dès 1980. Un second travail d'analyse de discours systématise ensuite le processus normatif se dégageant des controverses scientifiques liées à son inclusion dans le DSM-V. La recherche menée suggère une interprétation théorique de cet objet située à l'intersection de tendances sociales propres à la société d'information. Le projet d'inclusion révèle la volonté d'une régulation sociale effectuée à partir de la transformation technoscientifique du vivant selon des processus santéistes et néolibéraux. Il donne ainsi à penser les discours scientifiques sur l'addiction à Internet comme avant tout politiques et économiques.
Resumo:
Cette recherche explore les rapports entre les amateurs et les professionnels scientifiques dans Foldit, une expérience de science participative sur Internet. Foldit est un jeu vidéo en ligne qui permet aux participants de trouver la façon dont les protéines se plient. Amateurs et professionnels de la science ont traversé une longue route colorée de partenariats et de démarcations. À l'heure actuelle, cette démarche se voit complexifiée par un environnement numérique qui relève le phénomène de la participation et la montée de la figure de l'amateur, notamment dans la production de connaissance. Si cette participation sur la Toile est considérée, par certains courants de pensée, comme le germe d'une nouvelle économie voire d'une nouvelle société (Benkler, 2006 ; Bauwens, 2012b), elle est aussi dénoncée par l'approche critique du capitalisme informationnel, comme une sorte de travail immatériel non rémunéré soumis à des relations d'exploitation (Moulier Boutang, 2007 ; Pasquinelli, 2010). Dans ce contexte, ce mémoire propose une exploration des sciences participatives, afin d'examiner les rapports qui s'établissent entre les acteurs de ces expériences productrices de connaissance et de données immatérielles. Ces rapports s'expriment à travers les échanges qui se déroulent sur le site web Foldit. La méthodologie qualitative mise en oeuvre a été complétée par l'observation de terrain et les entretiens semi-structurés avec des participants-joueurs et des membres de l'équipe scientifique du jeu. Les rapports trouvés dans Foldit se révèlent contextualisés, performatifs et sont façonnés par les compétences mises en jeu par les acteurs. Des rapports d'asymétrie, de coopération et de négociation sont repérés dans Foldit. Cette recherche veut contribuer ainsi à une meilleure compréhension des collectifs présents sur Internet ainsi que des rapports établis entre eux.
Resumo:
L'objectif de cette thèse est de présenter différentes applications du programme de recherche de calcul conditionnel distribué. On espère que ces applications, ainsi que la théorie présentée ici, mènera à une solution générale du problème d'intelligence artificielle, en particulier en ce qui a trait à la nécessité d'efficience. La vision du calcul conditionnel distribué consiste à accélérer l'évaluation et l'entraînement de modèles profonds, ce qui est très différent de l'objectif usuel d'améliorer sa capacité de généralisation et d'optimisation. Le travail présenté ici a des liens étroits avec les modèles de type mélange d'experts. Dans le chapitre 2, nous présentons un nouvel algorithme d'apprentissage profond qui utilise une forme simple d'apprentissage par renforcement sur un modèle d'arbre de décisions à base de réseau de neurones. Nous démontrons la nécessité d'une contrainte d'équilibre pour maintenir la distribution d'exemples aux experts uniforme et empêcher les monopoles. Pour rendre le calcul efficient, l'entrainement et l'évaluation sont contraints à être éparse en utilisant un routeur échantillonnant des experts d'une distribution multinomiale étant donné un exemple. Dans le chapitre 3, nous présentons un nouveau modèle profond constitué d'une représentation éparse divisée en segments d'experts. Un modèle de langue à base de réseau de neurones est construit à partir des transformations éparses entre ces segments. L'opération éparse par bloc est implémentée pour utilisation sur des cartes graphiques. Sa vitesse est comparée à deux opérations denses du même calibre pour démontrer le gain réel de calcul qui peut être obtenu. Un modèle profond utilisant des opérations éparses contrôlées par un routeur distinct des experts est entraîné sur un ensemble de données d'un milliard de mots. Un nouvel algorithme de partitionnement de données est appliqué sur un ensemble de mots pour hiérarchiser la couche de sortie d'un modèle de langage, la rendant ainsi beaucoup plus efficiente. Le travail présenté dans cette thèse est au centre de la vision de calcul conditionnel distribué émis par Yoshua Bengio. Elle tente d'appliquer la recherche dans le domaine des mélanges d'experts aux modèles profonds pour améliorer leur vitesse ainsi que leur capacité d'optimisation. Nous croyons que la théorie et les expériences de cette thèse sont une étape importante sur la voie du calcul conditionnel distribué car elle cadre bien le problème, surtout en ce qui concerne la compétitivité des systèmes d'experts.
Resumo:
Le présent mémoire porte sur les stratégies de gestion de rumeurs par les organisations sur Internet et sur les réseaux sociaux. Il se veut une étude dite « ventriloque » des figures d’autorité mises en présence par les organisations et les internautes à travers leurs interactions. L'objectif de cette recherche est ainsi d’étudier les stratégies employées par les organisations pour gérer les rumeurs sur Internet et d’observer les interactions entre l’organisation et ses consommateurs afin de comprendre le rapport des organisations avec leurs consommateurs, réels ou potentiels, grâce aux figures mises en scène et invoquées dans leurs stratégies. Comme nous le montrons dans nos analyses, les organisations mettent en scène une multitude de figures d’autorité pour convaincre leurs consommateurs. En même temps, elles se positionnent comme sujettes à des agentivités qui sont contextuelles aux rumeurs auxquelles elles font face. De la même façon, les internautes mettent en scène les préoccupations qui les animent. Les dialogues entre organisations et internautes reflètent différentes relations entre ces deux parties. En particulier, nous montrons que les organisations n’interagissent pas toutes de la même manière avec les internautes. Cette analyse s’appuie sur des données récoltées sur les sites internet des organisations étudiées et sur les réseaux Facebook et Twitter.
Resumo:
Dans l'apprentissage machine, la classification est le processus d’assigner une nouvelle observation à une certaine catégorie. Les classifieurs qui mettent en œuvre des algorithmes de classification ont été largement étudié au cours des dernières décennies. Les classifieurs traditionnels sont basés sur des algorithmes tels que le SVM et les réseaux de neurones, et sont généralement exécutés par des logiciels sur CPUs qui fait que le système souffre d’un manque de performance et d’une forte consommation d'énergie. Bien que les GPUs puissent être utilisés pour accélérer le calcul de certains classifieurs, leur grande consommation de puissance empêche la technologie d'être mise en œuvre sur des appareils portables tels que les systèmes embarqués. Pour rendre le système de classification plus léger, les classifieurs devraient être capable de fonctionner sur un système matériel plus compact au lieu d'un groupe de CPUs ou GPUs, et les classifieurs eux-mêmes devraient être optimisés pour ce matériel. Dans ce mémoire, nous explorons la mise en œuvre d'un classifieur novateur sur une plate-forme matérielle à base de FPGA. Le classifieur, conçu par Alain Tapp (Université de Montréal), est basé sur une grande quantité de tables de recherche qui forment des circuits arborescents qui effectuent les tâches de classification. Le FPGA semble être un élément fait sur mesure pour mettre en œuvre ce classifieur avec ses riches ressources de tables de recherche et l'architecture à parallélisme élevé. Notre travail montre que les FPGAs peuvent implémenter plusieurs classifieurs et faire les classification sur des images haute définition à une vitesse très élevée.
Resumo:
Compte rendu du livre « La démocratie Internet » de Dominique Cardon (Seuil, collection « La république des idées », 2010).
Resumo:
Depuis plusieurs années le mot « virtuel » est utilisé pour caractériser des pratiques quotidiennes liées à l’emploi des nouvelles technologies et en particulier d’Internet. Mais qu’est-ce qui est virtuel en Internet ? Pour répondre à cette question il faut d’abord remonter aux racines philosophiques de ce mot et essayer d’éclaircir sa signification. C’est la tentative proposée dans cette article.
Resumo:
Nous sommes fascinés par le train et le cinéma, fascination provoquée parce que tous les deux donnent l’impression du mouvement réel, un mouvement technique qu’on est capable de gérer : lorsqu’on regarde un film, on peut toujours faire un arrêt sur image. L’approche philosophique nous permet aussi de relier Internet dans ce mouvement qui va du train au cinéma. Le Web est un flux de données, ses contenus ne sont jamais stables à l’opposé des contenus des autres médias. Et ce qui nous passionne dans le numérique et fait la force d’Internet, c’est qu’il nous donne l’illusion du réel et que nous pouvons facilement le gérer. Cela pose le problème de la mission de créer des archives du Web, qui peut sembler irréaliste tant le matériel concerné est vaste et non structuré : ne serait-ce pas trahir ce mouvement perpétuel ? Ou alors, on peut considérer que le Web est une trahison du continu du réel et les archives la structure la plus appropriée pour appréhender ce nouveau média…
Resumo:
Indian economy is witnessing stellar growth over the last few years. There have been rapid developments in infrastructural and business front during the growth period.Internet adoption among Indians has been increasing over the last one decade.Indian banks have also risen to the occasion by offering new channels of delivery to their customers.Internet banking is one such new channel which has become available to Indian customers.Customer acceptance for internet banking has been good so far.In this study the researcher tried to conduct a qualitative and quantitative investigation of internet banking customer acceptance among Indians. The researcher tried to identify important factors that affect customer's behavioral intention for internet banking .The researcher also proposes a research model which has extended from Technology Acceptance Model for predicting internet banking acceptance.The findings of the study would be useful for Indian banks in planning and upgrading their internet banking service.Banks could increase internet banking adoption by making their customer awareness about the usefulness of the service.It is seen that from the study that the variable perceived usefulness has a positive influence on internet banking use,therefore internet banking acceptance would increase when customers find it more usefulness.Banks should plan their marketing campaigns taking into consideration this factor.Proper marketing communications which would increase consumer awareness would result in better acceptance of internet banking.The variable perceived ease of use had a positive influence on internet banking use.That means customers would increase internet banking usage when they find it easier to use.Banks should therefore try to develop their internet banking site and interface easier to use.Banks could also consider providing practical training sessions for customers at their branches on usage of internet banking interface.
Resumo:
During 1990's the Wavelet Transform emerged as an important signal processing tool with potential applications in time-frequency analysis and non-stationary signal processing.Wavelets have gained popularity in broad range of disciplines like signal/image compression, medical diagnostics, boundary value problems, geophysical signal processing, statistical signal processing,pattern recognition,underwater acoustics etc.In 1993, G. Evangelista introduced the Pitch- synchronous Wavelet Transform, which is particularly suited for pseudo-periodic signal processing.The work presented in this thesis mainly concentrates on two interrelated topics in signal processing,viz. the Wavelet Transform based signal compression and the computation of Discrete Wavelet Transform. A new compression scheme is described in which the Pitch-Synchronous Wavelet Transform technique is combined with the popular linear Predictive Coding method for pseudo-periodic signal processing. Subsequently,A novel Parallel Multiple Subsequence structure is presented for the efficient computation of Wavelet Transform. Case studies also presented to highlight the potential applications.
Resumo:
The fishing industry the world over is passing through a critical situation.The landings of marine fishes seemed to have reached saturation in major fishing areas of the world.As a general rule fisheries employing fishing gear and techniques used by small scale and artisanal fishermen either from shore or from onboard small fishing craft come under small-scale fisheries.This study on gill nets of Kerala, the fishing method depended upon by maximum fishermen of the state focuses on the importance of this selective and low energy fishing method in the marine fishing sector of the state.The study opens with the conceptual framework by briefly reviewing the crisis in the marine fisheries sector. Maximum fishermen depend upon gill net, which is, an important selective and low energy fishing gear. A review of relevant literature on aspects such as material, selectivity and techno-economic efficiency together with scope and main objectives of the study form the major part of the compass of the introductory chapter.This survey provided the inputs for selection of centres. The chapter presents the basis for selection of sample centres, sample units and methodology for field and experimental study.The subject matter of the fourth chapter is a basic study on gear aterials. The weathering resistance, which is an important criterion to assess the material performance, was studied for polyamide monofilament in comparison to polyamide multifilament and polyethylene twisted monofilament.The study provides supporting evidence of oxidation and characteristic C-O stretching in polyethylene and cyclic lactam .formation and presence of OH in polyamide.The study indicates that small mesh gill netting can be encouraged as a selective fishing method in the inshore waters with restrained use of 30 and 32 mm mesh sizes. The economic efficiency was assessed using standard indices such as rate of return, internal rate of return, pay back period, fishery income, energy efficiency and factor productivity. The effect of size and cost of capital and cost of production on the economics of operation is also discussed in this chapter. It was observed that level of technology did not have direct effect on economic performance.
Resumo:
This thesis is an outcome of the investigations carried out on the development of an Artificial Neural Network (ANN) model to implement 2-D DFT at high speed. A new definition of 2-D DFT relation is presented. This new definition enables DFT computation organized in stages involving only real addition except at the final stage of computation. The number of stages is always fixed at 4. Two different strategies are proposed. 1) A visual representation of 2-D DFT coefficients. 2) A neural network approach. The visual representation scheme can be used to compute, analyze and manipulate 2D signals such as images in the frequency domain in terms of symbols derived from 2x2 DFT. This, in turn, can be represented in terms of real data. This approach can help analyze signals in the frequency domain even without computing the DFT coefficients. A hierarchical neural network model is developed to implement 2-D DFT. Presently, this model is capable of implementing 2-D DFT for a particular order N such that ((N))4 = 2. The model can be developed into one that can implement the 2-D DFT for any order N upto a set maximum limited by the hardware constraints. The reported method shows a potential in implementing the 2-D DF T in hardware as a VLSI / ASIC
Resumo:
In the present study. extensive investigations were carried out on various factors affecting the selectivity of prawn gill nets with reference to material, mesh size, coefficient of hanging secolouration. Effect of tidal current on fishing height of prawn gill net and seasonal variation of catch during the course of these investigations were also studied.
Resumo:
The properties of synthetic fibres vary with thc inherent physical characteristics of the basic raw materials used mode of preparation of yarns and method of construction of twines. Since the synthetic fibres as maufactured from polymers which are synthesized from simple chemical units, the qualities of man-made fibres can he influenced by the process of manufacture and certain modifications can even be introduced at the processing stage to meet any specific requirement to a certain extent. Hence, an elaborate study of the properties of fish not twines produced has been taken up with a view to determining their suitability for various types of fishing gear with particular reference to conditions prevailing in India.