889 resultados para Information society -- Congresses
Resumo:
La notion de vie privée, et plus précisément le droit à la protection des renseignements personnels, est reconnue aussi bien dans les textes provinciaux, régionaux, nationaux et internationaux, que dans les politiques mises en place par les sites Web. Il est admis que toutes informations identifiant ou permettant d’identifier une personne peut porter atteinte à sa vie privée, à savoir son nom, prénom, numéro de téléphone, de carte bancaire, de sécurité sociale, ou encore ses adresses électronique et Internet. Cette protection, admise dans le monde réel, doit aussi exister sur les inforoutes, étant entendu que « l ’informatique (…) ne doit porter atteinte ni à l ’identité humaine, ni aux droits de l ’homme, ni à la vie privée, ni aux libertés individuelles ou publiques » (art. 1er de la Loi française dite « Informatique et Libertés » du 6 janvier 1978). Ce principe étant admis, il est pertinent de s’interroger sur les moyens envisagés pour parvenir à le réaliser. Faut-il avoir recours à la réglementation étatique, à l’autoréglementation ou à la corégulation ? Cette dernière notion « n’est pas à proprement parler une nouvelle forme de régulation », mais elle préconise une collaboration entre les acteurs du secteur public et privé. L’idée de partenariat semble retenir l’attention du gouvernement français dans sa mission d’adaptation du cadre législatif à la société de l’information, comme nous le montre le rapport Du droit et des libertés sur l’Internet remis dernièrement au Premier ministre. Par conséquent, cet article a pour objectif de dresser un tableau de la législation française, et de ses multiples rapports, applicables à la protection de la vie privée et, plus particulièrement, aux données personnelles sur le réseau des réseaux. En prenant en considération les solutions étatiques et non étatiques retenues depuis ces deux dernières décennies, nous envisagerons une étude de l’avant-projet de loi du Gouvernement visant à transposer en droit interne la Directive européenne du 24 octobre 1995 relative à la protection des données personnelles.
Resumo:
Cette thèse porte sur les processus de sélection, formation et encadrement (SFE) des gestionnaires, appelés pilotes et considérés comme agents de changement dans les télécentres communautaires au Mali. Ces processus sont étudiés sous l'angle de leur contribution positive ou négative à l'implantation et au développement de ces centres. Les projets "technologies de l’information et de la communication", initiés par les partenaires techniques et financiers, répondent au besoin des autorités maliennes préoccupées par un souci de connecter les 703 communes du pays. À la suite du sommet mondial sur la société de l’information en décembre 2003 à Genève, l’UNESCO et la Coopération suisse ont décidé d’installer des centres multimédias communautaires dans trois pays d’Afrique (Mali, Mozambique, Sénégal). Ces implantations de télécentres ont été réalisées sur le modèle de ce qui avait été fait en Asie sans tenir compte des besoins réels des bénéficiaires et des conditions particulières (économiques, politiques, culturelles) des sites d’implantation. Malgré les conditions parfois difficiles de l’Afrique, les populations témoignent un enthousiasme réel pour les technologies de communication. Les TIC ont connu une croissance considérable et se sont multipliées partout en Afrique, à des degrés divers. Néanmoins, elles n’ont pas encore atteint la majorité des populations africaines, car 70% de celles-ci vivent en zones rurales souvent marginalisées par les difficultés économiques. Après l’implantation des télécentres, les sites ont donc été confrontés à la difficile tâche de sélectionner les pilotes comme agents de changement. Les responsables chargés de la mise en œuvre des projets ont choisi les pilotes dans leur réseau familial. En ce sens, la thèse met l’accent sur l’importance du rôle d’un pilote dans un télécentre et l’appui qu’il peut générer dans la population bénéficiaire. Nous proposons un modèle qui part de l’action des agents de changement, et ce, afin de potentiellement susciter une prise de conscience chez les décideurs locaux. Nous avons fait une étude de cas sur quatre sites pour mieux connaître les processus de sélection, formation et encadrement des pilotes et nous avons tenté d'identifier les facteurs qui, dans ces processus, ont pu influencer le niveau de réussite de chacun de ces centres.
Resumo:
Le domaine de recherche scientifique sur les cyberdépendances présente de multiples définitions de cette pathologie. À partir du matériel empirique issu des débats relatifs à la proposition d'inclure l'addiction à Internet dans le Manuel Diagnostique et Statistique des Troubles mentaux (DSM-V), ce mémoire vise à comprendre les processus sociaux bornant le développement de cette pathologie au regard de la théorie de la biomédicalisation. À cette fin, un premier travail sociohistorique retrace les voies de la biologisation progressive des pratiques sociales de communication en ligne amorcées dès 1980. Un second travail d'analyse de discours systématise ensuite le processus normatif se dégageant des controverses scientifiques liées à son inclusion dans le DSM-V. La recherche menée suggère une interprétation théorique de cet objet située à l'intersection de tendances sociales propres à la société d'information. Le projet d'inclusion révèle la volonté d'une régulation sociale effectuée à partir de la transformation technoscientifique du vivant selon des processus santéistes et néolibéraux. Il donne ainsi à penser les discours scientifiques sur l'addiction à Internet comme avant tout politiques et économiques.
Resumo:
Analysis by reduction is a method used in linguistics for checking the correctness of sentences of natural languages. This method is modelled by restarting automata. Here we study a new type of restarting automaton, the so-called t-sRL-automaton, which is an RL-automaton that is rather restricted in that it has a window of size 1 only, and that it works under a minimal acceptance condition. On the other hand, it is allowed to perform up to t rewrite (that is, delete) steps per cycle. We focus on the descriptional complexity of these automata, establishing two complexity measures that are both based on the description of t-sRL-automata in terms of so-called meta-instructions. We present some hierarchy results as well as a non-recursive trade-off between deterministic 2-sRL-automata and finite-state acceptors.
Resumo:
Die Vorstellungen einer Rechtsordnung für die Informationsgesellschaft waren lange Zeit von weiten Freiheitsräumen geprägt. Staat und Recht waren in diesen Vorstellungen an den Rand gedrängt. Neue technische Grundlagen sollten auch neue Formen des Zusammenlebens ermöglichen. Die rasanten Veränderungen in den Produktionsmitteln und Produktivkräften weckten Visionen über veränderte Produktionsverhältnisse und Kooperationsbeziehungen. Frühere Analysen und Entwürfe zur Regulierung der Informationsgesellschaft (I.) sollen im Folgenden einem Review unterworfen werden (II.), auf dem aufbauend künftige Handlungsmöglichkeiten erörtert werden sollen (III.).
Resumo:
In the present paper we concentrate on solving sequences of nonsymmetric linear systems with block structure arising from compressible flow problems. We attempt to improve the solution process by sharing part of the computational effort throughout the sequence. This is achieved by application of a cheap updating technique for preconditioners which we adapted in order to be used for our applications. Tested on three benchmark compressible flow problems, the strategy speeds up the entire computation with an acceleration being particularly pronounced in phases of instationary behavior.
Resumo:
Die ubiquitäre Datenverarbeitung ist ein attraktives Forschungsgebiet des vergangenen und aktuellen Jahrzehnts. Es handelt von unaufdringlicher Unterstützung von Menschen in ihren alltäglichen Aufgaben durch Rechner. Diese Unterstützung wird durch die Allgegenwärtigkeit von Rechnern ermöglicht die sich spontan zu verteilten Kommunikationsnetzwerken zusammen finden, um Informationen auszutauschen und zu verarbeiten. Umgebende Intelligenz ist eine Anwendung der ubiquitären Datenverarbeitung und eine strategische Forschungsrichtung der Information Society Technology der Europäischen Union. Das Ziel der umbebenden Intelligenz ist komfortableres und sichereres Leben. Verteilte Kommunikationsnetzwerke für die ubiquitäre Datenverarbeitung charakterisieren sich durch Heterogenität der verwendeten Rechner. Diese reichen von Kleinstrechnern, eingebettet in Gegenstände des täglichen Gebrauchs, bis hin zu leistungsfähigen Großrechnern. Die Rechner verbinden sich spontan über kabellose Netzwerktechnologien wie wireless local area networks (WLAN), Bluetooth, oder UMTS. Die Heterogenität verkompliziert die Entwicklung und den Aufbau von verteilten Kommunikationsnetzwerken. Middleware ist eine Software Technologie um Komplexität durch Abstraktion zu einer homogenen Schicht zu reduzieren. Middleware bietet eine einheitliche Sicht auf die durch sie abstrahierten Ressourcen, Funktionalitäten, und Rechner. Verteilte Kommunikationsnetzwerke für die ubiquitäre Datenverarbeitung sind durch die spontane Verbindung von Rechnern gekennzeichnet. Klassische Middleware geht davon aus, dass Rechner dauerhaft miteinander in Kommunikationsbeziehungen stehen. Das Konzept der dienstorienterten Architektur ermöglicht die Entwicklung von Middleware die auch spontane Verbindungen zwischen Rechnern erlaubt. Die Funktionalität von Middleware ist dabei durch Dienste realisiert, die unabhängige Software-Einheiten darstellen. Das Wireless World Research Forum beschreibt Dienste die zukünftige Middleware beinhalten sollte. Diese Dienste werden von einer Ausführungsumgebung beherbergt. Jedoch gibt es noch keine Definitionen wie sich eine solche Ausführungsumgebung ausprägen und welchen Funktionsumfang sie haben muss. Diese Arbeit trägt zu Aspekten der Middleware-Entwicklung für verteilte Kommunikationsnetzwerke in der ubiquitären Datenverarbeitung bei. Der Schwerpunkt liegt auf Middleware und Grundlagentechnologien. Die Beiträge liegen als Konzepte und Ideen für die Entwicklung von Middleware vor. Sie decken die Bereiche Dienstfindung, Dienstaktualisierung, sowie Verträge zwischen Diensten ab. Sie sind in einem Rahmenwerk bereit gestellt, welches auf die Entwicklung von Middleware optimiert ist. Dieses Rahmenwerk, Framework for Applications in Mobile Environments (FAME²) genannt, beinhaltet Richtlinien, eine Definition einer Ausführungsumgebung, sowie Unterstützung für verschiedene Zugriffskontrollmechanismen um Middleware vor unerlaubter Benutzung zu schützen. Das Leistungsspektrum der Ausführungsumgebung von FAME² umfasst: • minimale Ressourcenbenutzung, um auch auf Rechnern mit wenigen Ressourcen, wie z.B. Mobiltelefone und Kleinstrechnern, nutzbar zu sein • Unterstützung für die Anpassung von Middleware durch Änderung der enthaltenen Dienste während die Middleware ausgeführt wird • eine offene Schnittstelle um praktisch jede existierende Lösung für das Finden von Diensten zu verwenden • und eine Möglichkeit der Aktualisierung von Diensten zu deren Laufzeit um damit Fehlerbereinigende, optimierende, und anpassende Wartungsarbeiten an Diensten durchführen zu können Eine begleitende Arbeit ist das Extensible Constraint Framework (ECF), welches Design by Contract (DbC) im Rahmen von FAME² nutzbar macht. DbC ist eine Technologie um Verträge zwischen Diensten zu formulieren und damit die Qualität von Software zu erhöhen. ECF erlaubt das aushandeln sowie die Optimierung von solchen Verträgen.
Resumo:
Restarting automata can be seen as analytical variants of classical automata as well as of regulated rewriting systems. We study a measure for the degree of nondeterminism of (context-free) languages in terms of deterministic restarting automata that are (strongly) lexicalized. This measure is based on the number of auxiliary symbols (categories) used for recognizing a language as the projection of its characteristic language onto its input alphabet. This type of recognition is typical for analysis by reduction, a method used in linguistics for the creation and verification of formal descriptions of natural languages. Our main results establish a hierarchy of classes of context-free languages and two hierarchies of classes of non-context-free languages that are based on the expansion factor of a language.
Resumo:
Blogging has become one of the key ingredients of the so-called socials networks. This phenomenon has indeed invaded the world of education. Connections between people, comments on each other posts, and assessment of innovation are usually interesting characteristics of blogs related to students and scholars. Blogs have become a kind of new form of authority, bringing about (divergent) discussions which lead to creation of knowledge. The use of blogs as an innovative, educational tool is not at all new. However, their use in universities is not very widespread yet. Blogging for personal affairs is rather commonplace, but blogging for professional affairs – teaching, research and service, is scarce, despite the availability of ready-to-use, free tools. Unfortunately, Information Society has not reached yet enough some universities: not only are (student) blogs scarcely used as an educational tool, but it is quite rare to find a blog written by University professors. The Institute of Computational Chemistry of the University of Girona and the Department of Chemistry of the Universitat Autònoma de Barcelona has joined forces to create “InnoCiència”, a new Group on Digital Science Communitation. This group, formed by ca. ten researchers, has promoted the use of blogs, twitters. wikis and other tools of Web 2.0 in activities in Catalonia concerning the dissemination of Science, like Science Week, Open Day or Researchers’ Night. Likewise, its members promote use of social networking tools in chemistry- and communication-related courses. This communication explains the outcome of social-network experiences with teaching undergraduate students and organizing research communication events. We provide live, hands-on examples and interactive ground to show how blogs and twitters can be used to enhance the yield of teaching and research. Impact of blogging and other social networking tools on the outcome of the learning process is very depending on the target audience and the environmental conditions. A few examples are provided and some proposals to use these techniques efficiently to help students are hinted
Resumo:
Resum del curs "Disseny de plans de formació d'habilitats informacionals en un entorn EEES a biblioteques universitàries", organitzat pel CBUC, on l'objectiu principal es basava en ser capaços d’elaborar un pla de formació en habilitats informacionals pels usuaris de la biblioteca. A més d'introduir el concepte d’Alfin (Alfabetització Informacional), d'identificar els motius que fan necessari integrar l’AlFin a l’ensenyament superior, d'elaborar un pla de formació per a la biblioteca i de presentar diferents actuacions que des del Servei de Biblioteca es podrien portar a terme per integrar l’AlFin a la universitat
Resumo:
The main objective of this paper aims at developing a methodology that takes into account the human factor extracted from the data base used by the recommender systems, and which allow to resolve the specific problems of prediction and recommendation. In this work, we propose to extract the user's human values scale from the data base of the users, to improve their suitability in open environments, such as the recommender systems. For this purpose, the methodology is applied with the data of the user after interacting with the system. The methodology is exemplified with a case study
Resumo:
El acelerado desarrollo experimentado en los últimos años por las TIC, ha generado procesos de transformación fundamentales en las relaciones humanas, la economía, la cultura, la política e inclusive las costumbres. Tomando como punto de partida el concepto de Manuel Castells (2002), en el que manifiesta que la revolución de las TIC dada su capacidad de penetración en todo el ámbito de la actividad humana, entre ellas la obtención de conocimiento, es el punto de entrada para analizar la complejidad de la nueva economía, la sociedad y la cultura en formación, éste proyecto de investigación tiene como objetivos: i) Determinar el impacto que tiene la Sociedad del Conocimiento en el mercado accionario en Colombia y ii) Establecer por qué se considera al mercado accionario como un mercado especulativo. El documento inicia con un marco teórico en el que se analizan los conceptos que responden a dos tradiciones de pensamiento distintas: La Sociedad de la Información y la Sociedad del Conocimiento, y se abordan los rasgos centrales que actualmente las definen; analizando las transformaciones que llevaron a su origen y el modo en que se ha intentado unificar sus características bajo un único término. Seguidamente se realiza una contextualización del mercado accionario en Colombia haciendo una descripción de sus principales participantes y las características de cada uno de ellos. Posteriormente se describe el impacto que tienen los principales índices bursátiles utilizados en el mercado accionario y por último se hace una descripción desde diversos autores respecto del concepto de especulación.
Resumo:
El objetivo general de esta investigación es analizar el proceso de incorporación del gobierno electrónico en Colombia, así como evaluar el impacto de las TIC en asuntos del gobierno y su relación con los ciudadanos, puesto que en la práctica se desea incrementar la participación en asuntos públicos y una inclusión ciudadana a través de las TIC. El éxito del Gobierno en Línea dependerá de la transparencia y confianza creciente entre el gobierno y los ciudadanos y toma como referencia la estrategia de Gobierno en Línea 2008-2010. Será usada, una metodología exploratoria y descriptiva sobre la base de documentos bibliográficos y publicaciones periódicas y académicas.
Resumo:
Los avances tecnológicos y la entrada a una nueva era digital son una realidad presente en todos los aspectos de la sociedad actual. El mundo organizacional se incluye en esta nueva era digital modernizando sus procesos y soportando sus actividades empresariales en tecnologías de la información y comunicaciones. La inclusión en la era digital por parte de las organizaciones es un paso importante que se debe dar para obtener los crecientes beneficios que la tecnología ofrece. Esta transformación organizacional hacia la implementación de herramientas TIC, como soporte del quehacer misional, debe darse bajo unos lineamientos de planeación estratégica e integración organizacional. Este estudio contiene una revisión conceptual con los lineamientos que una empresa debe tener en cuenta al momento de implementar herramientas TIC a sus áreas y actividades. Los hallazgos teóricos planteados son llevados a la realidad estudiando cómo empresas de Bogotá adoptan recursos tecnológicos. Los resultados principales del estudio muestran que la agrupación empresarial clasificada como gran empresa es el segmento que mejor aplica los lineamientos teóricos para la implementación correcta de herramientas TIC en un ambiente organizacional. El segmento de mediana y pequeña empresa da muestras de uso de herramientas TIC, sin embargo se nota una debilidad en la falta de planeación estratégica e integración de estos recursos tecnológicos al sistema organizacional. Esta investigación concluye mostrando un conjunto de recomendaciones y hallazgos de acuerdo a los datos analizados.
Resumo:
El presente trabajo es una revisión de la literatura de investigación en Ciberpsicología centrada en las categorías de privacidad, intimidad, identidad y vulnerabilidad, y en la forma como estas se desarrollan en las redes sociales virtuales. Los principales hallazgos indicaron que son los jóvenes quienes dedican gran parte de su tiempo a interactuar en dichas redes, y a su vez, dado el manejo que les dan, tienen mayor exposición ante los posibles riesgos de estas, como el matoneo, las conductas auto lesivas, la explotación sexual y los trastornos de la alimentación. Se describen estos riesgos y se proponen posibles soluciones.