916 resultados para Extensibilité du réseau


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Ce mémoire porte sur les raisons qu’ont de jeunes adultes québécois de discuter ou non de politique sur Internet. Il s’inscrit dans le contexte général de l’avènement du Web 2.0 et dans le contexte particulier des élections canadiennes de mai 2011. Au niveau théorique, nous avons mobilisé la théorie de l’agir communicationnel du philosophe allemand Jürgen Habermas ainsi que sa conception de la sphère publique. Du point de vue méthodologique, nous avons étudié un échantillon composé de jeunes adultes québécois, hommes et femmes, âgés de 19 à 30 ans, qui habitent à Montréal et dans ses environs. Ces jeunes citoyens ont été interrogés dans le cadre de quatre focus groups. Les données recueillies ont été analysées selon une méthode d’extraction des arguments en accord avec la méthodologie de la reconstruction rationnelle. Les résultats ont permis d’exposer plusieurs raisons qu’ont avancées les jeunes adultes interrogés pour expliquer leur degré de participation à des discussions politiques sur Internet. Celles-­‐ci ont été regroupées en quatre thèmes: le manque de connaissances et l’aspect public; la conscientisation et l’obtention de feedback; la réaction par rapport au contenu, la composition du réseau et la valeur de l’information; le face à face, l’anonymat et les sujets controversés. Ces résultats ont été discutés en considérant ceux obtenus par d’autres chercheurs afin de faire ressortir les apports de cette étude au domaine de la communication. La discussion a également permis d’adopter un point de vue théorique critique pour explorer ce que les résultats de ce mémoire révèlent sur l’état de la sphère publique québécoise.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Durant les dernières décennies, l’occurrence des catastrophes naturelles a été fortement à la hausse. En effet, les catastrophes naturelles sont devenues de plus en plus fréquentes. En fait, ces risques dévastateurs ont touché durant les années précédentes différents pays dans des zones très diversifiées et continueront très probablement à être de réelles menaces dans le monde. Puisqu’aucun pays n’est à l’abri des catastrophes naturelles, il s’avère alors utile d’étudier les facteurs déterminants de leur survenue notamment avec la restriction de leurs périodes de retour et donc l’augmentation de leurs chances d’occurrence. Il nous a donc semblé opportun de tester les facteurs sous-jacents de la survenue des catastrophes naturelles. Notre travail se base sur l’application d’un réseau neuronal de type perceptron multicouche pour prédire le nombre des catastrophes naturelles à partir des variables les plus connues théoriquement. Ainsi, nous allons utiliser ce modèle neuronal pour effectuer l’analyse de sensitivité. Cette dernière permet de classer les variables explicatives selon l’importance de leur contribution dans la détermination du nombre de catastrophes naturelles comptabilisées durant la période d’étude. Les résultats obtenus ont montré que le réseau retenu peut prédire le nombre des catastrophes naturelles. De même, les différentes variables possèdent un effet considérable sur la sortie du réseau neuronal mais selon différents ordres d’importance. De ce fait, toutes ces variables contribuent à l’explication d’un problème aussi complexe comme la survenue des catastrophes naturelles.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Comme à l’approche d’un tsunami, l’incidence grandissante des allergies affecte maintenant plus de 30% de la population des pays développés. Étant la cause de nombreuses morbidités et un risque significatif de mortalité, les allergies nécessitent des dépenses exorbitantes au système de santé et constituent une des plus importantes sources d’invalidité. Cette thèse a pour but de contribuer à faciliter la prise de décision éclairée dans le développement de politiques en santé en lien avec cette maladie immunitaire chronique en utilisant des principes d’éthique comme outils pour guider le développement de politiques en santé. Le premier chapitre démontre le présent déficit d’analyses des enjeux éthiques en allergologie et démontre de quelle façon les réflexions en éthique peuvent guider le développement de politiques et l’élaboration de stratégies appliquées aux allergies. Les chapitres qui suivront présentent des applications spécifiques des principes d’éthiques ciblant des contextes précis comme des méthodes qui fournissent des outils de réflexion et des cadres théoriques qui peuvent être appliqués par les décideurs pour guider des interventions en santé concernant les allergies et les conditions de co-morbidité reliées. Le second chapitre présente un cadre théorique pour l’évaluation et la priorisation d’interventions en santé publique par la diminution des allergènes présents dans l’environnement basées sur des théories de justice sociale. Les critères entourant les politiques d’évaluation se concentrent sur les enjeux éthiques référant aux populations vulnérables, sur une distribution plus égale des bénéfices pour la santé, et sur le devoir d’éviter la stigmatisation. Le troisième chapitre offre aux administrateurs et au personnel infirmier du réseau scolaire un cadre décisionnel pour guider le développement de politiques efficaces et éthiquement justifiables concernant les allergies alimentaires pour les écoles. Dans ce contexte, les principes de base d’éthique en santé publique et en bioéthique - par exemple, l’empowerment des populations vulnérables dans la prise en charge de leur santé et la protection de la confidentialité du dossier médical - servent d’outils pour évaluer les politiques. Le dernier chapitre emploie les principes de base de recherche en éthique comme méthode pour développer un argumentaire en faveur de la réforme des réglementations entourant la production de médicaments immunothérapeutiques. La nécessité éthique d’éviter les risques de méfait à l’endroit du sujet humain dans la recherche permettra de servir de guide pour structurer de futures politiques en santé publique en égard à la production d’immunothérapeutiques à l’échelle mondiale.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La recherche explore le rapport à l’école et aux savoirs scolaires de jeunes d’origine haïtienne en contexte scolaire défavorisé. Considérant des trajectoires contrastées d’élèves en réussite scolaire, d’élèves vulnérables et de jeunes décrocheurs, elle examine les processus qui concourent à la réussite socioscolaire des uns et à la moindre réussite des autres en interrogeant le sens que les jeunes accordent à l’école et à l’acte d’apprendre. La recherche documente par ailleurs la manière dont ce sens s’est construit dans la trajectoire socioscolaire depuis la maternelle. Cette approche basée sur des entretiens approfondis à caractère biographique permet d'avoir des hypothèses explicatives sur un résiduel non expliqué par les recherches quantitatives. Elle bonifie aussi la perspective de Charlot (2001) jugée trop centrée sur l'élève (Thésée, 2003). L’élève est au centre de la démarche, mais son rapport aux savoirs scolaires est analysé à travers l’exploration de la trajectoire de socialisation scolaire, familiale et communautaire et en croisant les regards des jeunes, des parents, enseignants et autres personnes significatives sur cette trajectoire. Selon les résultats de notre recherche, le rapport à l’école et aux savoirs scolaires semble plus complexe et critique chez les élèves en réussite qui identifient la valeur formative, qualifiante et socialisante de l’école. Ces derniers se mobilisent fortement dans leur apprentissage. En comparaison, les élèves en difficulté mettent plutôt l’accent sur la socialisation et la qualification et ils font preuve d’une moindre mobilisation scolaire. Certains d’entre eux se rapprochent des jeunes décrocheurs avec un rapport aux savoirs de non-sens et de désengagement. Mais au-delà de ces grandes lignes, le rapport à l’école et aux savoirs scolaires se décline différemment d’un jeune à l’autre, suivant des caractéristiques personnelles, familiales et sociales spécifiques et suivant le savoir/apprentissage scolaire considéré et son mode de transmission par l’enseignant. Les résultats de la recherche mettent en évidence le rôle d’acteur de l’élève dans son apprentissage, mais aussi celui des principaux contextes dans lesquels il évolue. L’école est particulièrement interpellée. Les élèves dénoncent la forme scolaire scripturale, perçue monotone lourde et rigide, et certaines pratiques enseignantes qui ne favorisent pas l’apprentissage (Fabre, 2007 ; Pépin, 1994). Les familles sont aussi interpellées quant à leurs valeurs, pratiques et cohésion. Enfin, la recherche souligne l’influence du réseau des pairs et des milieux communautaires. Apprendre et réussir à l’école se révèlent un enjeu individuel et social qui implique une mobilisation collective.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

L’avénement des réseaux sociaux, tel que Facebook, MySpace et LinkedIn, a fourni une plateforme permettant aux individus de rester facilement connectés avec leurs amis, leurs familles ou encore leurs collègues tout en les encourageant activement à partager leurs données personnelles à travers le réseau. Avec la richesse des activités disponibles sur un réseau social, la quantité et la variété des informations personnelles partagées sont considérables. De plus, de part leur nature numérique, ces informations peuvent être facilement copiées, modifiées ou divulguées sans le consentement explicite de leur propriétaire. Ainsi, l’information personnelle révélée par les réseaux sociaux peut affecter de manière concrète la vie de leurs utilisateurs avec des risques pour leur vie privée allant d’un simple embarras à la ruine complète de leur réputation, en passant par l’usurpation d’identité. Malheureusement, la plupart des utilisateurs ne sont pas conscients de ces risques et les outils mis en place par les réseaux sociaux actuels ne sont pas suffisants pour protéger efficacement la vie privée de leurs utilisateurs. En outre, même si un utilisateur peut contrôler l’accès à son propre profil, il ne peut pas contrôler ce que les autres révèlent à son sujet. En effet, les “amis” d’un utilisateur sur un réseau social peuvent parfois révéler plus d’information à son propos que celui-ci ne le souhaiterait. Le respect de la vie privée est un droit fondamental pour chaque individu. Nous pré- sentons dans cette thèse une approche qui vise à accroître la prise de conscience des utilisateurs des risques par rapport à leur vie privée et à maintenir la souveraineté sur leurs données lorsqu’ils utilisent un réseau social. La première contribution de cette thèse réside dans la classification des risques multiples ainsi que les atteintes à la vie privée des utilisateurs d’un réseau social. Nous introduisons ensuite un cadre formel pour le respect de la vie privée dans les réseaux sociaux ainsi que le concept de politique de vie privée (UPP). Celle-ci définie par l’utilisateur offre une manière simple et flexible de spécifier et communiquer leur attentes en terme de respect de la vie privée à d’autres utilisateurs, tiers parties ainsi qu’au fournisseur du réseau social. Par ailleurs, nous dé- finissons une taxonomie (possiblement non-exhaustive) des critères qu’un réseau social peut intégrer dans sa conception pour améliorer le respect de la vie privée. En introduisant le concept de réseau social respectueux de la vie privée (PSNS), nous proposons Privacy Watch, un réseau social respectueux de la vie privée qui combine les concepts de provenance et d’imputabilité afin d’aider les utilisateurs à maintenir la souveraineté sur leurs données personnelles. Finalement, nous décrivons et comparons les différentes propositions de réseaux sociaux respectueux de la vie privée qui ont émergé récemment. Nous classifions aussi ces différentes approches au regard des critères de respect de la vie privée introduits dans cette thèse.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Ce mémoire porte sur l’étude d’un petit groupe d’Iroquoiens du Saint-Laurent qui habitait la région de Saint-Anicet au cours du Sylvicole supérieur tardif. Nous traitons de l’occupation villageoise de Mailhot-Curran (BgFn-2) et, plus particulièrement, d’une analyse morpho-stylistique de la poterie. En considérant la variabilité culturelle qui caractérise les Iroquoiens du Saint-Laurent, nous replaçons cette communauté à l’intérieur du grand réseau d’interactions auquel participe ce groupe culturel. Notre objectif général est de déterminer l’apparentement stylistique des potières de Mailhot-Curran selon quatre grandes échelles d’interactions sociales, soit locale, régionale, interrégionale et internationale, et de situer le site à l’étude dans le temps. Cette étude permet de proposer que Mailhot-Curran date du XVIe siècle, mais contrairement à l’effervescence ressentie au site Mandeville au cours du même siècle, les potières seraient demeurées assez conservatrices dans la réalisation de leur poterie. De plus, les potières de Mailhot-Curran semblent posséder une identité villageoise relativement forte. Nous avons aussi observé qu’un style régional caractérise les sites de Saint-Anicet. En considérant l’aspect diachronique des sites Mailhot-Curran, Droulers et McDonald, nos résultats supportent l’idée qu’ils forment un ensemble culturel cohérent qui pourrait indiquer une occupation continue de la région par un même groupe. En outre, notre étude démontre que le site Mailhot-Curran appartient à la province occidentale qui inclut les régions de Prescott et de Summerstown en Ontario, les régions de Montréal et de Saint-Anicet au Québec, ainsi que le nord du lac Champlain au sud-est. Par contre, Mailhot-Curran semble se situer plus en périphérie du réseau d’interactions auquel participent les regroupements de Prescott et de Summerstown au nord du lac Saint-François et il parait s’ouvrir sur d’autres régions comme Montréal et le nord du lac Champlain. Par ailleurs, les potières sont ouvertes à certaines influences provenant de la province centrale, leur région voisine à l’est.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les réseaux de nanotrous sont des structures plasmoniques ayant un énorme potentiel en tant que transducteurs pour la conception de biocapteurs. De telles structures sont prometteuses pour l’élaboration de biocapteurs capable d’effectuer du criblage à haut débit. L’intérêt de travailler avec des réseaux de nanotrous est dû à la simplicité d’excitation des polaritons de plasmons de surface en transmission directe, à la sensibilité et à la facilité de fabrication de ces senseurs. L’architecture de tels réseaux métalliques permet la conception de nanostructures ayant de multiples propriétés plasmoniques. L’intensité, la signature spectrale et la sensibilité du signal plasmonique sont grandement affectées par l’aspect physique du réseau de nanotrous. L’optimisation du signal plasmonique nécessite ainsi un ajustement du diamètre des trous, de la périodicité et de la composition métallique du réseau. L'agencement de l'ensemble de ces paramètres permet d'identifier une structure optimale possédant une périodicité de 1000 nm, un diamètre des nanotrous de 600-650 nm et un film métallique ayant une épaisseur de 125 nm d'or. Ce type de transducteur a une sensibilité en solution de 500-600 nm/RIU pour des bandes plasmoniques situées entre 600-700 nm. L'intérêt de travailler avec cette structure est la possibilité d'exciter les plasmons de polaritons de surface (SPPs) selon deux modes d'excitation : en transmission exaltée (EOT) ou en réflexion totale interne par résonance des plasmons de surface (SPR). Une comparaison entre les propriétés plasmoniques des senseurs selon les modes d'excitation permet de déterminer expérimentalement que le couplage de la lumière avec les ondes de SPP de Bloch (BW-SPPs) en transmission directe résulte en un champ électromagnétique davantage propagatif que localisé. D'un point de vue analytique, la biodétection de l'IgG en SPR est 6 fois plus sensible par rapport au mode EOT pour une même structure. Une étude du signal plasmonique associé au BW-SPP pour un certain mode de diffraction démontre que la distance de pénétration de ces structures en EOT est d'environ 140 nm. La limite de détection de l'IgG humain pour un réseau de nanotrous de 1000 nm de périodicité est d'environ 50 nM en EOT. Ce mémoire démontre la viabilité des réseaux de nanotrous pour effectuer de la biodétection par criblage à haut débit lors de prochaines recherches. L'investigation de l'effet de l'angle d'excitation en transmission exaltée par rapport au signal plasmonique associé au mode (1,0) d'un réseau de nanotrous de 820 nm d'or démontre que la sensibilité en solution n'est pas proportionnelle à la sensibilité en surface du senseur. En fait, une optimisation de l'angle d'incidence pour le mode (1,0) de diffraction des BW-SPP permet d'amplifier la sensibilité en surface du senseur jusqu'à 3-fois pour un angle de 13,3°. Ce mémoire démontre ainsi la nécessité d'optimiser l'angle d'excitation et les propriétés physiques du senseur afin de développer un transducteur de grande sensibilité basé sur l'excitation en transmission de réseaux de nanotrous.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La quantité de données générée dans le cadre d'étude à grande échelle du réseau d'interaction protéine-protéine dépasse notre capacité à les analyser et à comprendre leur sens; d'une part, par leur complexité et leur volume, et d'un autre part, par la qualité du jeu de donnée produit qui semble bondé de faux positifs et de faux négatifs. Cette dissertation décrit une nouvelle méthode de criblage des interactions physique entre protéines à haut débit chez Saccharomyces cerevisiae, la complémentation de fragments protéiques (PCA). Cette approche est accomplie dans des cellules intactes dans les conditions natives des protéines; sous leur promoteur endogène et dans le respect des contextes de modifications post-traductionnelles et de localisations subcellulaires. Une application biologique de cette méthode a permis de démontrer la capacité de ce système rapporteur à répondre aux questions d'adaptation cellulaire à des stress, comme la famine en nutriments et un traitement à une drogue. Dans le premier chapitre de cette dissertation, nous avons présenté un criblage des paires d'interactions entre les protéines résultant des quelques 6000 cadres de lecture de Saccharomyces cerevisiae. Nous avons identifié 2770 interactions entre 1124 protéines. Nous avons estimé la qualité de notre criblage en le comparant à d'autres banques d'interaction. Nous avons réalisé que la majorité de nos interactions sont nouvelles, alors que le chevauchement avec les données des autres méthodes est large. Nous avons pris cette opportunité pour caractériser les facteurs déterminants dans la détection d'une interaction par PCA. Nous avons remarqué que notre approche est sous une contrainte stérique provenant de la nécessité des fragments rapporteurs à pouvoir se rejoindre dans l'espace cellulaire afin de récupérer l'activité observable de la sonde d'interaction. L'intégration de nos résultats aux connaissances des dynamiques de régulations génétiques et des modifications protéiques nous dirigera vers une meilleure compréhension des processus cellulaires complexes orchestrés aux niveaux moléculaires et structuraux dans les cellules vivantes. Nous avons appliqué notre méthode aux réarrangements dynamiques opérant durant l'adaptation de la cellule à des stress, comme la famine en nutriments et le traitement à une drogue. Cette investigation fait le détail de notre second chapitre. Nous avons déterminé de cette manière que l'équilibre entre les formes phosphorylées et déphosphorylées de l'arginine méthyltransférase de Saccharomyces cerevisiae, Hmt1, régulait du même coup sont assemblage en hexamère et son activité enzymatique. L'activité d'Hmt1 a directement un impact dans la progression du cycle cellulaire durant un stress, stabilisant les transcrits de CLB2 et permettant la synthèse de Cln3p. Nous avons utilisé notre criblage afin de déterminer les régulateurs de la phosphorylation d'Hmt1 dans un contexte de traitement à la rapamycin, un inhibiteur de la kinase cible de la rapamycin (TOR). Nous avons identifié la sous-unité catalytique de la phosphatase PP2a, Pph22, activé par l'inhibition de la kinase TOR et la kinase Dbf2, activé durant l'entrée en mitose de la cellule, comme la phosphatase et la kinase responsable de la modification d'Hmt1 et de ses fonctions de régulations dans le cycle cellulaire. Cette approche peut être généralisée afin d'identifier et de lier mécanistiquement les gènes, incluant ceux n'ayant aucune fonction connue, à tout processus cellulaire, comme les mécanismes régulant l'ARNm.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Cette thèse porte sur les phénomènes critiques survenant dans les modèles bidimensionnels sur réseau. Les résultats sont l'objet de deux articles : le premier porte sur la mesure d'exposants critiques décrivant des objets géométriques du réseau et, le second, sur la construction d'idempotents projetant sur des modules indécomposables de l'algèbre de Temperley-Lieb pour la chaîne de spins XXZ. Le premier article présente des expériences numériques Monte Carlo effectuées pour une famille de modèles de boucles en phase diluée. Baptisés "dilute loop models (DLM)", ceux-ci sont inspirés du modèle O(n) introduit par Nienhuis (1990). La famille est étiquetée par les entiers relativement premiers p et p' ainsi que par un paramètre d'anisotropie. Dans la limite thermodynamique, il est pressenti que le modèle DLM(p,p') soit décrit par une théorie logarithmique des champs conformes de charge centrale c(\kappa)=13-6(\kappa+1/\kappa), où \kappa=p/p' est lié à la fugacité du gaz de boucles \beta=-2\cos\pi/\kappa, pour toute valeur du paramètre d'anisotropie. Les mesures portent sur les exposants critiques représentant la loi d'échelle des objets géométriques suivants : l'interface, le périmètre externe et les liens rouges. L'algorithme Metropolis-Hastings employé, pour lequel nous avons introduit de nombreuses améliorations spécifiques aux modèles dilués, est détaillé. Un traitement statistique rigoureux des données permet des extrapolations coïncidant avec les prédictions théoriques à trois ou quatre chiffres significatifs, malgré des courbes d'extrapolation aux pentes abruptes. Le deuxième article porte sur la décomposition de l'espace de Hilbert \otimes^nC^2 sur lequel la chaîne XXZ de n spins 1/2 agit. La version étudiée ici (Pasquier et Saleur (1990)) est décrite par un hamiltonien H_{XXZ}(q) dépendant d'un paramètre q\in C^\times et s'exprimant comme une somme d'éléments de l'algèbre de Temperley-Lieb TL_n(q). Comme pour les modèles dilués, le spectre de la limite continue de H_{XXZ}(q) semble relié aux théories des champs conformes, le paramètre q déterminant la charge centrale. Les idempotents primitifs de End_{TL_n}\otimes^nC^2 sont obtenus, pour tout q, en termes d'éléments de l'algèbre quantique U_qsl_2 (ou d'une extension) par la dualité de Schur-Weyl quantique. Ces idempotents permettent de construire explicitement les TL_n-modules indécomposables de \otimes^nC^2. Ceux-ci sont tous irréductibles, sauf si q est une racine de l'unité. Cette exception est traitée séparément du cas où q est générique. Les problèmes résolus par ces articles nécessitent une grande variété de résultats et d'outils. Pour cette raison, la thèse comporte plusieurs chapitres préparatoires. Sa structure est la suivante. Le premier chapitre introduit certains concepts communs aux deux articles, notamment une description des phénomènes critiques et de la théorie des champs conformes. Le deuxième chapitre aborde brièvement la question des champs logarithmiques, l'évolution de Schramm-Loewner ainsi que l'algorithme de Metropolis-Hastings. Ces sujets sont nécessaires à la lecture de l'article "Geometric Exponents of Dilute Loop Models" au chapitre 3. Le quatrième chapitre présente les outils algébriques utilisés dans le deuxième article, "The idempotents of the TL_n-module \otimes^nC^2 in terms of elements of U_qsl_2", constituant le chapitre 5. La thèse conclut par un résumé des résultats importants et la proposition d'avenues de recherche qui en découlent.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Le réseau Internet s’avère être un outil important pour les juristes. Il rend possible la constitution d’une base de données juridiques, la création de revues de droit, la mise sur pied de forums de discussion sur les questions de droit, la diffusion d’ouvrages, etc. Le réseau Internet facilite les recherches en droit, car grâce aux bases des données, les juristes peuvent facilement accéder notamment aux textes légaux et réglementaires, à la jurisprudence et aux textes de doctrine. Cependant, Internet peut également servir à résoudre les conflits qui surviennent dans les rapports entre les internautes ou entre les internautes et les opérateurs du réseau Internet. La cyberjustice existe déjà, à petite échelle. L’on peut se permettre de mentionner le Centre de médiation et d’arbitrage de l’OMPI, le Virtual Magistrate, l’Online Ombuds Office, le CyberTribunal et le Règlement Uniforme de l’ICANN. S’il faut saluer les efforts qui ont abouti à l’existence de ces instances de cyberjustice, il convient pourtant de reconnaître leurs limites. En effet, ces diverses formes de cyberjustice ont un caractère privé et demeurent incapables d’assurer la répression des infractions. Ensuite, elles ne tiennent pas compte du déséquilibre des rapports entre télétravailleurs et employeurs, puisqu’elles reconnaissent à ces deux groupes des droits équivalents quant au choix de la juridiction et des règles applicables. Enfin, en l’état actuel de la cyberjustice, le sens de la justice est sacrifié à la célérité. Certains droits reconnus aux parties — celui de jouir d’un double degré de juridiction en particulier — sont ignorés. Ces faits montrent bien la nécessité de concevoir des modèles d’institutions plus appropriés en vue de l’instauration d’un certain ordre dans le réseau Internet. C’est dans cette optique que la présente étude offre quelques modèles de juridictions virtuelles, dont une juridiction virtuelle répressive.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Suite à l’essor des marchés financiers en ligne tant à l’intérieur de l’Union Européenne qu’en Amérique du Nord, les législateurs communautaires ont pris différentes mesures visant à exercer un certain contrôle sur le flux financier découlant de cet essor. Afin de mieux situer le lecteur dans cet amalgame de textes juridiques, l’auteur de cet article dresse un portrait exhaustif des différentes lois, directives et conventions applicables aux services financiers en ligne. Le domaine des services financiers n’échappant pas à l’aspect international du réseau Internet, la problématique de l’assujettissement de sites nord-américains au droit communautaire demeure d’un grand intérêt. Comme le souligne l’auteur, malgré le fait que certains joueurs ne devrait pas, à première vue être soumis au droit communautaire, les autorités de l’Union Européennes justifient leur occupation de la compétence par rapport aux activités financières en ligne en raison de leur intérêt pour la réalisation du marché unique. En partant de ce constat, l’auteur aborde exhaustivement les différents textes juridiques de droit européen pouvant accorder un recours quelconque au consommateur désirant obtenir des services financiers en ligne, peu importe l’origine géographique du site, notamment la très récente Directive 2002/65/CE du Parlement européen et du Conseil du 23 septembre 2002 concernant la commercialisation à distance de services financiers auprès des consommateurs, et modifiant les directives 90/619/CEE du Conseil, 97/7/CE et 98/27/CE. Ce nouveau texte prévoit, entre autres, que les protections accordées au consommateurs ne peuvent êtres outrepassées même lorsque la loi applicable au contrat est celle d’un pays tiers à condition que ledit consommateur soit résident d’un État membre de la Communauté et que le contrat ait des liens de rattachement proches avec la Communauté.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

"Sur un ton humoristique, les auteurs avouent être des voleurs… d’idées. À quoi riment les lois sur le droit d’auteur demandent-ils ? À l’origine, ce ne sont pas les droits des créateurs que le souverain ou l’État voulait protéger, mais bien les privilèges des éditeurs. Et d’où vient qu’on ait ainsi accordé à ces derniers le droit exclusif de publier ? C’est que dès l’invention de l’imprimerie, les hommes de pouvoir ont bien vu la menace que représentait pour eux la dissémination des idées : le calcul qu’ils ont fait a profité aux imprimeurs. Le phénomène n’est pas étranger à l’existence des permis de radiodiffusion / télévision existant de nos jours dans nos États démocratiques ; et l’histoire se répète comme on l’observe aujourd’hui quant à la régulation du réseau Internet. Quand les éditeurs se rendirent compte qu’ils ne pouvaient plus avoir la main haute sur tout ce qui se publiait, ils ont pris prétexte du droit des créateurs pour protéger leurs propres intérêts. Ni l’éthique ni l’esthétique ne motivaient les éditeurs , mais bien leurs seuls intérêts commerciaux, légitimes au demeurant. Deux factions s’opposent aujourd’hui quant à la question du droit des auteurs à l’ère numérique. La vieille garde se bat pour préserver à peu de choses près le statu quo tandis que ses vis-à-vis proclament la mort du droit d’auteur tel qu’il a existé. Et quel modèle nouveau préconisent ces derniers ? En fait, ils ne s’opposent pas à toute forme de protection pour ceux qui traditionnellement en ont bénéficié, mais songent à des mécanismes nouveaux …, de sorte que la vieille garde n’a pas à s’en faire outre mesure. Le fond du problème est ailleurs soutiennent MM. Benyekhlef et Tresvant : même si les avocats plaideront que ce ne sont pas les idées, mais bien la forme particulière qu’un créateur a choisie pour les exprimer qu’on protège par les lois sur le droit d’auteur, cela ne change rien. Dès qu’une idée est exprimée et fixée d’une certaine manière, il devient plus difficile de l’exprimer à nouveau puisqu’une partie du champ virtuel qu’elle pouvait occuper est déjà conquise, à bon droit selon le droit actuel. Il faut en conclure que le droit d’auteur nouveau, comme le droit d’auteur traditionnel, est une entrave à la libre circulation des idées."

Relevância:

80.00% 80.00%

Publicador:

Resumo:

L’objet de cette intervention présentée pour partie en novembre 2001 au colloque « Droit de l’Internet : approches européennes et internationales » est d’étudier quel est le mode de régulation, sinon le plus efficace, du moins le plus justifié, dans le « cybermonde ». On y décrit le contexte général de la problématique de la régulation de l’Internet dans le but d’évaluer l’adéquation des modes institutionnels utilisés. On rappelle ensuite quelles sont les instances qui, d’ores et déjà, sont chargées de tout ou de partie de la « gestion » du réseau, et qui, en pratique, assurent une fonction de régulation. Suivent des propositions relatives à l’organisation, dans ce contexte, des pouvoirs publics français.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

PériCulture est le nom d'un projet de recherche à l'Université de Montréal qui fait partie d'un projet plus vaste basé à l'Université de Sherbrooke. Ce dernier visait à former un réseau de recherche pour la gestion du contenu culturel numérique canadien. L'objectif général de la recherche de PériCulture était d'étudier les méthodes d'indexation de contenus culturels non textuels sur le Web, plus spécifiquement des images. Les résultats de la recherche présentés ici s'appuient sur des travaux précédents en indexation d'images et en indexation automatique (de texte), par l'étude des propriétés du texte associé à des images dans un environnement réseau. Le but était de comprendre la façon dont le texte associé à des images sur des pages Web (appelé péritexte) peut être exploité pour indexer les images correspondantes. Nous avons étudié cette question dans le contexte de pages Web sélectionnées, c'est à dire : des pages de contenu culturel canadien contenant des objets multimédia auxquels était associé du texte (plus que simplement les noms de fichiers et les légendes) et qui étaient bilingues (anglais et français). Nous avons identifié les mots-clés utiles à l'indexation situés à proximité de l'objet décrit. Les termes d'indexation potentiels ont été identifiés dans diverses balises HTML et dans le texte intégral (chacun étant considéré comme une source différente de péritexte). Notre étude a révélé qu'un grand nombre de termes d'indexation utiles sont disponibles dans le péritexte de nombreux sites Web ayant un contenu culturel, et ce péritexte de différentes sources a une utilité variable dans la recherche d’information. Nos résultats suggèrent que ces termes peuvent être exploités de différentes manières dans les systèmes de recherche d’information pour améliorer les résultats de recherche.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La dernière décennie fut marquée par l’avènement des sites de réseautage social ouvrant la voie à une nouvelle façon de communiquer. Avec 900 millions d’utilisateurs, Facebook est de loin le plus populaire de ces sites (Facebook, 2013). Les caractéristiques propres à cette plateforme, telles que l’information présente en ligne de même que la nature publique des interactions, imposent une réflexion sur son potentiel social. Nombre d’auteurs suggèrent que l’utilisation de Facebook pourrait mener à une augmentation du capital social et plus précisément du capital social de type bridging. Basée sur cette théorisation du réseau social établie par Putnam (2001), cette recherche s’est interrogée sur la participation de Facebook à la restructuration du réseau social chez les jeunes universitaires. Ainsi, 176 étudiants nouvellement arrivés à l’Université de Montréal furent interrogés à l’aide d’un questionnaire et d’entrevues. Cette façon de procéder permit de comparer les interactions que les étudiants ont en ligne aux interactions qu’ils ont en face-à-face. Il ressort de cette recherche que Facebook permet de fixer les liens sociaux naissants et facilite la formation de groupes dans un nouvel environnement. De plus, l’utilisation de cette plateforme accompagne le jeune tout au long de son parcours social et s’inscrit ainsi dans un processus évolutif.