997 resultados para Sécurité énergétique
Resumo:
L’objectif à moyen terme de ce travail est d’explorer quelques formulations des problèmes d’identification de forme et de reconnaissance de surface à partir de mesures ponctuelles. Ces problèmes ont plusieurs applications importantes dans les domaines de l’imagerie médicale, de la biométrie, de la sécurité des accès automatiques et dans l’identification de structures cohérentes lagrangiennes en mécanique des fluides. Par exemple, le problème d’identification des différentes caractéristiques de la main droite ou du visage d’une population à l’autre ou le suivi d’une chirurgie à partir des données générées par un numériseur. L’objectif de ce mémoire est de préparer le terrain en passant en revue les différents outils mathématiques disponibles pour appréhender la géométrie comme variable d’optimisation ou d’identification. Pour l’identification des surfaces, on explore l’utilisation de fonctions distance ou distance orientée, et d’ensembles de niveau comme chez S. Osher et R. Fedkiw ; pour la comparaison de surfaces, on présente les constructions des métriques de Courant par A. M. Micheletti en 1972 et le point de vue de R. Azencott et A. Trouvé en 1995 qui consistent à générer des déformations d’une surface de référence via une famille de difféomorphismes. L’accent est mis sur les fondations mathématiques sous-jacentes que l’on a essayé de clarifier lorsque nécessaire, et, le cas échéant, sur l’exploration d’autres avenues.
Resumo:
Objectif: Étudier l’association entre la consommation de café, la consommation de thé noir et le risque de cancer du poumon. Méthodologie: Cette recherche utilise les données obtenues lors d’une étude cas-témoin effectuée à Montréal avec des résidents canadiens âgés entre 35 et 75 ans recrutés entre 1996 et 2001. Les cas étaient des individus atteints du cancer et diagnostiqués entre 1996 et 1997 dans l’un des 18 hôpitaux de la région du Grand-Montréal. Les contrôles on été sélectionnés à partir de la liste électorale et appariés selon la fréquence de distribution des cas par groupe d’âge de 5 ans, par sexe et par district électoral. Au total, 1130 cas et 1484 contrôles ont été inclus dans cette étude. Les rapports de cote (RC) et les intervalles de confiance de 95% (CI) des associations entre la consommation de thé noir, de café et le cancer du poumon ont été estimés à l’aide de la régression logistique non conditionnelle. Quatre aspects de la consommation ont été analysés dans des modèles multivariés distincts: la fréquence de consommation, la consommation journalière moyenne, la durée de consommation et la consommation cumulative. Les covariables potentielles considérées incluaient : l’âge, le sexe, l’historique de tabagisme, le statut du répondant, l’ethnicité, la consommation d’alcool, la consommation de fruit et de légume, l’apport énergétique journalier, l’exposition a des agents professionnelle et les variables socio-économiques . Des analyses secondaires par le sexe, le tabagisme et le type histologique de cancer on été effectuées. Résultats : Aucune association statistiquement significative n’a été observée entre la consommation de thé noir et le cancer du poumon. Nos résultats suggèrent qu’une consommation de ≥ 50 ans était associée avec une augmentation du risque d’adénocarcinome comparée à aucune consommation. Nous avons observé une association inverse statistiquement significative entre la consommation occasionnelle de café et le cancer du poumon (RC : 0.32, 95%CI : 0.17-0.59). La durée de consommation de café n’était pas associée avec le cancer du poumon. Conclusion : Nos résultats suggèrent que la consommation à long terme de thé noir pourrait augmenter le risque d’adénocarcinome. D’un autre côté, la consommation occasionnelle de café pourrait réduire le risque de cancer du poumon.
Resumo:
Les collisions proton-proton produites par le LHC imposent un environnement radiatif hostile au détecteur ATLAS. Afin de quantifier les effets de cet environnement sur la performance du détecteur et la sécurité du personnel, plusieurs simulations Monte Carlo ont été réalisées. Toutefois, la mesure directe est indispensable pour suivre les taux de radiation dans ATLAS et aussi pour vérifier les prédictions des simulations. À cette fin, seize détecteurs ATLAS-MPX ont été installés à différents endroits dans les zones expérimentale et technique d'ATLAS. Ils sont composés d'un détecteur au silicium à pixels appelé MPX dont la surface active est partiellement recouverte de convertisseurs de neutrons thermiques, lents et rapides. Les détecteurs ATLAS-MPX mesurent en temps réel les champs de radiation en enregistrant les traces des particules détectées sous forme d'images matricielles. L'analyse des images acquises permet d'identifier les types des particules détectées à partir des formes de leurs traces. Dans ce but, un logiciel de reconnaissance de formes appelé MAFalda a été conçu. Étant donné que les traces des particules fortement ionisantes sont influencées par le partage de charge entre pixels adjacents, un modèle semi-empirique décrivant cet effet a été développé. Grâce à ce modèle, l'énergie des particules fortement ionisantes peut être estimée à partir de la taille de leurs traces. Les convertisseurs de neutrons qui couvrent chaque détecteur ATLAS-MPX forment six régions différentes. L'efficacité de chaque région à détecter les neutrons thermiques, lents et rapides a été déterminée par des mesures d'étalonnage avec des sources connues. L'étude de la réponse des détecteurs ATLAS-MPX à la radiation produite par les collisions frontales de protons à 7TeV dans le centre de masse a montré que le nombre de traces enregistrées est proportionnel à la luminosité du LHC. Ce résultat permet d'utiliser les détecteurs ATLAS-MPX comme moniteurs de luminosité. La méthode proposée pour mesurer et étalonner la luminosité absolue avec ces détecteurs est celle de van der Meer qui est basée sur les paramètres des faisceaux du LHC. Vu la corrélation entre la réponse des détecteurs ATLAS-MPX et la luminosité, les taux de radiation mesurés sont exprimés en termes de fluences de différents types de particules par unité de luminosité intégrée. Un écart significatif a été obtenu en comparant ces fluences avec celles prédites par GCALOR qui est l'une des simulations Monte Carlo du détecteur ATLAS. Par ailleurs, les mesures effectuées après l'arrêt des collisions proton-proton ont montré que les détecteurs ATLAS-MPX permettent d'observer la désintégration des isotopes radioactifs générés au cours des collisions. L'activation résiduelle des matériaux d'ATLAS peut être mesurée avec ces détecteurs grâce à un étalonnage en équivalent de dose ambiant.
Resumo:
L’excitotoxicité est un mécanisme physiopathologique majeur impliqué dans la pathogenèse de la déficience en thiamine (DT). Dans les régions cérébrales vulnérables à la DT, on observe une mort cellulaire induite par excitotoxicité dont l’origine semble être la conséquence d’une perturbation du métabolisme énergétique mitochondrial, d’une dépolarisation membranaire soutenue et d’une diminution de l’absorption du glutamate par les astrocytes suite à la diminution de l’expression des transporteurs EAAT1 et EAAT2. Il est clairement établi que le glutamate joue un rôle central dans l’excitotoxicité lors de la DT. Ainsi, la mise en évidence des mécanismes impliqués dans la diminution de l’expression des transporteurs du glutamate est essentielle à la compréhension de la physiopathologie de la DT. L’objectif de cette thèse consiste en l’étude de la régulation des transporteurs astrocytaires du glutamate et la mise au point de stratégies thérapeutiques ciblant la pathogenèse de l’excitotoxicité lors de l’encéphalopathie consécutive à la DT. Les principaux résultats de cette thèse démontrent des perturbations des transporteurs du glutamate à la fois dans des modèles animaux de DT et dans des astrocytes en culture soumis à une DT. La DT se caractérise par la perte du variant d’épissage GLT-1b codant pour un transporteur du glutamate dans le thalamus et le colliculus inférieur, les régions cérébrales affectées lors d’une DT, en l’absence de modification des niveaux d’ARNm. Ces résultats suggèrent une régulation post-transcriptionnelle de l’expression des transporteurs du glutamate en condition de DT. Les études basées sur l’utilisation d’inhibiteurs spécifiques des facteurs de transcription NFkB et de l’enzyme nucléaire poly(ADP)ribose polymérase-1 (PARP-1) démontrent que la régulation de l’expression du transporteur GLT-1 est sous le contrôle de voies de signalisation NFkB dépendantes de PARP-1. Cette étude démontre une augmentation de l’activation de PARP-1 et de NFkB dans les régions vulnérables chez le rat soumis à une DT et en culture d’astrocytes DT. L’inhibition pharmacologique du facteur de transcription NFkB par le PDTC induit une augmentation des niveaux d’expression de GLT-1, tandis que l’inhibition de PARP-1 par le DPQ conduit à l’inhibition de l’hyperactivation de NFkB observée lors de DT. L’ensemble de ces résultats met en évidence un nouveau mécanisme de régulation des transporteurs du glutamate par l’activation de PARP-1. L’accumulation de lactate est une caractéristique de la DT. Un traitement avec le milieu de culture d’astrocytes en condition de DT sur des cultures d’astrocytes naïfs induit une diminution de l’expression de GLT-1 ainsi qu’une inhibition de la capacité d’absorption du glutamate par les astrocytes naïfs. En revanche, l’administration de lactate exogène ne modifie pas le niveau d’expression protéique de GLT-1. Ainsi, des facteurs solubles autres que le lactate sont sécrétés par des astrocytes en condition de perturbation métabolique et peuvent potentiellement réguler l’activité des transporteurs du glutamate et contribuer à la pathogenèse du syncytium astroglial. En outre, la ceftriaxone, un antibiotique de la famille des β-lactamines, augmente de façon différentielle l’expression du variant-d’épissage GLT-1 dans le colliculus inférieur chez le rat DT et en culture d’astrocytes DT. Ces résultats suggèrent que la ceftriaxone peut constituer une avenue thérapeutique dans la régulation de l’activité des transporteurs du glutamate lors de DT. Pour conclure, la mort cellulaire d’origine excitotoxique lors de DT survient en conséquence d’une dysfonction mitochondriale associée à une perturbation du métabolisme énergétique cérébral. La modification de l’expression des transporteurs du gluatamate est sous le contrôle des voies de signalisation NFkB dépendantes du facteur PARP-1. De plus, l’inhibition métabolique et l’augmentation des sécrétions de lactate observées lors de DT peuvent également constituer un autre mécanisme physiopathologique expliquant la diminution d’expression des transporteurs de glutamate. Enfin, la ceftriaxone pourrait représenter une stratégie thérapeutique potentielle dans le traitement de la régulation de l’expression des transporteurs du glutamate et de la perte neuronale associés à l’excitotoxicité observée lors de DT.
Resumo:
Étude de cas / Case study
Resumo:
En février 2008, le Kosovo déclare unilatéralement son indépendance politique vis-à-vis de l’État de la Serbie. Nombre d’États reconnaissent un Kosovo souverain et indépendant, d’autres continuent à ne pas le reconnaître, au motif qu’il s’agirait d’une sécession. En juillet 2010, la Cour internationale de Justice, sans répondre à la question de la sécession, émet un avis selon lequel la déclaration unilatérale d’indépendance politique du Kosovo n’est pas contraire au droit international général. Et pourtant, le Kosovo reste sous administration internationale, conformément à la Résolution 1244 (1999) du Conseil de sécurité. Plusieurs questions s’imposent parmi lesquelles: le Kosovo est-il un État ? Peut-on être un État sans être souverain et indépendant, ou mieux un État ne peut-il pas disposer d’une souveraineté interne tout étant dépourvu de souveraineté externe ?
Resumo:
La recherche de la vérité en droit est une quête constante, tant dans le monde réel que dans le monde virtuel. Cependant se pose la question de savoir comment trouver cette vérité: est-ce par le biais de la preuve que celle-ci soit le fruit d’une préconstitution ou d’une présomption ou est-ce par le recours à la fiction afin de combler une lacune ou en vue de répondre à une besoin de sécurité. C’est sur ce chemin que l’auteure nous livre ses analyses et commentaires quant à la recherche de la vérité quant à la fonction de la norme technique dans la mise en œuvre du droit.
Resumo:
Nous assistons depuis quelques années à une commercialisation de la recherche académique. Celle-ci est principalement due à une déficience marquée du financement public. Par conséquent, les universités se tournent vers d’autres sources de financement, tels les brevets et l’industrie privée. En parallèle, les gouvernements et les organismes subventionnaires favorisent cette commercialisation par la promotion de programmes de partenariats université-industrie et par la mise en place de stratégies pour l’innovation et le transfert des technologies. Prenant comme modèle le chercheur académique dans le domaine de la santé, nous avons évalué l’impact de cette commercialisation sur les responsabilités du chercheur envers la science et la société. Ce nouveau mode de fonctionnement comporte certes des avantages. Par exemple, il résulte en une injection de fonds nouveaux pour la recherche, un développement des infrastructures universitaires et un transfert de technologies plus efficace, permettant ainsi à la population de bénéficier plus rapidement des bienfaits de la recherche. Cependant, notre réflexion révèle que cette commercialisation comporte aussi des impacts négatifs sur la recherche académique. En effet, on observe l’apparition de conflits d’intérêts pour le chercheur. En plus de constituer une menace pour la sécurité de la population, ces situations causent l’effritement du lien de confiance entre la société et les chercheurs académiques, lien qui est essentiel pour assurer la progression du savoir humain. La commercialisation porte aussi atteinte à la liberté académique, effet que l’on peut observer tant au plan de l’orientation des recherches qu’à celui de la diffusion de ses résultats. Or, la liberté académique est une valeur fondamentale qui a été défendue depuis le Moyen Âge comme étant essentielle pour la progression du savoir humain. Le potentiel commercial devient un facteur dans l’évaluation des projets de recherche académique alors que, traditionnellement, l’avancement des connaissances la guidait essentiellement. Ainsi, la recherche appliquée devient favorisée au détriment de la recherche fondamentale. Ce virage commercial peut bénéficier à la société à court terme mais, à long terme, l’évolution de la société est menacée. La recherche appliquée et la recherche fondamentale sont toutes deux essentielles à l’avancement de la société, apportant chacune leur lot de bénéfices pour cette dernière. La commercialisation de la recherche académique ne doit donc pas résulter en une diminution progressive de la recherche fondamentale au profit de la recherche appliquée. Bien que les chercheurs académiques soient conscients de l’importance de préserver la recherche fondamentale, cette protection ne peut s’opérer sans le support actif des organismes subventionnaires, des gouvernements et de la société en général.
Resumo:
Depuis quelques années, mais surtout depuis le 11 septembre 2001, les contrôles migratoires sont devenus le locus principal d’affirmation du pouvoir souverain dans les pays occidentaux. La mouvance sécuritaire actuelle semble avoir donné les outils conceptuels nécessaires aux États pour leur permettre d’amalgamer des notions autrefois distinctes, comme la sécurité et l’immigration, et d’en inférer des liens qui paraissent désormais naturels et évidents aux yeux du public. Le Canada s’inscrit aussi dans cette mouvance où l’immigrant et l’étranger sont désormais pensés en relation avec l’illégalité, la criminalité et le sujet de non-droit. En pratique, cela se traduit par la mise en œuvre étatique d’un pouvoir souverain qui se manifeste clairement et ouvertement dans le cadre de contrôles migratoires de plus en plus serrés et contraignants. Ainsi, alimenté par la justification sécuritaire, par l’affect de la peur et par la nécessité de combattre le terrorisme international, le Canada applique ses lois et ses politiques de manière à exercer un contrôle accru sur sa population, plus particulièrement sur les migrants en général, mais encore davantage sur les demandeurs d’asile et les réfugiés soupçonnés de terrorisme. La mise en œuvre de pratiques restrictives à l’endroit des demandeurs d’asile et des réfugiés est facilitée par une conviction très tenace. À la lumière de son comportement, le gouvernement canadien semble convaincu que l’exclusion, l’expulsion, voire le refoulement, à l’extérieur du territoire national des personnes jugées être de potentiels terroristes, permettront de renforcer la sécurité nationale. Cette conviction est elle-même supportée par une autre, à savoir la croyance selon laquelle le pouvoir souverain d’exclure quelqu’un du territoire est absolu et, qu’en situation d’exception, il ne peut être limité d’aucune manière par le droit international. Suivant ceci, la lutte antiterroriste s’exécute presque exclusivement par le rejet des éléments potentiellement dangereux à l’extérieur du pays, au détriment d’autres mesures moins attentatoires des droits et libertés, plus légitimes et plus à même de remplir les objectifs liés à la lutte au terrorisme international. Dans notre étude, par une relecture d’une décision paradigmatique de la Cour suprême du Canada, l’affaire Suresh, nous chercherons à ébranler ces convictions. Notre thèse est à l’effet que la prétention du Canada à vouloir en arriver à un monde plus sécuritaire, en excluant d’une protection internationale contre la torture et en refoulant de potentiels terroristes à l'extérieur de son territoire, constitue une entreprise vouée à l’échec allant potentiellement à l’encontre des objectifs de lutte au terrorisme et qui se réalise présentement dans le déni de ses obligations internationales relatives aux droits de l’Homme et à la lutte contre l’impunité. Généralement, à la lumière d’une analyse de certaines obligations du Canada dans ces domaines, notre étude révélera trois éléments, ceux-ci se trouvant en filigrane de toute notre réflexion. Premièrement, le pouvoir souverain du Canada d’exclure des individus de son territoire n’est pas absolu. Deuxièmement, le droit d’une personne à obtenir protection non plus n’est pas absolu et des mécanismes d’équilibrage existant en droit international permettent de protéger les personnes tout en s’assurant que le Canada ne devienne pas un refuge pour les terroristes potentiels. Troisièmement, le Canada est astreint à d’autres obligations internationales. Celles-ci protègent les personnes exclues d’une protection et forcent le gouvernement à lutter contre l’impunité.
Resumo:
Dans un contexte où les virus informatiques présentent un risque sérieux pour les réseaux à travers le globe, il est impératif de retenir la responsabilité des compagnies qui n’y maintiennent pas une sécurité adéquate. À ce jour, les tribunaux québécois n’ont pas encore été saisis d’affaires en responsabilité pour des virus informatiques. Cet article brosse un portrait général de la responsabilité entourant les virus informatiques en fonction des principes généraux de responsabilité civile en vigueur au Québec. L’auteur propose des solutions pour interpréter les trois critères traditionnels la faute, le dommage et le lien causal en mettant l’accent sur l’obligation de précaution qui repose sur les épaules de l’administrateur de réseau. Ce joueur clé pourrait bénéficier de l’adoption de dispositions générales afin de limiter sa responsabilité. De plus, les manufacturiers et les distributeurs peuvent également partager une partie de la responsabilité en proportion de la gravité de leur faute. Les entreprises ont un devoir légal de s’assurer que leurs systèmes sont sécuritaires afin de protéger les intérêts de leurs clients et des tiers.
Resumo:
Le respect de la vie privée est garanti dans presque tous les pays du monde, dont la République Démocratique du Congo. Les textes juridiques internes et internationaux qui assurent la protection de la vie privée ont généralement été édictés à une époque où l'on ne pouvait tenir compte de l’avènement des inforoutes. Cet article tend à rechercher, autant que faire se peut, les divers formes de violations de la vie privée pouvant être commises sur les réseaux numériques et les mécanismes de protection y relatifs. Sont abordées, en premier lieu, les violations effectuées par les pouvoirs publics. Nombreuses sont les atteintes à la vie privée autorisées par les normes juridiques étatiques pour raison de sécurité publique. Il en est ainsi des perquisitions électroniques, des visites de lieux et des saisies opérées par des agents des services étatiques porteurs des titres réguliers et dans le strict respect tant de la procédure que des lois. Toutefois, il arrive que les agents d'État débordent le cadre de l’objet de leur mission ou agissent sans titre régulier. Du côté des atteinte perpétrées par les personnes privées, l'on pourra citer, à titre indicatif, la commission des délits de presse et la violation du secret professionnel, la prise de connaissance ou la soustraction frauduleuse des données à caractère personnel. Ces atteintes procèdent de divers fondements, parmi lesquels on retrouvera les conceptions libertaires, les intérêts égoïstes, l’ignorance des législations étrangères, le principe de la liberté de l’information, les raisons scientifiques ou celles d’ordre public. Un certain nombre de mécanismes juridiques permet néanmoins de combattre ou de réfréner les violations de la vie privée. Tout semble graviter autour de la mise en œuvre d’une procédure pouvant enclencher des sanctions pénales, civiles, disciplinaires ou administratives, hormis l’existence de certains mécanismes de protection particuliers tel que le droit de réponse.
Resumo:
Le sujet sur lequel porte la présente étude est inspiré de la problématique à la base du développement du commerce électronique : la confiance. En effet, l’accroissement exponentiel du nombre d’internautes et des sites Web commerciaux pose un sérieux problème à ce niveau. Ces sites présentent au public une information et des services divers, mais peu vérifiables. Ainsi, le principal obstacle au développement du commerce électronique avec les particuliers est le manque de confiance qu’inspirent les lieux visités. En effet, comment savoir si l’entreprise existe, quelles sont ses politiques concernant la sécurité ou la gestion des renseignements personnels, etc. La vérification et la certification des sites apparaissent comme une solution de plus en plus attrayante et utilisée pour ajouter cet élément de confiance. Déjà, de nombreux sceaux de qualité sont apparus sur les sites commerciaux. Certains sceaux portent sur la confidentialité tandis que d’autres ciblent la protection des consommateurs. La certification peut provenir de la compagnie même, d’un tiers certificateur ou d’un organisme public. Ces éléments constituent des balises et repères importants pour le consommateur sur Internet. Toutefois, les incidences légales sont multiples et certains concepts demeurent flous. Pour apporter une réponse à ces questions, nous définirons le concept de certification des sites Web et ses enjeux dont plus particulièrement la problématique de la confiance des consommateurs. Les différents objets de la certification seront analysés, tant au niveau de l’entité, du contenu du site que de la dimension transactionnelle de celui-ci. Les processus possibles et les impacts de la certification occupent la seconde partie du travail. Il s’agit d’examiner successivement les étapes menant à la certification, soit l’établissement des standards, de l’évaluation de l’entité et de la certification elle-même. L’analyse des impacts de la certification, tant sur le plan de la portée, de la responsabilité légale et des effets sur la concurrence de la certification constitue quant à eux, l’aboutissement de la recherche, soit de savoir quel est l’impact juridique d’un tel mécanisme. Le but de la recherche est de permettre au lecteur de mieux cerner ce phénomène de l’utilisation de la certification sur Internet avec ses avantages et ses limites. Certes, cet outil peut s’avérer très utile pour bâtir la confiance des consommateurs, promouvoir l’essor du commerce électronique et constituer une forme d’autoréglementation. Toutefois, mal utilisé ou mal encadré, il peut engendrer l’effet inverse et détruire cette confiance si fragile à construire dans un environnement dématérialisé.
Resumo:
La recherche de la vérité en droit est une quête constante, tant dans le monde réel que dans le monde virtuel. Cependant se pose la question de savoir comment trouver cette vérité: est-ce par le biais de la preuve que celle-ci soit le fruit d’une préconstitution ou d’une présomption ou est-ce par le recours à la fiction afin de combler une lacune ou en vue de répondre à une besoin de sécurité. C’est sur ce chemin que l’auteure nous livre ses analyses et commentaires quant à la recherche de la vérité quant à la fonction de la norme technique dans la mise en œuvre du droit.
Resumo:
"Le présent rapport a pour objet de fournir un commentaire détaillé sur la faisabilité globale d'un portail unique de dépôt électronique hébergé par le secteur privé (modèle transactionnel central de dépôt électronique) fondé sur la norme LegalXML. Le résultat attendu principal est une opinion concernant la faisabilité du modèle à guichet unique (portail électronique). D'autres résultats attendus comprennent : une connaissance accrue chez les intéressés du modèle de fournisseur de services et une évaluation préliminaire de l'appui que le modèle reçoit. Nous avons utilisé deux véhicules d'analyse principaux pour réaliser les objectifs de l'étude susmentionnés : des analyses documentaires et des entretiens auprès d'intéressés. Les analyses visent explicitement à : examiner des approches différentes au dépôt électronique, notamment un système de dépôt électronique comme extension de chaque instance, et l'hébergement par le secteur privé par opposition au secteur public d'un guichet unique; recenser les questions et les facteurs de risque critiques se rapportant à la mise en place de services de dépôt électronique dans les cours, notamment la protection des renseignements personnels, la propriété intellectuelle et la sécurité, et en discuter; opposer chacun de ces points au modèle de FSA; faire des recommandations sur la stratégie permettant de régler les questions et les facteurs de risque critiques. L'étude a révélé que : de nombreux intéressés appuient le dépôt électronique; de nombreux intéressés (p. ex. les avocats) ne font aucune distinction entre les formes différentes de dépôt électronique, tandis que d'autres s'en soucient beaucoup (p. ex. administrateurs de certaines cours); un modèle de fournisseur de services de dépôt électronique (FSDE) à guichet unique offre quelques avantages importants par rapport à une approche de dépôt électronique individuelle, surtout pour ce qui concerne les coûts et la plate-forme de l'avenir; un modèle de FSDE du secteur privé offre des avantages considérables par rapport à un modèle de FSDE du secteur privé, surtout en matière de succès et de coût de la mise en œuvre."
Resumo:
La protection des données personnelles en Suisse trouve son fondement dans la constitution et se concrétise avant tout dans une loi fédérale adoptée avant l'avènement d'Internet et la généralisation de la transmission d'informations personnelles sur des réseaux numériques. Cette réglementation est complétée par les engagements internationaux de la Suisse et notamment la Convention européenne des Droits de l'Homme du Conseil de l'Europe. L'article délimite tout d'abord le champ d'application de la législation, qui joue un rôle pour le traitement de données personnelles par des particuliers comme par les autorités de l'administration fédérale. Suit une brève analyse des principes fondamentaux (licéité, bonne foi, proportionnalité, finalité, exactitude, communication à l'étranger, sécurité, droit d'accès) et de leur application sur Internet. Enfin, la protection du contenu des messages électroniques privés est brièvement abordée sous l'angle du secret des télécommunications et à la lumière d'une jurisprudence récente du Tribunal fédéral.