62 resultados para implmentation
Resumo:
Résumé Suite à la publication des recommandations de pratiques cliniques sur la prise en soins de patients fébriles au retour des tropiques, nous avons développé un site internet de consultation www.fevertravel.ch qui comprend un arbre décisionnel et des caractéristiques diagnostiques spécifiques fournissant une assistance diagnostique aux médecins de premier recours. Nous avons ensuite intégré une composante de recherche afin d'évaluer l'implémentation de ces recommandations de pratiques cliniques informatisées. De plus, le site est capable d'enregistrer : (1) le chemin parcouru par le médecin au travers de l'arbre décisionnel, (2) les tests diagnostics effectués, (3) les diagnostics initial et final ainsi que les devenirs des patients et (4) les raisons de non-adhérence lorsque les médecins divergent de l'attitude proposée. Nous croyons que la technologie internat est un moyen puissant pour atteindre des médecins provenant de différents horizons dans leur propre environnement et qu'il pourrait se montrer être un outil de recherche efficace pour disséminer les recommandations de pratiques cliniques et évaluer leur justesse-adéquation. Dans cet article, nous décrivons le design, le contenu, l'architecture et l'implémentation du système de ce prototype d'étude interactive qui vise à intégrer une recherche opérationnelle en médecine de premier recours.
Resumo:
Résumé en français Contexte Les interventions intensives d'aide à l'arrêt de la cigarette en milieu hospitalier n'ont pas été adoptées à large échelle, peut-être en raison de barrières organisationnelles. Nous évaluons dans cette étude l'efficacité d'une approche moins contraignante. Méthodes Nous avons conçu et réalisé une étude de cohorte avec un groupe de contrôle historique dans le département de médecine d'un hôpital universitaire de 850 lits. Cent dix-sept fumeurs éligibles consécutifs ont bénéficié d'une intervention d'aide à l'arrêt de la cigarette et 113 fumeurs hospitalisés avant l'implémentation de cette intervention ont constitué notre groupe de contrôle. L'intervention d'aide à l'arrêt de la cigarette, d'une durée de 30 minutes, était réalisée par un médecin assistant formé en désaccoutumance au tabac, sans aucun contact ultérieur de suivi. Tous les patients ont ensuite reçu un questionnaire pour évaluer quelles étaient leurs habitudes en matière de tabagisme 6 mois après leur sortie d'hôpital. Nous avons considéré les patients perdus de vue comme fumeurs et l'abstinence tabagique ponctuelle (au moins 7 jours consécutifs) des ex-fumeurs a été validée par leur médecin traitant. Résultats Les taux d'arrêt de la cigarette validés étaient de 23.9% dans le groupe intervention et de 9.7% dans le groupe contrôle (odds ratio 2.9, intervalle de confiance à 95% [IC95] 1.4 à 6.2). Après ajustement pour les facteurs confondants potentiels, l'intervention était toujours efficace, avec un odds ratio ajusté de 2.7 (1095 = 1.0 à 5.0). Conclusion Une intervention d'aide à l'arrêt de la cigarette de faible intensité, sans contact de suivi, est associée avec un plus haut taux d'arrêt de la cigarette à 6 mois en comparaison avec un groupe de contrôle historique.
Resumo:
Résumé en français La thèse de doctorat porte, de manière générale, sur le rôle des acteurs administratifs dans la mise en oeuvre de l'action publique. En particulier, dans le contexte de l'implémentation de la politique suisse d'assurance-chômage, la recherche se focalise sur l'étude de la bureaucratie de guichet, à savoir un type spécifique d'administrations et d'agents publics situés aux premières lignes de l'action étatique et qui sont en contact direct et quotidien avec les usagers. La thèse a pour objectif principal d'obtenir une compréhension détaillée des impacts concrets dont sont porteurs deux types de réformes majeures du secteur public : les réformes de Nouvelle Gestion Publique (NGP) et les nouvelles technologies informatiques. Le questionnement central de la recherche consiste en une étude approfondie des effets de ces réformes sur les bureaucraties de guichet, et en particulier sur deux aspects centraux les concernant : d'une part, le niveau de pouvoir discrétionnaire que les agents publics de base disposent dans l'application de la loi fédérale sur l'assurance-chômage, autrement dit leur marge de manoeuvre ; d'autre part, les manières au travers desquelles ces mêmes agents sont appelés à rendre des comptes quant à leurs actions et leurs décisions, à savoir l'enjeu plus large de la redevabilité publique des acteurs administratifs. Ces enjeux ont été analysés au niveau empirique dans le contexte organisationnel d'une caisse publique cantonale de chômage ayant expérimenté les réformes évoquées ci-dessus. L'organisation choisie a été investiguée au travers d'une étude de cas ethnographique approfondie (observation directe du travail quotidien des agents, entretiens semi-directifs, analyse de documents) pendant une période de six mois environ entre 2008 et 2009. L'analyse empirique fournit quatre résultats : a) de manière générale, les taxateurs de la caisse de chômage disposent d'un faible niveau de pouvoir discrétionnaire ; b) le degré de pouvoir discrétionnaire varie selon le type de tâche ; c) les agents sur le terrain rendent des comptes auprès d'une multiplicité d'acteurs, sur une variété d'aspects de leur travail et au travers de différents mécanismes de contrôle ; d) les outils de NGP et les nouvelles technologies informatiques ont peu d'impact sur l'étendue du pouvoir discrétionnaire des agents mais contribuent à influencer le type de redevabilité publique pratiquée à ce niveau. Summary in English This PhD dissertation deals with the role of public administration in policy implementation. In the Swiss context of unemployment insurance policy, it focuses on street-level bureaucracy, a specific type of public organisations and agents located at the frontline of public action, that is to say low-level civil servants who are in direct, daily and face-to-face contact with citizens. The dissertation aims at a deep understanding of what are the concrete impacts of two main important changes touching public sector organizations : New Public Management reforms (NPM) and Information and Communication technologies (ICT). The main research question consists in assessing the impacts of those reforms on two central issues regarding street-level bureaucrats : on the one hand, the effective degree of discretion frontline agents do have in implementing the federal law on unemployment insurance ; on the other hand, the ways through which these bureaucrats are held accountable about their action and decisions, i.e. accountability regimes at the street-level. These issues have been empirically addressed in the organisational context of a cantonal Unemployment Insurance Funds having experienced the above mentioned reforms. The organisation has been investigated through an in-depth ethnographic case-study (direct observation of daily work, semi-structured interwiews, documentary analysis) in 2008 and 2009 for approximately six months. The empirical analysis indicates that a) in general, street-level agents do exert low degree of policy discretion; b) the level of discretion is variable from one specific task to another ; c) frontline workers are held accountable to many actors, on various aspects of their work and through different mechanisms of control ; d) NPM and ICT instruments have few impact on the issue of policy discretion but more on the type of street-level accountability which is concretely practised at this level.
Resumo:
La formation en psychothérapie comportementale et cognitive en Europe suit des exigences variées selon les pays, malgré les standards communs de formation dans ce domaine émis par l'EABCT. En général les pays qui ont une réglementation légale de la psychothérapie ont des critères de reconnaissance plus sévères que ceux de l'EABCT, alors que les autres tendent à s'aligner sur les règles de l'Association. Dans les programmes de formation, le rôle de la supervision varie également d'un pays à l'autre. Ces variations touchent aussi bien la quantité de supervisions demandées, ses modalités d'application, que les critères de reconnaissance des superviseurs. L'EABCT a récemment publié des recommandations pour la reconnaissance des superviseurs, pour garantir que les superviseurs soient spécifiquement formés à cette activité. Ces critères sont plus sévères que ceux de la plupart des associations de TCC ou des règlementations nationales du titre de psychothérapeute, ce qui peut poser des problèmes d'implémentation, même dans les pays qui disposent d'une législation en matière de psychothérapie. Nous assistons à une tendance allant vers une professionnalisation plus grande de l'activité de supervision. Cette professionnalisation, pour autant qu'elle soit scientifiquement fondée, mérite sans doute d'être défendue. Il s'agira cependant d'être attentif au fait qu'un excès de règlements ne bloque pas les possibilités de formation et par conséquence la diffusion des TCC, notamment dans les régions où elles sont encore peu implantées.
Resumo:
Cette thèse présente un travail audiovisuel « L'examen clinique du sein ». Avec l'unité « L'examen génital » elle forme le module « Gynécologie » du projet Virtual Skills Lab (VSL). Le but du projet VSL est d'établir un portail d'enseignement en ligne pour l'enseignement des compétences cliniques (ce terme étant utilisé ici comme équivalent de l'anglais « clinical skills »). Les compétences traitées sont celles exigées par le Catalogue suisse des objectifs d'apprentissage. L'unité « L'examen clinique du sein » est constituée d'une multitude de courtes séquences vidéo qui peuvent être regardées à la suite ou de manière individuelle. Elle est divisée en étapes logiques telles que l'inspection ou la palpation. Chacune de ces étapes appelées « skill » est présentée de deux façons : comme vue d'ensemble et par une approche pas à pas. La séquence « vue d'ensemble » présente le skill en temps réel et représente donc une visualisation du but à atteindre par l'apprenant. Le skill est décomposé en petites étapes (step), les procédures sont montrées au ralenti, munies d'une explication par une voix off. Le format de ces séquences est présenté en double largeur, la partie de gauche montre l'action, la partie de droite est utilisée pour des tableaux ou des graphiques explicatifs. Les différents gestes des compétences cliniques sont rarement standardisés. Pour VSL, un processus de validation sur la base d'un consensus suisse a été mis en place. Ceci ne veut néanmoins pas dire que les modules VSL validés ont été intégrés dans le curriculum de toutes les universités suisses. Vu la complexité des curriculums et la multitude de facteurs entrant enjeu, notamment sur l'intégration des moyens d'enseignement audiovisuels, leur implémentation est une phase critique de tout projet de ce genre. En Suisse, le multilinguisme y ajoute un degré de complexité. A Lausanne, « L'examen clinique du sein » a été introduit aussi bien dans la formation pré- que postgraduée.
Resumo:
Cette contribution a pour objectif d'analyser le degré d'implémentation des systèmes d'indicateurs dans les établissements scolaires. Elle cherche aussi à savoir si les indicateurs retenus intègrent les préoccupations et les acquis de la recherche, et singulièrement de la recherche en économie de l'éducation, en matière de déterminants de la performance scolaire. Autrement dit, si les directions d'établissements utilisent des systèmes d'indicateurs, ces systèmes permettent-ils de suivre des variables dont la littérature a démontré ou tend à montrer l'influence sur la performance scolaire ? Autrement dit encore, y a-t-il une capitalisation des variables potentiellement explicatives de la performance scolaire dans les indicateurs utilisés pour le pilotage des établissements scolaires ?
Resumo:
Summary Ecotones are sensitive to change because they contain high numbers of species living at the margin of their environmental tolerance. This is equally true of tree-lines, which are determined by attitudinal or latitudinal temperature gradients. In the current context of climate change, they are expected to undergo modifications in position, tree biomass and possibly species composition. Attitudinal and latitudinal tree-lines differ mainly in the steepness of the underlying temperature gradient: distances are larger at latitudinal tree-lines, which could have an impact on the ability of tree species to migrate in response to climate change. Aside from temperature, tree-lines are also affected on a more local level by pressure from human activities. These are also changing as a consequence of modifications in our societies and may interact with the effects of climate change. Forest dynamics models are often used for climate change simulations because of their mechanistic processes. The spatially-explicit model TreeMig was used as a base to develop a model specifically tuned for the northern European and Alpine tree-line ecotones. For the latter, a module for land-use change processes was also added. The temperature response parameters for the species in the model were first calibrated by means of tree-ring data from various species and sites at both tree-lines. This improved the growth response function in the model, but also lead to the conclusion that regeneration is probably more important than growth for controlling tree-line position and species' distributions. The second step was to implement the module for abandonment of agricultural land in the Alps, based on an existing spatial statistical model. The sensitivity of its most important variables was tested and the model's performance compared to other modelling approaches. The probability that agricultural land would be abandoned was strongly influenced by the distance from the nearest forest and the slope, bath of which are proxies for cultivation costs. When applied to a case study area, the resulting model, named TreeMig-LAb, gave the most realistic results. These were consistent with observed consequences of land-abandonment such as the expansion of the existing forest and closing up of gaps. This new model was then applied in two case study areas, one in the Swiss Alps and one in Finnish Lapland, under a variety of climate change scenarios. These were based on forecasts of temperature change over the next century by the IPCC and the HadCM3 climate model (ΔT: +1.3, +3.5 and +5.6 °C) and included a post-change stabilisation period of 300 years. The results showed radical disruptions at both tree-lines. With the most conservative climate change scenario, species' distributions simply shifted, but it took several centuries reach a new equilibrium. With the more extreme scenarios, some species disappeared from our study areas (e.g. Pinus cembra in the Alps) or dwindled to very low numbers, as they ran out of land into which they could migrate. The most striking result was the lag in the response of most species, independently from the climate change scenario or tree-line type considered. Finally, a statistical model of the effect of reindeer (Rangifer tarandus) browsing on the growth of Pinus sylvestris was developed, as a first step towards implementing human impacts at the boreal tree-line. The expected effect was an indirect one, as reindeer deplete the ground lichen cover, thought to protect the trees against adverse climate conditions. The model showed a small but significant effect of browsing, but as the link with the underlying climate variables was unclear and the model was not spatial, it was not usable as such. Developing the TreeMig-LAb model allowed to: a) establish a method for deriving species' parameters for the growth equation from tree-rings, b) highlight the importance of regeneration in determining tree-line position and species' distributions and c) improve the integration of social sciences into landscape modelling. Applying the model at the Alpine and northern European tree-lines under different climate change scenarios showed that with most forecasted levels of temperature increase, tree-lines would suffer major disruptions, with shifts in distributions and potential extinction of some tree-line species. However, these responses showed strong lags, so these effects would not become apparent before decades and could take centuries to stabilise. Résumé Les écotones son sensibles au changement en raison du nombre élevé d'espèces qui y vivent à la limite de leur tolérance environnementale. Ceci s'applique également aux limites des arbres définies par les gradients de température altitudinaux et latitudinaux. Dans le contexte actuel de changement climatique, on s'attend à ce qu'elles subissent des modifications de leur position, de la biomasse des arbres et éventuellement des essences qui les composent. Les limites altitudinales et latitudinales diffèrent essentiellement au niveau de la pente des gradients de température qui les sous-tendent les distance sont plus grandes pour les limites latitudinales, ce qui pourrait avoir un impact sur la capacité des espèces à migrer en réponse au changement climatique. En sus de la température, la limite des arbres est aussi influencée à un niveau plus local par les pressions dues aux activités humaines. Celles-ci sont aussi en mutation suite aux changements dans nos sociétés et peuvent interagir avec les effets du changement climatique. Les modèles de dynamique forestière sont souvent utilisés pour simuler les effets du changement climatique, car ils sont basés sur la modélisation de processus. Le modèle spatialement explicite TreeMig a été utilisé comme base pour développer un modèle spécialement adapté pour la limite des arbres en Europe du Nord et dans les Alpes. Pour cette dernière, un module servant à simuler des changements d'utilisation du sol a également été ajouté. Tout d'abord, les paramètres de la courbe de réponse à la température pour les espèces inclues dans le modèle ont été calibrées au moyen de données dendrochronologiques pour diverses espèces et divers sites des deux écotones. Ceci a permis d'améliorer la courbe de croissance du modèle, mais a également permis de conclure que la régénération est probablement plus déterminante que la croissance en ce qui concerne la position de la limite des arbres et la distribution des espèces. La seconde étape consistait à implémenter le module d'abandon du terrain agricole dans les Alpes, basé sur un modèle statistique spatial existant. La sensibilité des variables les plus importantes du modèle a été testée et la performance de ce dernier comparée à d'autres approches de modélisation. La probabilité qu'un terrain soit abandonné était fortement influencée par la distance à la forêt la plus proche et par la pente, qui sont tous deux des substituts pour les coûts liés à la mise en culture. Lors de l'application en situation réelle, le nouveau modèle, baptisé TreeMig-LAb, a donné les résultats les plus réalistes. Ceux-ci étaient comparables aux conséquences déjà observées de l'abandon de terrains agricoles, telles que l'expansion des forêts existantes et la fermeture des clairières. Ce nouveau modèle a ensuite été mis en application dans deux zones d'étude, l'une dans les Alpes suisses et l'autre en Laponie finlandaise, avec divers scénarios de changement climatique. Ces derniers étaient basés sur les prévisions de changement de température pour le siècle prochain établies par l'IPCC et le modèle climatique HadCM3 (ΔT: +1.3, +3.5 et +5.6 °C) et comprenaient une période de stabilisation post-changement climatique de 300 ans. Les résultats ont montré des perturbations majeures dans les deux types de limites de arbres. Avec le scénario de changement climatique le moins extrême, les distributions respectives des espèces ont subi un simple glissement, mais il a fallu plusieurs siècles pour qu'elles atteignent un nouvel équilibre. Avec les autres scénarios, certaines espèces ont disparu de la zone d'étude (p. ex. Pinus cembra dans les Alpes) ou ont vu leur population diminuer parce qu'il n'y avait plus assez de terrains disponibles dans lesquels elles puissent migrer. Le résultat le plus frappant a été le temps de latence dans la réponse de la plupart des espèces, indépendamment du scénario de changement climatique utilisé ou du type de limite des arbres. Finalement, un modèle statistique de l'effet de l'abroutissement par les rennes (Rangifer tarandus) sur la croissance de Pinus sylvestris a été développé, comme première étape en vue de l'implémentation des impacts humains sur la limite boréale des arbres. L'effet attendu était indirect, puisque les rennes réduisent la couverture de lichen sur le sol, dont on attend un effet protecteur contre les rigueurs climatiques. Le modèle a mis en évidence un effet modeste mais significatif, mais étant donné que le lien avec les variables climatiques sous jacentes était peu clair et que le modèle n'était pas appliqué dans l'espace, il n'était pas utilisable tel quel. Le développement du modèle TreeMig-LAb a permis : a) d'établir une méthode pour déduire les paramètres spécifiques de l'équation de croissance ä partir de données dendrochronologiques, b) de mettre en évidence l'importance de la régénération dans la position de la limite des arbres et la distribution des espèces et c) d'améliorer l'intégration des sciences sociales dans les modèles de paysage. L'application du modèle aux limites alpines et nord-européennes des arbres sous différents scénarios de changement climatique a montré qu'avec la plupart des niveaux d'augmentation de température prévus, la limite des arbres subirait des perturbations majeures, avec des glissements d'aires de répartition et l'extinction potentielle de certaines espèces. Cependant, ces réponses ont montré des temps de latence importants, si bien que ces effets ne seraient pas visibles avant des décennies et pourraient mettre plusieurs siècles à se stabiliser.
Resumo:
Les réformes du système de la santé, introduisant des objectifs d'efficience et de rentabilité inspirés de la doctrine de la Nouvelle gouvernance publique (NGOP), impactent l'organisation des hôpitaux et ses acteurs. Cette recherche étudie les conséquences de l'implémentation de la logique et des outils managériaux sur la profession d'infirmière en termes de contenu du travail et d'identité professionnelle. La reconfiguration des tâches au sein des structures hospitalières semble réduire l'autonomie de ces acteurs de terrain et affecter le sens que les infirmières donnent à leur travail. Par le prisme du pouvoir discrétionnaire, l'étude montre comment le personnel infirmier, principalement selon ses critères moraux, use de stratégies d'ajustement pour faire coïncider ses valeurs avec l'environnement professionnel. Toutefois, la disjonction entre les impératifs managériaux et les valeurs des infirmières engendre de la souffrance au travail. Dans une approche psychosociale, ce mémoire relie le mal-être des infirmières au concept de la « qualité empêchée » qui dévoile le mécanisme par lequel l'action des infirmières est privée en partie de son contenu.
Resumo:
Introductionþ: L'insulinothérapie intraveineuse est la mieux adaptée pour obtenirun contrôle glycémique rapidement efficace ou lors de besoins en insulinechangeants de façon peu prévisible, mais son emploi hors des soins intensifs seheurte souvent aux manque de formation et réticences des soignants. L'inclusionL'inclusiondu contrôle glycémique rapide dans nos standards institutionnels de priseen charge de l'AVC aigu a suscité une demande de protocole thérapeutiqueadapté aux besoins de l'Unité cérébrovasculaire.Patients et méthodesþ: Le protocole d'insulinothérapie a été dérivé d'algorithmespubliés intégrant glycémie actuelle, cinétique glycémique et sensibilité àl'insuline du patient. Aux repas, une augmentation du débit d'insuline iv. pendant1 h a été ajoutée. Les objectifs glycémiques étaient 4-6þmmol/l en préprandialetþ< 8þmmol/l en postprandial. L'implémentation s'est faite à travers unprocessus de co-construction (outils de gestion, documents et activités de formation)avec les responsables médico-infirmiers du service.Résultatsþ: Les données des 90 premiers patients ont été analysées (diabète connuþ:38, hyperglycémie nouvelleþ: 52, 2715h de traitement cumulées). Les duréesd'insulinothérapie iv. étaient de 34,5 h [interquartile 24-39] et 26,5 h [21-36,3] respectivement(pþ=þ0,03), les délais d'atteinte de l'objectif de 5 h [4.0-8.25] et 7 h[4.0-9.75] (pþ=þns.). Pendant les 24 h suivantes, les taux de glycémies dans la cibleétaient de 70,4þ%/81,3þ% (90,3þ%/94,6þ% entre 4-8þmmol/l), avec un faible tauxd'hypoglycémies (3,9þ%/3,1þ%þ< 4,0þmmol/l, 0,4þ%/0,2þ%þ<þ3,3þmmol/l) et un contrôleglycémique postprandial comparable (excursions +2,6þmmol/l [0,7-3,9] et+1,7þmmol/l [0,6-3,7]þ; Nþ=þ75þ; pþ=þns.).Conclusionþ: L'insulinothérapie intraveineuse hors des soins intensifs est faisable,hautement sûre et efficace, même avec des objectifs glycémiques particulièrementstricts. Outre la fiabilité perçue de l'outil de gestion, la démarche departenariat adoptée avec les soignants, permettant la prise en compte de leurspréoccupations à chaque étape du processus, a été un facteur de succès importantpour son implémentation.
Resumo:
SummaryThe alcohol use of adolescents and young adults is one of the world's most important and costliest health problems. Particularly, binge drinking (i.e. drinking an important amount of alcohol in one occasion) among young people increase the risk of detrimental consequences such as blackouts, injuries, at-risk sexual behaviors, involvement in violent acts, academic failure, and suicide attempts. In countries with mandatory conscription mechanisms, such as Switzerland, the army provides a unique opportunity to reach a large portion of this high risk population. We used this sample to evaluate the prevalence of binge drinking among young men, to test the efficacy of brief motivational interventions (BMI) as a primary and secondary preventive measure, and to examine the mechanisms underlying BMI in this age group.We showed that binge drinking among young French-speaking Swiss men is less of an exception than it is the norm. Of those using alcohol, 75.5% had a binge drinking episode at least monthly, and 69.3% of all consumption reported in a one-week diary was due to binge drinking days.We used two different inclusion modes to evaluate the success of alcohol BMI. In the first randomized controlled trial, inclusion relied on a random selection of conscripts. BMI efficacy was evaluated in a sample of conscripts who visited the army recruitment centre that is potentially generalizable to the entire population. In the second randomized controlled trial, we included subjects voluntarily participating in BMI. This venue might be more realistic for young adults; it is more akin to the MI spirit, in which it is crucial for individuals to control their own decisions.Regarding BMI efficacy as a secondary prevention measure (i.e. to help decrease alcohol use among at-risk drinkers, defined here as those having a binge drinking episode at least monthly), it was effective among randomly selected at-risk drinkers, whereas it was not effective among at-risk drinkers who voluntarily showed up. Individuals who showed interest in BMI had more severe patterns of alcohol use, which may have made change more difficult and calls for treatment that is more intensive. BMI demonstrated a 20% reduction in weekly alcohol use among randomly selected participants, indicating potential interest in BMI implementation within similar community settings.Regarding BMI efficacy as a primary prevention measure (i.e. to help maintain low levels of use among low-risk drinkers), it had significant protective effects among low-risk drinkers voluntarily showing up whereas it was not effective among low-risk drinkers randomly selected. This suggests that BMI might help young individuals keep their drinking at low levels, especially when they are interested in discussing their alcohol use. Therefore, BMI has potentially promising uses in primary prevention efforts. The content of these interventions for low-risk drinkers who do not seek BMI on their own should be further evaluated.BMI mechanisms were addressed since little is known about exactly which elements of it work, or which of the counselor and subject communication behaviors are most effective in triggering behavior changes. The causal chain hypothesis developed in the motivational interviewing (MI) theory was followed, and it was found that counselor behaviors consistent with the MI approach (MICO) were significantly more likely to be followed by participant language in favor of change (change talk, CT), while behaviors inconsistent with MI (MIIN) were significantly less likely to do so. Several CT dimensions measured during BMI (particularly Ability, Desire, and Need to change) were predictive of change in alcohol use. Our findings lend strong support for the use of MICO behaviors and the avoidance of MIIN behaviors in eliciting CT, and point out that particular attention should be paid to the utterances in several sub-dimensions of CT and to the strength of expression, since these are good indicators of potential actual behavior change in future.RésuméLa consommation d'alcool chez les adolescents et les jeunes adultes est un des problèmes de santé les plus importants et les plus coûteux dans le monde. En particulier, les consommations importantes d'alcool en une occasion (binge drinking) parmi les jeunes adultes ont été liées à des conséquences telles que pertes de connaissance, accidents et blessures, comportements sexuels à risque, violences, difficultés scolaires et tentatives de suicide. Les pays qui, comme la Suisse, connaissent un processus de recrutement obligatoire pour l'armée offrent une opportunité unique d'atteindre une large portion de cette population à hauts risques. Nous avons utilisé cet échantillon pour évaluer la prévalence du binge drinking parmi les jeunes hommes, pour tester l'efficacité de l'intervention brève motivationnelle (IBM) comme mesure de prévention primaire et secondaire, et pour examiner les mécanismes sous-tendant ce type d'interventions.La première partie de cette étude montre que le binge drinking est moins une exception que la norme parmi les jeunes hommes suisses francophones. 75.5% des personnes consommant de l'alcool avaient au moins un épisode de binge drinking par mois et 69.3% du total des boissons alcoolisées reportées comme consommation de la semaine précédant le questionnaire avaient été consommées lors d'épisodes de binge drinking.Pour évaluer l'efficacité de l'IBM dans ce cadre, nous avons utilisé deux modes d'inclusion. Dans une première étude randomisée contrôlée, nous avons inclus des personnes sélectionnées au hasard parmi toutes celles se présentant au centre de recrutement, créant ainsi un groupe potentiellement représentatif de l'ensemble du collectif. Dans la deuxième étude randomisée contrôlée, nous avons inclus des sujets se présentant volontairement pour recevoir une IBM, prendre des volontaires pouvant être plus proche de la réalité et plus proche de l'esprit motivationnel dans lequel il est crucial que l'individu contrôle ses décisions.En regardant l'IBM comme mesure de prévention secondaire (c'est-à-dire aider à diminuer la consommation d'alcool chez les consommateurs à risque, définis ici comme au moins un épisode de binge drinking par mois), l'IBM était efficace lorsque les participants étaient inclus au hasard et inefficace lorsqu'ils étaient volontaires. Les jeunes hommes volontaires pour un IBM avaient un mode de consommation particulièrement sévère qui pourrait être plus difficile à changer et nécessiter un traitement plus intensif. Parmi les personnes sélectionnées au hasard, l'IBM permettait une diminution de 20% de la consommation hebdomadaire d'alcool, montrant l'intérêt potentiel d'une implémentation de ce type de mesures dans des contextes communautaires similaires.En ce qui concerne l'IBM comme mesure de prévention primaire (c'est-à-dire aider à maintenir une consommation à bas risque chez les consommateurs à bas risque), l'IBM avaient un effet protectif significatif parmi les jeunes hommes volontaires pour une IBM, mais pas d'effet chez ceux sélectionnés au hasard. Ces résultats suggèrent que l'IBM pourrait aider de jeunes personnes à maintenir un niveau de consommation à bas risque si celles-ci s'intéressent à discuter cette consommation et aurait ainsi un potentiel intéressant comme mesure de prévention primaire. Le contenu de l'IBM pour des consommateurs à bas risque non-volontaires pour une IBM devra encore être évalué.Nous avons ensuite examiné les mécanismes de l'IBM car son fonctionnement est encore peu expliqué et les comportements de l'intervenant et du sujet les plus à même de provoquer le changement ne sont pas bien définis. En suivant l'hypothèse d'une chaine causale développée dans la littérature de l'entretien motivationnel (EM), nous avons pu montrer qu'un discours en faveur du changement chez le sujet était plus probable après des comportements de l'intervenant recommandés dans l'EM et moins probable après des comportements à éviter dans l'EM ; et que plusieurs dimensions de ce discours en faveur du changement (notamment la capacité, le désir et le besoin de changer) prédisaient un changement effectif dans la consommation d'alcool. Ces résultats encouragent donc à utiliser des comportements recommandés dans l'EM pour favoriser un discours en faveur du changement. Ils montrent aussi qu'une attention particulière doit être portée à la fréquence et à la force avec laquelle sont exprimées certaines dimensions de ce discours car ceux-ci indiquent un potentiel changement effectif de comportement.Résumé vulgariséLa consommation d'alcool chez les adolescents et les jeunes adultes est un des problèmes de santé les plus importants et les plus coûteux dans le monde. En particulier, les consommations importantes d'alcool en une occasion (binge drinking) parmi les jeunes adultes augmentent fortement les risques de conséquences telles que pertes de connaissance, accidents et blessures, comportements sexuels à risque, violences, difficultés scolaires et tentatives de suicide. Les pays qui, comme la Suisse, connaissent un processus de recrutement obligatoire pour l'armée offrent une opportunité unique d'atteindre une large portion de cette population à hauts risques. Nous avons utilisé cet échantillon pour évaluer l'importance du phénomène de binge drinking, pour tester l'efficacité de l'intervention brève motivationnelle (IBM) comme mesure de prévention de la consommation à risque d'alcool, et pour examiner comment fonctionne ce type d'interventions.La première partie de cette étude montre que le binge drinking est moins une exception que la norme parmi les jeunes hommes suisses francophones. Trois quart des personnes consommant de l'alcool avaient au moins un épisode de binge drinking par mois. Presque 70% du total des boissons alcoolisées consommées durant la semaine précédant le questionnaire avaient été consommées lors d'épisodes de binge drinking.Nous avons ensuite mené deux études pour évaluer l'efficacité de l'IBM dans ce cadre. Dans une première étude, nous avons sélectionné des personnes au hasard parmi toutes celles se présentant au centre de recrutement, créant ainsi un groupe potentiellement représentatif de l'ensemble du collectif. Dans la deuxième étude, nous avons inclus toutes les personnes se présentant volontairement pour recevoir une IBM, prendre des volontaires pouvant être plus proche de la réalité et plus proche de l'approche motivationnelle dans laquelle il est crucial que l'individu contrôle ses décisions. Dans les deux études, nous testions l'efficacité de l'IBM comme mesure de prévention primaire et secondaire (voir ci-dessous).En regardant l'IBM comme mesure de prévention secondaire (c'est-à-dire aider à diminuer la consommation d'alcool chez les consommateurs à risque, définis ici comme au moins un épisode de binge drinking par mois), l'IBM était efficace lorsque les participants étaient inclus au hasard et inefficace lorsqu'ils étaient volontaires. Les jeunes hommes volontaires pour un IBM avaient un mode de consommation particulièrement sévère qui pourrait être plus difficile à changer et nécessiter un traitement plus intensif. Parmi les personnes sélectionnées au hasard, l'IBM permettait une diminution de 20% de la consommation hebdomadaire d'alcool, montrant l'intérêt potentiel de la mise en place de ce type de mesures dans des contextes communautaires similaires.En ce qui concerne l'IBM comme mesure de prévention primaire (c'est-à-dire aider à maintenir une consommation à bas risque chez les consommateurs à bas risque), l'IBM avaient un effet protectif parmi les jeunes hommes volontaires pour une IBM, mais pas d'effet chez ceux sélectionnés au hasard. Ces résultats suggèrent que l'IBM pourrait aider de jeunes personnes à maintenir un niveau de consommation à bas risque si celles-ci s'intéressent à discuter de cette consommation. Le contenu de l'IBM pour des consommateurs à bas risque non-volontaires pour une IBM devra encore être évalué.Nous avons ensuite examiné le fonctionnement de l'IBM et cherché quels comportements de l'intervenant et du jeune homme pouvaient être les plus à même d'amener à un changement dans la consommation. Nous avons pu montrer que 1) un discours en faveur du changement chez le jeune homme était plus probable après des comportements de l'intervenant recommandés dans l'approche motivationnelle et moins probable après des comportements non-recommandés ; et 2) plusieurs dimensions de ce discours en faveur du changement (notamment la capacité, le désir et le besoin de changer) prédisaient un changement effectif dans la consommation d'alcool. Ces résultats encouragent donc à utiliser des comportements recommandés dans l'EM pour favoriser un discours en faveur du changement. Ils montrent aussi qu'une attention particulière doit être portée à certaines dimensions de ce discours car celles-ci indiquent un potentiel changement effectif de comportement.
Resumo:
Résumé Ce travail de thèse étudie des moyens de formalisation permettant d'assister l'expert forensique dans la gestion des facteurs influençant l'évaluation des indices scientifiques, tout en respectant des procédures d'inférence établies et acceptables. Selon une vue préconisée par une partie majoritaire de la littérature forensique et juridique - adoptée ici sans réserve comme point de départ - la conceptualisation d'une procédure évaluative est dite 'cohérente' lors qu'elle repose sur une implémentation systématique de la théorie des probabilités. Souvent, par contre, la mise en oeuvre du raisonnement probabiliste ne découle pas de manière automatique et peut se heurter à des problèmes de complexité, dus, par exemple, à des connaissances limitées du domaine en question ou encore au nombre important de facteurs pouvant entrer en ligne de compte. En vue de gérer ce genre de complications, le présent travail propose d'investiguer une formalisation de la théorie des probabilités au moyen d'un environment graphique, connu sous le nom de Réseaux bayesiens (Bayesian networks). L'hypothèse principale que cette recherche envisage d'examiner considère que les Réseaux bayesiens, en concert avec certains concepts accessoires (tels que des analyses qualitatives et de sensitivité), constituent une ressource clé dont dispose l'expert forensique pour approcher des problèmes d'inférence de manière cohérente, tant sur un plan conceptuel que pratique. De cette hypothèse de travail, des problèmes individuels ont été extraits, articulés et abordés dans une série de recherches distinctes, mais interconnectées, et dont les résultats - publiés dans des revues à comité de lecture - sont présentés sous forme d'annexes. D'un point de vue général, ce travail apporte trois catégories de résultats. Un premier groupe de résultats met en évidence, sur la base de nombreux exemples touchant à des domaines forensiques divers, l'adéquation en termes de compatibilité et complémentarité entre des modèles de Réseaux bayesiens et des procédures d'évaluation probabilistes existantes. Sur la base de ces indications, les deux autres catégories de résultats montrent, respectivement, que les Réseaux bayesiens permettent également d'aborder des domaines auparavant largement inexplorés d'un point de vue probabiliste et que la disponibilité de données numériques dites 'dures' n'est pas une condition indispensable pour permettre l'implémentation des approches proposées dans ce travail. Le présent ouvrage discute ces résultats par rapport à la littérature actuelle et conclut en proposant les Réseaux bayesiens comme moyen d'explorer des nouvelles voies de recherche, telles que l'étude de diverses formes de combinaison d'indices ainsi que l'analyse de la prise de décision. Pour ce dernier aspect, l'évaluation des probabilités constitue, dans la façon dont elle est préconisée dans ce travail, une étape préliminaire fondamentale de même qu'un moyen opérationnel.
Resumo:
EXECUTIVE SUMMARY : Evaluating Information Security Posture within an organization is becoming a very complex task. Currently, the evaluation and assessment of Information Security are commonly performed using frameworks, methodologies and standards which often consider the various aspects of security independently. Unfortunately this is ineffective because it does not take into consideration the necessity of having a global and systemic multidimensional approach to Information Security evaluation. At the same time the overall security level is globally considered to be only as strong as its weakest link. This thesis proposes a model aiming to holistically assess all dimensions of security in order to minimize the likelihood that a given threat will exploit the weakest link. A formalized structure taking into account all security elements is presented; this is based on a methodological evaluation framework in which Information Security is evaluated from a global perspective. This dissertation is divided into three parts. Part One: Information Security Evaluation issues consists of four chapters. Chapter 1 is an introduction to the purpose of this research purpose and the Model that will be proposed. In this chapter we raise some questions with respect to "traditional evaluation methods" as well as identifying the principal elements to be addressed in this direction. Then we introduce the baseline attributes of our model and set out the expected result of evaluations according to our model. Chapter 2 is focused on the definition of Information Security to be used as a reference point for our evaluation model. The inherent concepts of the contents of a holistic and baseline Information Security Program are defined. Based on this, the most common roots-of-trust in Information Security are identified. Chapter 3 focuses on an analysis of the difference and the relationship between the concepts of Information Risk and Security Management. Comparing these two concepts allows us to identify the most relevant elements to be included within our evaluation model, while clearing situating these two notions within a defined framework is of the utmost importance for the results that will be obtained from the evaluation process. Chapter 4 sets out our evaluation model and the way it addresses issues relating to the evaluation of Information Security. Within this Chapter the underlying concepts of assurance and trust are discussed. Based on these two concepts, the structure of the model is developed in order to provide an assurance related platform as well as three evaluation attributes: "assurance structure", "quality issues", and "requirements achievement". Issues relating to each of these evaluation attributes are analysed with reference to sources such as methodologies, standards and published research papers. Then the operation of the model is discussed. Assurance levels, quality levels and maturity levels are defined in order to perform the evaluation according to the model. Part Two: Implementation of the Information Security Assurance Assessment Model (ISAAM) according to the Information Security Domains consists of four chapters. This is the section where our evaluation model is put into a welldefined context with respect to the four pre-defined Information Security dimensions: the Organizational dimension, Functional dimension, Human dimension, and Legal dimension. Each Information Security dimension is discussed in a separate chapter. For each dimension, the following two-phase evaluation path is followed. The first phase concerns the identification of the elements which will constitute the basis of the evaluation: ? Identification of the key elements within the dimension; ? Identification of the Focus Areas for each dimension, consisting of the security issues identified for each dimension; ? Identification of the Specific Factors for each dimension, consisting of the security measures or control addressing the security issues identified for each dimension. The second phase concerns the evaluation of each Information Security dimension by: ? The implementation of the evaluation model, based on the elements identified for each dimension within the first phase, by identifying the security tasks, processes, procedures, and actions that should have been performed by the organization to reach the desired level of protection; ? The maturity model for each dimension as a basis for reliance on security. For each dimension we propose a generic maturity model that could be used by every organization in order to define its own security requirements. Part three of this dissertation contains the Final Remarks, Supporting Resources and Annexes. With reference to the objectives of our thesis, the Final Remarks briefly analyse whether these objectives were achieved and suggest directions for future related research. Supporting resources comprise the bibliographic resources that were used to elaborate and justify our approach. Annexes include all the relevant topics identified within the literature to illustrate certain aspects of our approach. Our Information Security evaluation model is based on and integrates different Information Security best practices, standards, methodologies and research expertise which can be combined in order to define an reliable categorization of Information Security. After the definition of terms and requirements, an evaluation process should be performed in order to obtain evidence that the Information Security within the organization in question is adequately managed. We have specifically integrated into our model the most useful elements of these sources of information in order to provide a generic model able to be implemented in all kinds of organizations. The value added by our evaluation model is that it is easy to implement and operate and answers concrete needs in terms of reliance upon an efficient and dynamic evaluation tool through a coherent evaluation system. On that basis, our model could be implemented internally within organizations, allowing them to govern better their Information Security. RÉSUMÉ : Contexte général de la thèse L'évaluation de la sécurité en général, et plus particulièrement, celle de la sécurité de l'information, est devenue pour les organisations non seulement une mission cruciale à réaliser, mais aussi de plus en plus complexe. A l'heure actuelle, cette évaluation se base principalement sur des méthodologies, des bonnes pratiques, des normes ou des standards qui appréhendent séparément les différents aspects qui composent la sécurité de l'information. Nous pensons que cette manière d'évaluer la sécurité est inefficiente, car elle ne tient pas compte de l'interaction des différentes dimensions et composantes de la sécurité entre elles, bien qu'il soit admis depuis longtemps que le niveau de sécurité globale d'une organisation est toujours celui du maillon le plus faible de la chaîne sécuritaire. Nous avons identifié le besoin d'une approche globale, intégrée, systémique et multidimensionnelle de l'évaluation de la sécurité de l'information. En effet, et c'est le point de départ de notre thèse, nous démontrons que seule une prise en compte globale de la sécurité permettra de répondre aux exigences de sécurité optimale ainsi qu'aux besoins de protection spécifiques d'une organisation. Ainsi, notre thèse propose un nouveau paradigme d'évaluation de la sécurité afin de satisfaire aux besoins d'efficacité et d'efficience d'une organisation donnée. Nous proposons alors un modèle qui vise à évaluer d'une manière holistique toutes les dimensions de la sécurité, afin de minimiser la probabilité qu'une menace potentielle puisse exploiter des vulnérabilités et engendrer des dommages directs ou indirects. Ce modèle se base sur une structure formalisée qui prend en compte tous les éléments d'un système ou programme de sécurité. Ainsi, nous proposons un cadre méthodologique d'évaluation qui considère la sécurité de l'information à partir d'une perspective globale. Structure de la thèse et thèmes abordés Notre document est structuré en trois parties. La première intitulée : « La problématique de l'évaluation de la sécurité de l'information » est composée de quatre chapitres. Le chapitre 1 introduit l'objet de la recherche ainsi que les concepts de base du modèle d'évaluation proposé. La maniéré traditionnelle de l'évaluation de la sécurité fait l'objet d'une analyse critique pour identifier les éléments principaux et invariants à prendre en compte dans notre approche holistique. Les éléments de base de notre modèle d'évaluation ainsi que son fonctionnement attendu sont ensuite présentés pour pouvoir tracer les résultats attendus de ce modèle. Le chapitre 2 se focalise sur la définition de la notion de Sécurité de l'Information. Il ne s'agit pas d'une redéfinition de la notion de la sécurité, mais d'une mise en perspectives des dimensions, critères, indicateurs à utiliser comme base de référence, afin de déterminer l'objet de l'évaluation qui sera utilisé tout au long de notre travail. Les concepts inhérents de ce qui constitue le caractère holistique de la sécurité ainsi que les éléments constitutifs d'un niveau de référence de sécurité sont définis en conséquence. Ceci permet d'identifier ceux que nous avons dénommés « les racines de confiance ». Le chapitre 3 présente et analyse la différence et les relations qui existent entre les processus de la Gestion des Risques et de la Gestion de la Sécurité, afin d'identifier les éléments constitutifs du cadre de protection à inclure dans notre modèle d'évaluation. Le chapitre 4 est consacré à la présentation de notre modèle d'évaluation Information Security Assurance Assessment Model (ISAAM) et la manière dont il répond aux exigences de l'évaluation telle que nous les avons préalablement présentées. Dans ce chapitre les concepts sous-jacents relatifs aux notions d'assurance et de confiance sont analysés. En se basant sur ces deux concepts, la structure du modèle d'évaluation est développée pour obtenir une plateforme qui offre un certain niveau de garantie en s'appuyant sur trois attributs d'évaluation, à savoir : « la structure de confiance », « la qualité du processus », et « la réalisation des exigences et des objectifs ». Les problématiques liées à chacun de ces attributs d'évaluation sont analysées en se basant sur l'état de l'art de la recherche et de la littérature, sur les différentes méthodes existantes ainsi que sur les normes et les standards les plus courants dans le domaine de la sécurité. Sur cette base, trois différents niveaux d'évaluation sont construits, à savoir : le niveau d'assurance, le niveau de qualité et le niveau de maturité qui constituent la base de l'évaluation de l'état global de la sécurité d'une organisation. La deuxième partie: « L'application du Modèle d'évaluation de l'assurance de la sécurité de l'information par domaine de sécurité » est elle aussi composée de quatre chapitres. Le modèle d'évaluation déjà construit et analysé est, dans cette partie, mis dans un contexte spécifique selon les quatre dimensions prédéfinies de sécurité qui sont: la dimension Organisationnelle, la dimension Fonctionnelle, la dimension Humaine, et la dimension Légale. Chacune de ces dimensions et son évaluation spécifique fait l'objet d'un chapitre distinct. Pour chacune des dimensions, une évaluation en deux phases est construite comme suit. La première phase concerne l'identification des éléments qui constituent la base de l'évaluation: ? Identification des éléments clés de l'évaluation ; ? Identification des « Focus Area » pour chaque dimension qui représentent les problématiques se trouvant dans la dimension ; ? Identification des « Specific Factors » pour chaque Focus Area qui représentent les mesures de sécurité et de contrôle qui contribuent à résoudre ou à diminuer les impacts des risques. La deuxième phase concerne l'évaluation de chaque dimension précédemment présentées. Elle est constituée d'une part, de l'implémentation du modèle général d'évaluation à la dimension concernée en : ? Se basant sur les éléments spécifiés lors de la première phase ; ? Identifiant les taches sécuritaires spécifiques, les processus, les procédures qui auraient dû être effectués pour atteindre le niveau de protection souhaité. D'autre part, l'évaluation de chaque dimension est complétée par la proposition d'un modèle de maturité spécifique à chaque dimension, qui est à considérer comme une base de référence pour le niveau global de sécurité. Pour chaque dimension nous proposons un modèle de maturité générique qui peut être utilisé par chaque organisation, afin de spécifier ses propres exigences en matière de sécurité. Cela constitue une innovation dans le domaine de l'évaluation, que nous justifions pour chaque dimension et dont nous mettons systématiquement en avant la plus value apportée. La troisième partie de notre document est relative à la validation globale de notre proposition et contient en guise de conclusion, une mise en perspective critique de notre travail et des remarques finales. Cette dernière partie est complétée par une bibliographie et des annexes. Notre modèle d'évaluation de la sécurité intègre et se base sur de nombreuses sources d'expertise, telles que les bonnes pratiques, les normes, les standards, les méthodes et l'expertise de la recherche scientifique du domaine. Notre proposition constructive répond à un véritable problème non encore résolu, auquel doivent faire face toutes les organisations, indépendamment de la taille et du profil. Cela permettrait à ces dernières de spécifier leurs exigences particulières en matière du niveau de sécurité à satisfaire, d'instancier un processus d'évaluation spécifique à leurs besoins afin qu'elles puissent s'assurer que leur sécurité de l'information soit gérée d'une manière appropriée, offrant ainsi un certain niveau de confiance dans le degré de protection fourni. Nous avons intégré dans notre modèle le meilleur du savoir faire, de l'expérience et de l'expertise disponible actuellement au niveau international, dans le but de fournir un modèle d'évaluation simple, générique et applicable à un grand nombre d'organisations publiques ou privées. La valeur ajoutée de notre modèle d'évaluation réside précisément dans le fait qu'il est suffisamment générique et facile à implémenter tout en apportant des réponses sur les besoins concrets des organisations. Ainsi notre proposition constitue un outil d'évaluation fiable, efficient et dynamique découlant d'une approche d'évaluation cohérente. De ce fait, notre système d'évaluation peut être implémenté à l'interne par l'entreprise elle-même, sans recourir à des ressources supplémentaires et lui donne également ainsi la possibilité de mieux gouverner sa sécurité de l'information.
Resumo:
Résumé sous forme de thèses 1. La présente thèse de doctorat traite de la problématique des licences obligatoires en droit communautaire de la concurrence. Plus précisément, il s'agit d'examiner si et sous quelles conditions le refus de licencier un droit de propriété intellectuelle par une entreprise peut constituer un abus d'une position dominante selon l'article 82 du Traité CE. L'étude fait notamment référence aux marchés de haute technologie et ici à la décision Microsoft, qui a été publiée par la Commission européenne en mars 2004 et qui porte, dans sa deuxième partie, sur la possibilité de rendre interopérables différents composants, via des informations appelées interfaces. 2. La question d'une licence obligatoire ne se pose que si l'information recherchée est protégée par un droit de propriété intellectuelle et si cette information ne peut être obtenue par d'autres moyens. C'est pourquoi la première partie de l'étude examine deux sujets importants concernant l'interopérabilité: d'une part la méthode de décompilation permet-elle d'obtenir des interfaces de logiciel, d'autre part, les interfaces sont-elles protégées par le droit d'auteur. 3. En ce qui concerne la décompilation des programmes d'ordinateur, l'étude démontre que cette méthode ne permet pas de rendre interopérables différents programmes d'ordinateur de manière efficace. Le droit européen a légalisé cette méthode, après des débats publics très vifs, par l'article 6 de la directive concernant la protection juridique des programmes d'ordinateur (91/250/CEE). Il semble néanmoins que la lutte pour un tel droit de décompilation a été vaine :Tout d'abord, l'article 6 est rédigé d'une façon très complexe et autorise une décompilation seulement selon des conditions très restrictives. En plus, la décompilation en elle-même est un travail très complexe qui peut durer des années et qui ne garantit pas de trouver les informations recherchées. 4. En outre, une réglementation de décompilation n'existe jusqu'à présent que dans le domaine du droit d'auteur, tandis qu'une règlementation pour la protection juridique des brevets fait défaut. La question concernant la protection juridique des brevets pour les inventions mises en rouvre par ordinateur restera aussi dans le futur sans réponse, étant donné que le Parlement européen a rejeté une telle proposition de directive en juillet 2005. Ceci est regrettable, parce que la proposition de directive prévoyait explicitement un droit de décompilation. La Commission européenne projette, cependant, de réexaminer les dispositions de décompilation relatives au droit d'auteur. Dans ce contexte, il devrait notamment être examiné si les dispositions de décompilation de l'article 6 de la directive des programmes d'ordinateur sont satisfaisantes afin de garantir une (certaine) interopérabilité. 5. Un réexamen de la directive concernant la protection juridique des programmes d'ordinateur pourrait aussi servir à clarifier l'existence et l'étendue de la protection d'interfaces. L'article 1, paragraphe 2, 2ième phrase se réfère dans ce contexte uniquement à un principe reconnu en droit international du droit d'auteur, dénommé «dichotomie d'idée/d'expression» : seul l'expression individuelle est protégée, mais pas l'idée en tant que telle. La rédaction de l'article devrait ainsi préciser qu'une spécification d'une interface constitue toujours une idée, qui ne peut pas être protégée, alors que l'implémentation de l'interface dans un programme d'ordinateur représente son expression et devrait ainsi bénéficier d'une protection selon le droit d'auteur. Or, dans la plupart des cas, la spécification d'une interface est suffisante pour rendre interopérables différents programmes d'ordinateur. 6. La Commission dans sa décision Microsoft a pourtant supposé que les interfaces recherchées par les concurrents de Microsoft pouvaient être protégées par des droits de propriété intellectuelle. En effet, le seul moyen à disposition pour ceux qui veulent rendre interopérables leur programme d'ordinateur et avec celui d'une entreprise dominante est le recours à l'article 82 CE. Ici, la question qui se pose est celle de savoir si le refus de fournir des interfaces constitue un abus d'une position dominante et donc mène à l'octroi d'une licence obligatoire. 7. Dans le contexte des licences obligatoires selon l'article 82 CE, il est courant d'invoquer la relation de conflit entre la propriété intellectuelle et le droit de la concurrence. Or, l'étude démontre que ces deux institutions de droit poursuivent le même but, à savoir l'encouragement au bien-être des consommateurs en stimulant l'innovation. Les objectifs convergent notamment si on définit la concurrence plutôt en tant que concept dynamique. Par conséquent, des restrictions temporaires à la concurrence peuvent être acceptées, si ceci mène à la création de la concurrence à long terme. Pourtant, des conflits potentiels persistent, étant donné qu'on ne peut pas argumenter que chaque restriction à la concurrence effectuée par le titulaire d'un droit de propriété intellectuelle mène à l'incitation de l'innovation à long terme. 8. En réfutant ce dernier argument, l'étude démontre que les droits de propriété intellectuelle ne peuvent pas être généralement exemptés de l'application du droit de la concurrence. Notamment, selon l'état actuel de la jurisprudence, il ne peut être soutenu qu'il existe un noyau dur spécifique du droit de la propriété intellectuelle, qui ne devrait pas être affecté par le droit de la concurrence. L'ordonnance d'une licence obligatoire peut être justifiée sur la base de l'article 82 CE, dans la mesure où la balance d'intérêts démontre un effet positif au bien-être des consommateurs résultant d'une telle licence. En même temps, les droits individuels du propriétaire d'un droit de propriété intellectuelle sont à respecter, surtout la liberté contractuelle et la protection de la propriété. 9. Le droit de la liberté contractuelle et le droit de la propriété sont atteints, si le propriétaire d'un droit, de nature matérielle ou immatérielle, n'a exercé son droit de propriété que pour lui-même, exclusivement, sans jamais avoir démontré la volonté de s'acquitter de ses droits. C'est donc surtout pour protéger ces deux principes de droit que la présente étude fait une distinction majeure entre le refus de contracter et la rupture d'une relation contractuelle. 10. Le premier cas est traité de manière détaillée sous le chapitre de la doctrine des facilités essentielles (EFD). Selon la position prise ici, cette constellation est caractérisée par l'obligation du propriétaire de contracter et ainsi d'établir des relations d'affaires avec ses concurrents. Or, un principe selon lequel les entreprises en position dominante sont obligées d'encourager la concurrence, n'existe pas en droit communautaire. Il est toutefois nécessaire de pouvoir imposer une telle obligation, notamment dans les cas où la concurrence sur un marché ne peut être mise en oeuvre à long terme par un autre moyen et où cette ouverture du marché n'entraîne pas d'obstacles à l'innovation. 11. La constellation particulière des facilités essentielles exige néanmoins un contrôle plus prudent que dans les cas constituant une rupture de relation d'affaires. Cette exigence a été respectée sur base des conditions que l'arrêt Bronner a établit concernant l'essentialité d'une facilité. Même si l'établissement en question remplit toutes les conditions afin d'être qualifié d'essentiel, l'ordonnance d'un accès obligé doit encore passer l'examen d'une balance d'intérêts. Celle-ci mène encore plus rarement à l'octroi d'une licence dans les cas où la facilité est protégée par un droit de propriété intellectuelle. Des exceptions à cette règle existent si le droit de la propriété intellectuelle n'a pas été obtenu par des moyens basés sur le mérite ou si la fonction d'incitation à l'innovation est en doute. 12. L'affaire IMS Health présente un tel cas exceptionnel. La structure recherchée par les concurrents de IMS remplissait, au moment de l'examen de l'affaire par la Commission européenne, tous les critères d'un standard de facto. En outre, au moment du développement de la structure, celle-ci ne bénéficiait pas d'une protection de droit immatérielle. Une telle protection ne lui a été accordée que depuis la transposition de la directive concernant la protection juridique des bases de données en droit d'auteur allemand. Par conséquent, IMS ne pouvait avoir entrepris des investissements dans la construction de la structure, afin de profiter ultérieurement de la protection du droit d'auteur. Ceci affaiblit la présomption selon laquelle l'utilisation exclusive du droit aurait dû être préservée afin de ne pas faire obstacle à l'innovation. 13. Le cas européen de Microsoft se distingue de cette constellation. Les conditions qui ont mené à la décision de la Commission européenne quant à l'attribution d'interopérabilité et ainsi à une licence obligatoire d'interfaces, ont été présenté de manière détaillée dans cette étude. Elles fournissent les meilleures preuves que les «circonstances exceptionnelles », qui ont été déterminantes dans l'affaire Magill de la Cour de justice, à savoir «l'empêchement de la création d'un nouveau produit », le «manque de justification objective » et «l'empêchement de toute concurrence sur un marché en aval distinct », ne peuvent constituer une énumération exhaustive pour l'ordonnance d'une licence obligatoire. 14. En effet, dans l'affaire Microsoft, l'intersection progressive d'interopérabilité entre les systèmes d'exploitation étrangers à Microsoft et des systèmes d'exploitation de Microsoft n'a pas empêché la création de nouveaux produits. Le marché en question, celui des systèmes d'exploitation pour serveur de groupe de travail, avait été créé par l'entreprise Novell. Par conséquent, quand Microsoft a accédé à ce marché, d'autres entreprises en situation d'offre s'y trouvaient déjà avec leurs produits. Il s'en suit que, en 'exigeant de Microsoft des interfaces correspondantes, il s'agissait d'assurer l'interopérabilité avec les produits de Microsoft, et surtout avec l'omniprésent système d'exploitation pour ordinateur PC, afin de maintenir des produits déjà existants sur le marché, et notamment des produits «pionniers »qui avaient pris le risque d'exploiter le marché des systèmes d'exploitation pour serveur de groupe de travail. 15. Une autre circonstance exceptionnelle que celle d'un nouveau produit empêché donne l'impulsion à la thèse qu'une intersection progressive aux interfaces de Microsoft constitue un abus d'une position dominante selon l'article 82 CE : celle du transfert du pouvoir de marché. L'intégration verticale d'une entreprise en position dominante sur un marché qui n'a jusqu'à ce jour été que fourni par celle-ci, et qui rompt des relations contractuelles avec des entreprises agissant sur ce marché, afin d'évincer de la concurrence, constitue un cas de type connu de l'abus, reconnue pour la première fois dans l'arrêt Commercial Solvents de la CJCE: L'entreprise en position dominante utilise son pouvoir sur un marché initial et stratégiquement important et se sert ainsi des avantages, qui ne peuvent être conciliés avec le concept de concurrence par le mérite. 16. Il doit être de même si le bien en question bénéficie d'un droit immatériel, et qu'il s'agit ainsi d'un arrêt d'une licence. En effet, les fonctions, en principe supposées, d'incitation et de mérite, perdent de leur importance si le bien en question a déjà fait objet d'une licence: Il ne peut pas alors être argumenté que le propriétaire d'un droit immatériel doit l'utiliser exclusivement lui-même, afin de profiter des fruits de son mérite. Cet argument particulier de la prise en compte de l'effet d'incitation et de mérite perd d'autant plus de sa pertinence, si l'entreprise en cause ne fournit pas sur le marché dérivé une innovation, mais ne sert juste qu'à vendre un produit déjà préexistant. 17. Dans le domaine de licence de propriété intellectuelle obligatoire selon l'article 82 CE, les juridictions européennes n'ont jusqu'à présent uniquement eu à décider sur des constellations de cas, dans lesquelles le droit n'avait pas été l'objet d'une licence antérieure. Avec le cas Microsoft, le Tribunal de Première Instance a maintenant la possibilité de décider d'une distinction importante à faire en droit de la concurrence entre, d'une part, les cas dans lesquels un droit de propriété intellectuelle n'a pas encore été l'objet d'une licence et de l'autre, ceux dans lesquels il s'agit d'une rupture de licence.
Resumo:
ABSTRACT: Massive synaptic pruning following over-growth is a general feature of mammalian brain maturation. Pruning starts near time of birth and is completed by time of sexual maturation. Trigger signals able to induce synaptic pruning could be related to dynamic functions that depend on the timing of action potentials. Spike-timing-dependent synaptic plasticity (STDP) is a change in the synaptic strength based on the ordering of pre- and postsynaptic spikes. The relation between synaptic efficacy and synaptic pruning suggests that the weak synapses may be modified and removed through competitive "learning" rules. This plasticity rule might produce the strengthening of the connections among neurons that belong to cell assemblies characterized by recurrent patterns of firing. Conversely, the connections that are not recurrently activated might decrease in efficiency and eventually be eliminated. The main goal of our study is to determine whether or not, and under which conditions, such cell assemblies may emerge out of a locally connected random network of integrate-and-fire units distributed on a 2D lattice receiving background noise and content-related input organized in both temporal and spatial dimensions. The originality of our study stands on the relatively large size of the network, 10,000 units, the duration of the experiment, 10E6 time units (one time unit corresponding to the duration of a spike), and the application of an original bio-inspired STDP modification rule compatible with hardware implementation. A first batch of experiments was performed to test that the randomly generated connectivity and the STDP-driven pruning did not show any spurious bias in absence of stimulation. Among other things, a scale factor was approximated to compensate for the network size on the ac¬tivity. Networks were then stimulated with the spatiotemporal patterns. The analysis of the connections remaining at the end of the simulations, as well as the analysis of the time series resulting from the interconnected units activity, suggest that feed-forward circuits emerge from the initially randomly connected networks by pruning. RESUME: L'élagage massif des synapses après une croissance excessive est une phase normale de la ma¬turation du cerveau des mammifères. L'élagage commence peu avant la naissance et est complété avant l'âge de la maturité sexuelle. Les facteurs déclenchants capables d'induire l'élagage des synapses pourraient être liés à des processus dynamiques qui dépendent de la temporalité rela¬tive des potentiels d'actions. La plasticité synaptique à modulation temporelle relative (STDP) correspond à un changement de la force synaptique basé sur l'ordre des décharges pré- et post- synaptiques. La relation entre l'efficacité synaptique et l'élagage des synapses suggère que les synapses les plus faibles pourraient être modifiées et retirées au moyen d'une règle "d'appren¬tissage" faisant intervenir une compétition. Cette règle de plasticité pourrait produire le ren¬forcement des connexions parmi les neurones qui appartiennent à une assemblée de cellules caractérisée par des motifs de décharge récurrents. A l'inverse, les connexions qui ne sont pas activées de façon récurrente pourraient voir leur efficacité diminuée et être finalement éliminées. Le but principal de notre travail est de déterminer s'il serait possible, et dans quelles conditions, que de telles assemblées de cellules émergent d'un réseau d'unités integrate-and¬-fire connectées aléatoirement et distribuées à la surface d'une grille bidimensionnelle recevant à la fois du bruit et des entrées organisées dans les dimensions temporelle et spatiale. L'originalité de notre étude tient dans la taille relativement grande du réseau, 10'000 unités, dans la durée des simulations, 1 million d'unités de temps (une unité de temps correspondant à une milliseconde), et dans l'utilisation d'une règle STDP originale compatible avec une implémentation matérielle. Une première série d'expériences a été effectuée pour tester que la connectivité produite aléatoirement et que l'élagage dirigé par STDP ne produisaient pas de biais en absence de stimu¬lation extérieure. Entre autres choses, un facteur d'échelle a pu être approximé pour compenser l'effet de la variation de la taille du réseau sur son activité. Les réseaux ont ensuite été stimulés avec des motifs spatiotemporels. L'analyse des connexions se maintenant à la fin des simulations, ainsi que l'analyse des séries temporelles résultantes de l'activité des neurones, suggèrent que des circuits feed-forward émergent par l'élagage des réseaux initialement connectés au hasard.
Resumo:
La fabrication, la distribution et l'usage de fausses pièces d'identité constituent une menace pour la sécurité autant publique que privée. Ces faux documents représentent en effet un catalyseur pour une multitude de formes de criminalité, des plus anodines aux formes les plus graves et organisées. La dimension, la complexité, la faible visibilité, ainsi que les caractères répétitif et évolutif de la fraude aux documents d'identité appellent des réponses nouvelles qui vont au-delà d'une approche traditionnelle au cas par cas ou de la stratégie du tout technologique dont la perspective historique révèle l'échec. Ces nouvelles réponses passent par un renforcement de la capacité de comprendre les problèmes criminels que posent la fraude aux documents d'identité et les phénomènes qui l'animent. Cette compréhension est tout bonnement nécessaire pour permettre d'imaginer, d'évaluer et de décider les solutions et mesures les plus appropriées. Elle requière de développer les capacités d'analyse et la fonction de renseignement criminel qui fondent en particulier les modèles d'action de sécurité les plus récents, tels que l'intelligence-led policing ou le problem-oriented policing par exemple. Dans ce contexte, le travail doctoral adopte une position originale en postulant que les fausses pièces d'identité se conçoivent utilement comme la trace matérielle ou le vestige résultant de l'activité de fabrication ou d'altération d'un document d'identité menée par les faussaires. Sur la base de ce postulat fondamental, il est avancé que l'exploitation scientifique, méthodique et systématique de ces traces au travers d'un processus de renseignement forensique permet de générer des connaissances phénoménologiques sur les formes de criminalité qui fabriquent, diffusent ou utilisent les fausses pièces d'identité, connaissances qui s'intègrent et se mettent avantageusement au service du renseignement criminel. A l'appui de l'épreuve de cette thèse de départ et de l'étude plus générale du renseignement forensique, le travail doctoral propose des définitions et des modèles. Il décrit des nouvelles méthodes de profilage et initie la constitution d'un catalogue de formes d'analyses. Il recourt également à des expérimentations et des études de cas. Les résultats obtenus démontrent que le traitement systématique de la donnée forensique apporte une contribution utile et pertinente pour le renseignement criminel stratégique, opérationnel et tactique, ou encore la criminologie. Combiné aux informations disponibles par ailleurs, le renseignement forensique produit est susceptible de soutenir l'action de sécurité dans ses dimensions répressive, proactive, préventive et de contrôle. En particulier, les méthodes de profilage des fausses pièces d'identité proposées permettent de révéler des tendances au travers de jeux de données étendus, d'analyser des modus operandi ou d'inférer une communauté ou différence de source. Ces méthodes appuient des moyens de détection et de suivi des séries, des problèmes et des phénomènes criminels qui s'intègrent dans le cadre de la veille opérationnelle. Ils permettent de regrouper par problèmes les cas isolés, de mettre en évidence les formes organisées de criminalité qui méritent le plus d'attention, ou de produire des connaissances robustes et inédites qui offrent une perception plus profonde de la criminalité. Le travail discute également les difficultés associées à la gestion de données et d'informations propres à différents niveaux de généralité, ou les difficultés relatives à l'implémentation du processus de renseignement forensique dans la pratique. Ce travail doctoral porte en premier lieu sur les fausses pièces d'identité et leur traitement par les protagonistes de l'action de sécurité. Au travers d'une démarche inductive, il procède également à une généralisation qui souligne que les observations ci-dessus ne valent pas uniquement pour le traitement systématique des fausses pièces d'identité, mais pour celui de tout type de trace dès lors qu'un profil en est extrait. Il ressort de ces travaux une définition et une compréhension plus transversales de la notion et de la fonction de renseignement forensique. The production, distribution and use of false identity documents constitute a threat to both public and private security. Fraudulent documents are a catalyser for a multitude of crimes, from the most trivial to the most serious and organised forms. The dimension, complexity, low visibility as well as the repetitive and evolving character of the production and use of false identity documents call for new solutions that go beyond the traditional case-by-case approach, or the technology-focused strategy whose failure is revealed by the historic perspective. These new solutions require to strengthen the ability to understand crime phenomena and crime problems posed by false identity documents. Such an understanding is pivotal in order to be able to imagine, evaluate and decide on the most appropriate measures and responses. Therefore, analysis capacities and crime intelligence functions, which found the most recent policing models such as intelligence-led policing or problem-oriented policing for instance, have to be developed. In this context, the doctoral research work adopts an original position by postulating that false identity documents can be usefully perceived as the material remnant resulting from the criminal activity undertook by forgers, namely the manufacture or the modification of identity documents. Based on this fundamental postulate, it is proposed that a scientific, methodical and systematic processing of these traces through a forensic intelligence approach can generate phenomenological knowledge on the forms of crime that produce, distribute and use false identity documents. Such knowledge should integrate and serve advantageously crime intelligence efforts. In support of this original thesis and of a more general study of forensic intelligence, the doctoral work proposes definitions and models. It describes new profiling methods and initiates the construction of a catalogue of analysis forms. It also leverages experimentations and case studies. Results demonstrate that the systematic processing of forensic data usefully and relevantly contributes to strategic, tactical and operational crime intelligence, and also to criminology. Combined with alternative information available, forensic intelligence may support policing in its repressive, proactive, preventive and control activities. In particular, the proposed profiling methods enable to reveal trends among extended datasets, to analyse modus operandi, or to infer that false identity documents have a common or different source. These methods support the detection and follow-up of crime series, crime problems and phenomena and therefore contribute to crime monitoring efforts. They enable to link and regroup by problems cases that were previously viewed as isolated, to highlight organised forms of crime which deserve greatest attention, and to elicit robust and novel knowledge offering a deeper perception of crime. The doctoral research work discusses also difficulties associated with the management of data and information relating to different levels of generality, or difficulties associated with the implementation in practice of the forensic intelligence process. The doctoral work focuses primarily on false identity documents and their treatment by policing stakeholders. However, through an inductive process, it makes a generalisation which underlines that observations do not only apply to false identity documents but to any kind of trace as soon as a profile is extracted. A more transversal definition and understanding of the concept and function of forensic intelligence therefore derives from the doctoral work.