1000 resultados para Propagation des contraintes
Resumo:
Des techniques de visualisation sont exploitées dans les enquêtes judiciaires afin de facili- ter le traitement d'affaires d'envergure. Les éléments pertinents de l'enquête sont repré- sentés par des schémas décrivant les relations entre les événements et les entités d'inté- rêt. Les exploitations classiques de ces techniques qui s'apparentent à la construction de graphes, sont par exemple: la représentation de réseaux criminels, de trafics de marchan- dises, de chronologies d'événements, ainsi que la visualisation de relations téléphoniques et financières. Dans ce contexte, la visualisation soutient un nombre importants d'objectifs, tels qu'analyser les traces et les informations collectées, évaluer a posteriori une investiga- tion, aider à qualifier les infractions, faciliter l'appréhension d'un dossier et la prise de déci- sions au cours d'une enquête, voire soutenir une argumentation lors du procès. La pratique intègre des outils logiciels simples qui produisent des graphiques élégants et souvent per- cutants. Cette recherche tend à montrer qu'il existe des disparités étonnantes lors de l'ex- ploitation de ces techniques. Des biais de raisonnement et de perception peuvent être induits, allant jusqu'à provoquer des décisions aux conséquences parfois désastreuses. Pour mettre en évidence ces difficultés, des évaluations ont été effectuées avec des prati- ciens et des étudiants. Elles ont permis d'établir une image empirique de l'étendue des variations de conception et d'interprétation des représentations, ainsi que de leurs impacts sur la prise de décision. La nature et la diversité des concepts à représenter, l'absence de consensus sur la manière de représenter les données, la diversité des solutions visuelles envisageables, les contraintes imposées par les outils exploités et l'absence d'une forma- lisation claire du langage, sont autant de causes supposées des difficultés. Ce constat révèle la nécessité de consolider les méthodes pratiquées.
Resumo:
Flexitime : between autonomy and constraints. A case study in SwitzerlandBy looking at how a new regulation is translated into everyday practices, this dissertation explores through a specific case study the degree of autonomy gained by wage-earners with the introduction of flexible working schedules. The guiding hypothesis is that by introducing procedural rules, flexitime opens the space for more daily negotiations, therefore reinforcing the effects of power relations inherent to employment relationships. The goal is to understand, through a sociological approach, how employees experience a form of working time that transfers responsibility for time management to them, and howthey integrate work-related constraints with their life outside the workplace. The first part of the dissertation sets up the context of the case study. It offers a definition of flexibility by situating it in the broader history of work time, as well as in relation to various organizational forms and cultural transformations. An international literature review and a focus on the Swiss case are offered. In the second part, the focus is narrowed to a specificSwiss firm specialized in mail-order, where a system of individualized management of annual work time has been introduced. By combining a quantitative and qualitative approach, it is possible to analyze determinants of the practices internal to the firm anddeterminants related to employees themselves, as well as the way in which employees articulate these two orders of constraints. The results show that the implementation of flexible working time is not affecting daily negotiation practices so much as it is creating a set of informal rules. The autonomy ofwage-earners is expressed first and foremost through their capacity to produce, negotiate, and legitimate these rules. The intraindividual level has proven to be central for the social regulation of flexible working time. It is not so much a question of legitimation, but rather the process of institutionalization nurtured by the energy invested by wage-earners in their personal quest for a compromise between their various roles, identities, and aspirations. It is this individualized regulation that is ensuring the success of the system under study.
Resumo:
La biologie de la conservation est communément associée à la protection de petites populations menacées d?extinction. Pourtant, il peut également être nécessaire de soumettre à gestion des populations surabondantes ou susceptibles d?une trop grande expansion, dans le but de prévenir les effets néfastes de la surpopulation. Du fait des différences tant quantitatives que qualitatives entre protection des petites populations et contrôle des grandes, il est nécessaire de disposer de modèles et de méthodes distinctes. L?objectif de ce travail a été de développer des modèles prédictifs de la dynamique des grandes populations, ainsi que des logiciels permettant de calculer les paramètres de ces modèles et de tester des scénarios de gestion. Le cas du Bouquetin des Alpes (Capra ibex ibex) - en forte expansion en Suisse depuis sa réintroduction au début du XXème siècle - servit d?exemple. Cette tâche fut accomplie en trois étapes : En premier lieu, un modèle de dynamique locale, spécifique au Bouquetin, fut développé : le modèle sous-jacent - structuré en classes d?âge et de sexe - est basé sur une matrice de Leslie à laquelle ont été ajoutées la densité-dépendance, la stochasticité environnementale et la chasse de régulation. Ce modèle fut implémenté dans un logiciel d?aide à la gestion - nommé SIM-Ibex - permettant la maintenance de données de recensements, l?estimation automatisée des paramètres, ainsi que l?ajustement et la simulation de stratégies de régulation. Mais la dynamique d?une population est influencée non seulement par des facteurs démographiques, mais aussi par la dispersion et la colonisation de nouveaux espaces. Il est donc nécessaire de pouvoir modéliser tant la qualité de l?habitat que les obstacles à la dispersion. Une collection de logiciels - nommée Biomapper - fut donc développée. Son module central est basé sur l?Analyse Factorielle de la Niche Ecologique (ENFA) dont le principe est de calculer des facteurs de marginalité et de spécialisation de la niche écologique à partir de prédicteurs environnementaux et de données d?observation de l?espèce. Tous les modules de Biomapper sont liés aux Systèmes d?Information Géographiques (SIG) ; ils couvrent toutes les opérations d?importation des données, préparation des prédicteurs, ENFA et calcul de la carte de qualité d?habitat, validation et traitement des résultats ; un module permet également de cartographier les barrières et les corridors de dispersion. Le domaine d?application de l?ENFA fut exploré par le biais d?une distribution d?espèce virtuelle. La comparaison à une méthode couramment utilisée pour construire des cartes de qualité d?habitat, le Modèle Linéaire Généralisé (GLM), montra qu?elle était particulièrement adaptée pour les espèces cryptiques ou en cours d?expansion. Les informations sur la démographie et le paysage furent finalement fusionnées en un modèle global. Une approche basée sur un automate cellulaire fut choisie, tant pour satisfaire aux contraintes du réalisme de la modélisation du paysage qu?à celles imposées par les grandes populations : la zone d?étude est modélisée par un pavage de cellules hexagonales, chacune caractérisée par des propriétés - une capacité de soutien et six taux d?imperméabilité quantifiant les échanges entre cellules adjacentes - et une variable, la densité de la population. Cette dernière varie en fonction de la reproduction et de la survie locale, ainsi que de la dispersion, sous l?influence de la densité-dépendance et de la stochasticité. Un logiciel - nommé HexaSpace - fut développé pour accomplir deux fonctions : 1° Calibrer l?automate sur la base de modèles de dynamique (par ex. calculés par SIM-Ibex) et d?une carte de qualité d?habitat (par ex. calculée par Biomapper). 2° Faire tourner des simulations. Il permet d?étudier l?expansion d?une espèce envahisseuse dans un paysage complexe composé de zones de qualité diverses et comportant des obstacles à la dispersion. Ce modèle fut appliqué à l?histoire de la réintroduction du Bouquetin dans les Alpes bernoises (Suisse). SIM-Ibex est actuellement utilisé par les gestionnaires de la faune et par les inspecteurs du gouvernement pour préparer et contrôler les plans de tir. Biomapper a été appliqué à plusieurs espèces (tant végétales qu?animales) à travers le Monde. De même, même si HexaSpace fut initialement conçu pour des espèces animales terrestres, il pourrait aisément être étndu à la propagation de plantes ou à la dispersion d?animaux volants. Ces logiciels étant conçus pour, à partir de données brutes, construire un modèle réaliste complexe, et du fait qu?ils sont dotés d?une interface d?utilisation intuitive, ils sont susceptibles de nombreuses applications en biologie de la conservation. En outre, ces approches peuvent également s?appliquer à des questions théoriques dans les domaines de l?écologie des populations et du paysage.<br/><br/>Conservation biology is commonly associated to small and endangered population protection. Nevertheless, large or potentially large populations may also need human management to prevent negative effects of overpopulation. As there are both qualitative and quantitative differences between small population protection and large population controlling, distinct methods and models are needed. The aim of this work was to develop theoretical models to predict large population dynamics, as well as computer tools to assess the parameters of these models and to test management scenarios. The alpine Ibex (Capra ibex ibex) - which experienced a spectacular increase since its reintroduction in Switzerland at the beginning of the 20th century - was used as paradigm species. This task was achieved in three steps: A local population dynamics model was first developed specifically for Ibex: the underlying age- and sex-structured model is based on a Leslie matrix approach with addition of density-dependence, environmental stochasticity and culling. This model was implemented into a management-support software - named SIM-Ibex - allowing census data maintenance, parameter automated assessment and culling strategies tuning and simulating. However population dynamics is driven not only by demographic factors, but also by dispersal and colonisation of new areas. Habitat suitability and obstacles modelling had therefore to be addressed. Thus, a software package - named Biomapper - was developed. Its central module is based on the Ecological Niche Factor Analysis (ENFA) whose principle is to compute niche marginality and specialisation factors from a set of environmental predictors and species presence data. All Biomapper modules are linked to Geographic Information Systems (GIS); they cover all operations of data importation, predictor preparation, ENFA and habitat suitability map computation, results validation and further processing; a module also allows mapping of dispersal barriers and corridors. ENFA application domain was then explored by means of a simulated species distribution. It was compared to a common habitat suitability assessing method, the Generalised Linear Model (GLM), and was proven better suited for spreading or cryptic species. Demography and landscape informations were finally merged into a global model. To cope with landscape realism and technical constraints of large population modelling, a cellular automaton approach was chosen: the study area is modelled by a lattice of hexagonal cells, each one characterised by a few fixed properties - a carrying capacity and six impermeability rates quantifying exchanges between adjacent cells - and one variable, population density. The later varies according to local reproduction/survival and dispersal dynamics, modified by density-dependence and stochasticity. A software - named HexaSpace - was developed, which achieves two functions: 1° Calibrating the automaton on the base of local population dynamics models (e.g., computed by SIM-Ibex) and a habitat suitability map (e.g. computed by Biomapper). 2° Running simulations. It allows studying the spreading of an invading species across a complex landscape made of variously suitable areas and dispersal barriers. This model was applied to the history of Ibex reintroduction in Bernese Alps (Switzerland). SIM-Ibex is now used by governmental wildlife managers to prepare and verify culling plans. Biomapper has been applied to several species (both plants and animals) all around the World. In the same way, whilst HexaSpace was originally designed for terrestrial animal species, it could be easily extended to model plant propagation or flying animals dispersal. As these softwares were designed to proceed from low-level data to build a complex realistic model and as they benefit from an intuitive user-interface, they may have many conservation applications. Moreover, theoretical questions in the fields of population and landscape ecology might also be addressed by these approaches.
Resumo:
L'aquifère du Seeland représente une richesse en ressources hydriques qu'il est impératif de préserver contre tout risque de détérioration. Cet aquifère prolifique est constitué principalement de sédiments alluviaux post-glaciaires (graviers, sables et limons). Il est soumis aux contraintes environnementales des pratiques d'agriculture intensive, du réseau routier, des villes et de leurs activités industrielles. La connaissance optimale de ces ressources est donc primordiale pour leur protection. Dans cette optique, deux sites Kappelen et Grenchen représentatifs de l'aquifère du Seeland ont été étudiés. L'objectif de ce travail est de caractériser d'un point de vue hydrogéophysique l'aquifère au niveau de ces deux sites, c'est-à-dire, comprendre la dynamique des écoulements souterrains par l'application des méthodes électriques de surface associées aux diagraphies en intégrant des méthodes hydrogéologiques. Pour le site de Kappelen, les méthodes électriques de surface ont permis d'identifier les différents faciès géoélectriques en présence et de mettre en évidence leur disposition en une structure tabulaire et horizontale. Il s'agit d'un aquifère libre constitué d'une série de graviers allant jusqu'à 15 m de profondeur reposant sur de la moraine argileuse. Les diagraphies électriques, nucléaires et du fluide ont servis à la détermination des caractéristiques pétrophysiques et hydrauliques de l'aquifère qui contrôlent son comportement hydrodynamique. Les graviers aquifères de Kappelen présentent deux minéraux dominants: quartz et calcite. Les analyses minéralogiques indiquent que ces deux éléments constituent 65 à 75% de la matrice. La porosité totale obtenue par les diagraphies nucléaires varie de 20 à 30 %, et de 22 à 29 % par diagraphies électrique. Avec les faibles valeurs de Gamma Ray ces résultats indiquent que l'aquifère des graviers de Kappelen est dépourvu d'argile minéralogique. La perméabilité obtenue par diagraphies du fluide varie de 3.10-4 à 5.10-2 m/s, et par essais de pompage de 10-4 à 10-2 m/s. Les résultats des analyses granulométriques indiquent une hétérogénéité granulométrique au niveau des graviers aquifères. La fraction de sables, sables très fins, silts et limons constitue de 10 à 40 %. Ces éléments jouent un rôle important dans le comportement hydraulique de l'aquifère. La porosité efficace de 11 à 25% estimée à partir des résultats des analyses granulométriques suppose que les zones les plus perméables correspondent aux zones les plus graveleuses du site. Etablie sur le site de Kappelen, cette méthodologie a été utilisée sur le site de Grenchen. Les méthodes électriques de surface indiquent que l'aquifère captif de Grenchen est constitué des sables silteux comprenant des passages sableux, encadrés par des silts argileux imperméables. L'aquifère de Grenchen est disposé dans une structure relativement tabulaire et horizontale. Son épaisseur totale peut atteindre les 25 m vers le sud et le sud ouest ou les passages sableux sont les plus importants. La détermination des caractéristiques pétrophysiques et hydrauliques s'est faite à l'aide des diagraphies. Les intensités Gamma Ray varient de 30 à 100 cps, les plus fortes valeurs n'indiquent qu'une présence d'éléments argileux mais pas de bancs d'argile. Les porosités totales de 15 à 25% et les densités globales de 2.25 à 2.45 g/cm3 indiquent que la phase minérale (matrice) est composée essentiellement de quartz et de calcaire. Les densités de matrice varient entre 2.65 et 2.75 g/cm3. La perméabilité varie de 2 10-6 à 5 10-4 m/s. La surestimation des porosités totales à partir des diagraphies électriques de 25 à 42% est due à la présence d'argiles. -- The vast alluvial Seeland aquifer system in northwestern Switzerland is subjected to environmental challenges due to intensive agriculture, roads, cities and industrial activities. Optimal knowledge of the hydrological resources of this aquifer system is therefore important for their protection. Two representative sites, Kappelen and Grenchen, of the Seeland aquifer were investigated using surface-based geoelectric methods and geophysical borehole logging methods. By integrating of hydrogeological and hydrogeophysical methods, a reliable characterization of the aquifer system at these two sites can be performed in order to better understand the governing flow and transport process. At the Kappelen site, surface-based geoelectric methods allowed to identify various geoelectric facies and highlighted their tabular and horizontal structure. It is an unconfined aquifer made up of 15 m thick gravels with an important sandy fraction and bounded by a shaly glacial aquitard. Electrical and nuclear logging measurements allow for constraining the petrophysical and hydrological parameters of saturated gravels. Results indicate that in agreement with mineralogical analyses, matrix of the probed formations is dominated by quartz and calcite with densities of 2.65 and 2.71 g/cc, respectively. These two minerals constitute approximately 65 to 75 % of the mineral matrix. Matrix density values vary from 2.60 to 2.75 g/cc. Total porosity values obtained from nuclear logs range from 20 to 30 % and are consistent with those obtained from electrical logs ranging from 22 to 29 %. Together with the inherently low natural gamma radiation and the matrix density values obtained from other nuclear logging measurements, this indicates that at Kappelen site the aquifer is essentially devoid of clay. Hydraulic conductivity values obtained by the Dilution Technique vary between 3.10-4 and 5.10-2 m/s, while pumping tests give values ranging from 10-4 to 10-2 m/s. Grain size analysis of gravel samples collected from boreholes cores reveal significant granulometric heterogeneity of these deposits. Calculations based on these granulometric data have shown that the sand-, silt- and shale-sized fractions constitute between 10 and 40 % of the sample mass. The presence of these fine elements in general and their spatial distribution in particular are important as they largely control the distribution of the total and effective porosity as well as the hydraulic conductivity. Effective porosity values ranging from 11 to 25% estimated from grain size analyses indicate that the zones of higher hydraulic conductivity values correspond to the zones dominated by gravels. The methodology established at the Kappelen site was then applied to the Grenchen site. Results from surface-based geoelectric measurements indicate that it is a confined aquifer made up predominantly of shaly sands with intercalated sand lenses confined impermeable shally clay. The Grenchen confined aquifer has a relatively tabular and horizontal structure with a maximum thickness of 25 m in the south and the southwest with important sand passages. Petrophysical and hydrological characteristics were performed using electrical and nuclear logging. Natural gamma radiation values ranging from 30 to 100 cps indicate presence of a clay fraction but not of pure clay layers. Total porosity values obtained from electrical logs vary form 25 to 42%, whereas those obtained from nuclear logs values vary from 15 to 25%. This over-estimation confirms presences of clays. Density values obtained from nuclear logs varying from 2.25 to 2.45 g/cc in conjunction with the total porosity values indicate that the dominating matrix minerals are quartz and calcite. Matrix density values vary between 2.65 and 2.75 g/cc. Hydraulic conductivity values obtained by the Dilution Technique vary from 2 10-6 to 5 10-4 m/s.
Resumo:
Cet article est consacré au travail de production du discours public policier à propos de la délinquance et à son contenu. Rendant compte de changements ayant affecté le contenu et les modalités d'énonciation de ce discours, nous montrons que ceux-ci relèvent non seulement de stratégies de gestion de son image publique par la police, mais également d'autres enjeux professionnels et corporatistes. En s'appuyant sur la mise en oeuvre de nouveaux savoir-faire communicationnels, l'institution policière produit en effet un discours sur le monde mieux adapté aux contraintes journalistiques, lui permettant également de revendiquer des moyens supplémentaires et de légitimer les outils professionnels controversés que sont le « profilage racial » et la préférence pour des solutions coercitives. Nous visons ainsi à contribuer à une meilleure compréhension des enjeux entourant la production d'un discours sur le monde par un groupe professionnel qui est également une « source » incontournable pour les journalistes.
Resumo:
L'espace du cyclisme se caractérise à la fois par la concurrence entre les cyclistes pour l'obtention des meilleurs classements et celle des organisateurs de course et de l'UCI (Union Cycliste Internationale) pour leure contrôle de ces classements. Cette double concurrence produit une concentration de la valeur des compétitions, permet à l'UCI de jouer un rôle de régulateur et a pour effet de structurer le travail des cyclistes et leur forme d'emploi, avec des conséquences sur leur, spécialement en termes de précarité. Les coureurs n'exercent ainsi que très peu de contrôle sur les principes de classement mais en subissent les effets. Les carrières des cyclistes, leurs contraintes et leurs expériences vont cependant se décliner différemment selon le type d'équipe à laquelle ils appartiennent. Si pour certains d'entre eux, l'équipe offre un accompagnement et sont en condition de pouvoir limiter leur charge de travail, d'autres ne sont pas en mesure de le faire. Face à cette précarité le dopage apparaît comme une stratégie de maintien en emploi.
Resumo:
Si on considère une famille de variétés projectives complexes non singulières, c"est un fait aujourd'hui bien connu que les possibles variétés singulières vers lesquelles peut dégénerer cette famille doivent vérifier certaines contraintes, parmi lesquelles une importante relation entre la cohomologie de la fibre singulière, la cohomologie de la fibre générique et la monodromie de la famille, qui est precise par le théorème local des cycles invariants prouvé par Clemens, Deligne et Steenbrink ([1], [4], [13]) : tous les cocycles de la fibre générique qui sont invariants par la monodromie autour d¡une fibre singulière proviennent par spécialisation de la cohomologie de cette fibre singulière.
Resumo:
Cet article analyse le regain d'attractivité des villes pour les catégories socio-professionnelles supérieures dans le cas de trois centres urbains suisses. Les choix résidentiels étudiés sont étroitement liés à la recherche d'un capital spatial spécifique de la part de ménages qui placent les questions de proximité et de mobilité au coeur de leur décision de vivre en ville, qui adoptent un comportement multimodal, et qui apparaissent attachés à la proximité tout en étant potentiellement hypermobiles (à l'instar de certains pendulaires interurbains). Cette dotation en capital spatial s'explique par des stratégies d'adaptation (afin de concilier les différentes facettes de la vie quotidienne) et par certaines valeurs (notamment environnementales). Le choix résidentiel apparaît dans l'ensemble comme un choix stratégique, la localisation centrale et le potentiel de mobilité qui lui est associé devant permettre aux ménages de rendre compatible contraintes spatio-temporelles et modes de vie.
Resumo:
Contexte : Parmi les infections nosocomiales, le Staphylocoque méticilline résistant (MRSA) est le germe pathogène le plus couramment identifié dans les hôpitaux du monde entier. La stratégie de contrôle des MRSA au CHUV implique le dépistage des patients à risque. Avec la méthode de dépistage par culture, le temps d'attente est de plusieurs jours. Ceci occasionne des problèmes dans la gestion des flux des patients, principalement à cause des mesures d'isolement. Pour réduire le temps d'attente, l'hôpital envisage d'utiliser une méthode de diagnostic rapide par "polymerase chain reaction" (PCR). Méthodologie : Les données concernant les dépistages réalisés, dans trois services durant l'année 2007, ont été utilisées. Le nombre de jours d'isolement a d'abord été déterminé par patient et par service. Ensuite une analyse des coûts a été effectuée afin d'évaluer la différence des coûts entre les deux méthodes pour chaque service. Résultats : Le principal impact économique de la méthode par PCR dépend principalement du nombre de jours d'isolements évités par rapport à la méthode de culture. Aux services de soins, l'analyse a été menée sur 192 dépistages. Quand la différence de jours d'isolement est de deux jours, le coût des dépistages diminue de plus de 12kCHF et le nombre de jours d'isolement diminue de 384 jours. Au centre interdisciplinaire des urgences, sur 96 dépistages, le gain potentiel avec la méthode PCR est de 6kCHF avec une diminution de 192 jours d'isolement. Aux soins intensifs adultes, la méthode de dépistage par PCR est la méthode la plus rentable avec une diminution des coûts entre 4KCHF et 20K CHF et une diminution des jours d'isolement entre 170 et 310. Pour les trois services analysés, les résultats montrent un rapport coût-efficacité favorable pour la méthode PCR lorsque la diminution des jours d'isolement est supérieure à 1.3 jour. Quand la différence de jours d'isolement est inférieure à 1.3, il faut tenir compte d'autres paramètres, comme le coût de matériel qui doit être supérieur à 45.5 CHF, et du nombre d'analyses par dépistage, qui doit être inférieur à 3, pour que la PCR reste l'alternative la plus intéressante. Conclusions : La méthode par PCR montre des avantages potentiels importants, tant économiques qu'organisationnels qui limitent ou diminuent les contraintes liées à la stratégie de contrôle des MRSA au CHUV. [Auteure, p. 3]
Resumo:
La Securities and Exchange Commission a proposé au cours de l’été 2008 un guide permettant aux conseils d’administration des entreprises d’investissement d’appréhender plus complètement les devoirs qui s’imposent à eux dans la gestion – dans le meilleur intérêt des investisseurs – de leurs sociétés. Bien que n’entrainant pas de contraintes nouvelles, cette position de l’autorité boursière américaine rappelle non seulement les multiples obligations qui pèsent sur les administrateurs dans leur contrôle des conseillers en investissements, notamment en matière de « best execution » et de « soft dollars », mais encore que ce sont (encore et toujours) les conflits d’intérêts qui demeurent au centre des préoccupations.
Resumo:
Les conflits entre les noms de domaine et les marques de commerce surgissent essentiellement par manque de coordination entre le système d'enregistrement des noms de domaine et celui des marques. Les marques sont enregistrées par des autorités publiques gouvernementales et les droits qui en découlent ne peuvent s'exercer que sur le territoire du pays d'origine. Le système d'enregistrement des noms de domaine, basé sur la règle "du premier arrivé, premier servi", ne connaît pas de limites géographiques et ignore le principe de spécialité propre aux marques de commerce. L'absence de lien entre ces deux systèmes a permis, l'enregistrement comme noms de domaine par des tiers, de marques de commerce de renom suscitant la confusion quant aux origines des sites. Le nom de domaine constitue un nouveau signe distinctif se situant à la frontière de la régulation technique et du contenu et représente le cadre idéal pour étudier les fondements légitimes de l'intervention du droit dans le cyberespace. En effet, le système des noms de domaine se construit autour de choix et de contraintes techniques dont les concepteurs n'imaginaient pas qu'ils deviendraient la source d'un important contentieux. Les noms de domaine, portes d'accès au réseau, font l'objet d'une tentative de régulation qui concilie les forces contraires de l' ''aterritorialité'' des noms de domaine, avec la "territorialité" des marques de commerce. Cette régulation repose sur la synergie entre l'architecture technique, les normes sociales, l'autoréglementation, le marché et la loi et se présente comme un laboratoire d'idées pour une définition de la régulation de l'Internet. La problématique des noms de domaine et des marques de commerce, constitue une application pratique de cette "corégulation" et amorce ainsi une évolution juridique, facteur de construction du droit sur l'Internet.
Resumo:
Lors du phénomène d’hémostase primaire ou de thrombose vasculaire, les plaquettes sanguines doivent adhérer aux parois afin de remplir leur fonction réparatrice ou pathologique. Pour ce faire, certains facteurs rhéologiques et hémodynamiques tels que l’hématocrite, le taux de cisaillement local et les contraintes de cisaillement pariétal, entrent en jeu afin d’exclure les plaquettes sanguines de l’écoulement principal et de les transporter vers le site endommagé ou enflammé. Cette exclusion pourrait aussi être influencée par l’agrégation de globules rouges qui est un phénomène naturel présent dans tout le système cardiovasculaire selon les conditions d’écoulement. La dérive de ces agrégats de globules rouges vers le centre des vaisseaux provoque la formation de réseaux d’agrégats dont la taille et la complexité varient en fonction de l’hématocrite et des conditions de cisaillement présentes. Il en résulte un écoulement bi-phasique avec un écoulement central composé d’agrégats de globules rouges avoisinés par une région moins dense en particules où l’on peut trouver des globules rouges singuliers, des petits rouleaux de globules rouges et une importante concentration en plaquettes et globules blancs. De ce fait, il est raisonnable de penser que plus la taille des agrégats qui occupent le centre du vaisseau augmente, plus il y aura de plaquettes expulsées vers les parois vasculaires. L'objectif du projet est de quantifier, in vitro, la migration des plaquettes sanguines en fonction du niveau d’agrégation érythrocytaire présent, en faisant varier l’hématocrite, le taux de cisaillement et en promouvant l’agrégation par l’ajout d’agents tels que le dextran à poids moléculaire élevé. Cependant, le comportement non Newtonien du sang dans un écoulement tubulaire peut être vu comme un facteur confondant à cause de son impact sur l’organisation spatiale des agrégats de globules rouges. De ce fait, les études ont été réalisées dans un appareil permettant de moduler, de façon homogène, la taille et la structure de ces agrégats et de quantifier ainsi leur effet sur la migration axiale des plaquettes. Du sang de porc anti coagulé a été ajusté à différents taux d’hématocrite et insérer dans un appareil à écoulement de Couette, à température ambiante. Les plaquettes sanguines, difficilement isolables in vitro sans en activer certains ligands membranaires, ont été remplacées par des fantômes en polystyrène ayant un revêtement de biotine. La quantification de la migration de ces fantômes de plaquettes a été réalisée grâce à l’utilisation de membranes biologiques fixées sur les parois internes de l’entrefer du rhéomètre de Couette. Ces membranes ont un revêtement de streptavidine assurant une très forte affinité d’adhésion avec les microparticules biotynilées. À 40% d’hématocrite, à un cisaillement de 2 s-1, 566 ± 53 microparticules ont été comptées pour un protocole préétabli avec du sang non agrégeant, comparativement à 1077 ± 229 pour du sang normal et 1568 ± 131 pour du sang hyper agrégeant. Les résultats obtenus suggèrent une nette participation de l’agrégation érythrocytaire sur le transport des fantômes de plaquettes puisque l’adhésion de ces derniers à la paroi du rhéomètre de Couette augmente de façon quasi exponentielle selon le niveau d’agrégation présent.
Resumo:
En 2004, le gouvernement québécois s’est engagé dans une importante réorganisation de son système de santé en créant les Centres de santé et des services sociaux (CSSS). Conjugué à leur mandat de production de soins et services, les CSSS se sont vus attribuer un nouveau mandat de « responsabilité populationnelle ». Les gestionnaires se voient donc attribuer le mandat d’améliorer la santé et le bien-être d’une population définie géographiquement, en plus de répondre aux besoins des utilisateurs de soins et services. Cette double responsabilité demande aux gestionnaires d’articuler plus formellement au sein d’une gouverne locale, deux secteurs de prestations de services qui ont longtemps évolué avec peu d’interactions, « la santé publique » et « le système de soins ». Ainsi, l’incorporation de la responsabilité populationnelle amène à développer une plus grande synergie entre ces deux secteurs dans une organisation productrice de soins et services. Elle appelle des changements importants au niveau des domaines d’activités investis et demande des transformations dans certains rôles de gestion. L’objectif général de ce projet de recherche est de mieux comprendre comment le travail des gestionnaires des CSSS se transforme en situation de changement mandaté afin d’incorporer la responsabilité populationnelle dans leurs actions et leurs pratiques de gestion. Le devis de recherche s’appuie sur deux études de cas. Nous avons réalisé une étude de deux CSSS de la région de Montréal. Ces cas ont été choisis selon la variabilité des contextes socio-économiques et sanitaires ainsi que le nombre et la variété d’établissements sous la gouverne des CSSS. L’un des cas avait au sein de sa gouverne un Centre hospitalier de courte durée et l’autre non. La collecte de données se base sur trois sources principales; 1) l’analyse documentaire, 2) des entrevues semi-structurées (N=46) et 3) des observations non-participantes sur une période de près de deux ans (2005-2007). Nous avons adopté une démarche itérative, basée sur un raisonnement inductif. Pour analyser la transformation des CSSS, nous nous appuyons sur la théorie institutionnelle en théorie des organisations. Cette perspective est intéressante car elle permet de lier l’analyse du champ organisationnel, soit les différentes pressions issues des acteurs gravitant dans le système de santé québécois et le rôle des acteurs dans le processus de changement. Elle propose d’analyser à la fois les pressions environnementales qui expliquent les contraintes et les opportunités des acteurs gravitant dans le champ organisationnel de même que les pressions exercées par les CSSS et les stratégies d’actions locales que ceux-ci développent. Nous discutons de l’évolution des CSSS en présentant trois phases temporelles caractérisées par des dynamiques d’interaction entre les pressions exercées par les CSSS et celles exercées par les autres acteurs du champ organisationnel; la phase 1 porte sur l’appropriation des politiques dictées par l’État, la phase 2 réfère à l’adaptation aux orientations proposées par différents acteurs du champ organisationnel et la phase 3 correspond au développement de certains projets initiés localement. Nous montrons à travers le processus d’incorporation de la responsabilité populationnelle que les gestionnaires modifient certaines pratiques de gestion. Certains de ces rôles sont plus en lien avec la notion d’entrepreneur institutionnel, notamment, le rôle de leader, de négociateur et d’entrepreneur. À travers le processus de transformation de ces rôles, d’importants changements au niveau des actions entreprises par les CSSS se réalisent, notamment, l’organisation des services de première ligne, le développement d’interventions de prévention et de promotion de la santé de même qu’un rôle plus actif au sein de leur communauté. En conclusion, nous discutons des leçons tirées de l’incorporation de la responsabilité populationnelle au niveau d’une organisation productrice de soins et services. Nous échangeons sur les enjeux liés au développement d’une plus grande synergie entre la santé publique et le système de soins au sein d’une gouverne locale. Également, nous présentons un modèle synthèse d’un processus de mise en œuvre d’un changement mandaté dans un champ organisationnel fortement institutionnalisé en approfondissant les rôles des entrepreneurs institutionnels dans ce processus. Cette situation a été peu analysée dans la littérature jusqu’à maintenant.