999 resultados para Chimie des surfaces et des interfaces
Resumo:
Résumé sous forme de thèses 1. La présente thèse de doctorat traite de la problématique des licences obligatoires en droit communautaire de la concurrence. Plus précisément, il s'agit d'examiner si et sous quelles conditions le refus de licencier un droit de propriété intellectuelle par une entreprise peut constituer un abus d'une position dominante selon l'article 82 du Traité CE. L'étude fait notamment référence aux marchés de haute technologie et ici à la décision Microsoft, qui a été publiée par la Commission européenne en mars 2004 et qui porte, dans sa deuxième partie, sur la possibilité de rendre interopérables différents composants, via des informations appelées interfaces. 2. La question d'une licence obligatoire ne se pose que si l'information recherchée est protégée par un droit de propriété intellectuelle et si cette information ne peut être obtenue par d'autres moyens. C'est pourquoi la première partie de l'étude examine deux sujets importants concernant l'interopérabilité: d'une part la méthode de décompilation permet-elle d'obtenir des interfaces de logiciel, d'autre part, les interfaces sont-elles protégées par le droit d'auteur. 3. En ce qui concerne la décompilation des programmes d'ordinateur, l'étude démontre que cette méthode ne permet pas de rendre interopérables différents programmes d'ordinateur de manière efficace. Le droit européen a légalisé cette méthode, après des débats publics très vifs, par l'article 6 de la directive concernant la protection juridique des programmes d'ordinateur (91/250/CEE). Il semble néanmoins que la lutte pour un tel droit de décompilation a été vaine :Tout d'abord, l'article 6 est rédigé d'une façon très complexe et autorise une décompilation seulement selon des conditions très restrictives. En plus, la décompilation en elle-même est un travail très complexe qui peut durer des années et qui ne garantit pas de trouver les informations recherchées. 4. En outre, une réglementation de décompilation n'existe jusqu'à présent que dans le domaine du droit d'auteur, tandis qu'une règlementation pour la protection juridique des brevets fait défaut. La question concernant la protection juridique des brevets pour les inventions mises en rouvre par ordinateur restera aussi dans le futur sans réponse, étant donné que le Parlement européen a rejeté une telle proposition de directive en juillet 2005. Ceci est regrettable, parce que la proposition de directive prévoyait explicitement un droit de décompilation. La Commission européenne projette, cependant, de réexaminer les dispositions de décompilation relatives au droit d'auteur. Dans ce contexte, il devrait notamment être examiné si les dispositions de décompilation de l'article 6 de la directive des programmes d'ordinateur sont satisfaisantes afin de garantir une (certaine) interopérabilité. 5. Un réexamen de la directive concernant la protection juridique des programmes d'ordinateur pourrait aussi servir à clarifier l'existence et l'étendue de la protection d'interfaces. L'article 1, paragraphe 2, 2ième phrase se réfère dans ce contexte uniquement à un principe reconnu en droit international du droit d'auteur, dénommé «dichotomie d'idée/d'expression» : seul l'expression individuelle est protégée, mais pas l'idée en tant que telle. La rédaction de l'article devrait ainsi préciser qu'une spécification d'une interface constitue toujours une idée, qui ne peut pas être protégée, alors que l'implémentation de l'interface dans un programme d'ordinateur représente son expression et devrait ainsi bénéficier d'une protection selon le droit d'auteur. Or, dans la plupart des cas, la spécification d'une interface est suffisante pour rendre interopérables différents programmes d'ordinateur. 6. La Commission dans sa décision Microsoft a pourtant supposé que les interfaces recherchées par les concurrents de Microsoft pouvaient être protégées par des droits de propriété intellectuelle. En effet, le seul moyen à disposition pour ceux qui veulent rendre interopérables leur programme d'ordinateur et avec celui d'une entreprise dominante est le recours à l'article 82 CE. Ici, la question qui se pose est celle de savoir si le refus de fournir des interfaces constitue un abus d'une position dominante et donc mène à l'octroi d'une licence obligatoire. 7. Dans le contexte des licences obligatoires selon l'article 82 CE, il est courant d'invoquer la relation de conflit entre la propriété intellectuelle et le droit de la concurrence. Or, l'étude démontre que ces deux institutions de droit poursuivent le même but, à savoir l'encouragement au bien-être des consommateurs en stimulant l'innovation. Les objectifs convergent notamment si on définit la concurrence plutôt en tant que concept dynamique. Par conséquent, des restrictions temporaires à la concurrence peuvent être acceptées, si ceci mène à la création de la concurrence à long terme. Pourtant, des conflits potentiels persistent, étant donné qu'on ne peut pas argumenter que chaque restriction à la concurrence effectuée par le titulaire d'un droit de propriété intellectuelle mène à l'incitation de l'innovation à long terme. 8. En réfutant ce dernier argument, l'étude démontre que les droits de propriété intellectuelle ne peuvent pas être généralement exemptés de l'application du droit de la concurrence. Notamment, selon l'état actuel de la jurisprudence, il ne peut être soutenu qu'il existe un noyau dur spécifique du droit de la propriété intellectuelle, qui ne devrait pas être affecté par le droit de la concurrence. L'ordonnance d'une licence obligatoire peut être justifiée sur la base de l'article 82 CE, dans la mesure où la balance d'intérêts démontre un effet positif au bien-être des consommateurs résultant d'une telle licence. En même temps, les droits individuels du propriétaire d'un droit de propriété intellectuelle sont à respecter, surtout la liberté contractuelle et la protection de la propriété. 9. Le droit de la liberté contractuelle et le droit de la propriété sont atteints, si le propriétaire d'un droit, de nature matérielle ou immatérielle, n'a exercé son droit de propriété que pour lui-même, exclusivement, sans jamais avoir démontré la volonté de s'acquitter de ses droits. C'est donc surtout pour protéger ces deux principes de droit que la présente étude fait une distinction majeure entre le refus de contracter et la rupture d'une relation contractuelle. 10. Le premier cas est traité de manière détaillée sous le chapitre de la doctrine des facilités essentielles (EFD). Selon la position prise ici, cette constellation est caractérisée par l'obligation du propriétaire de contracter et ainsi d'établir des relations d'affaires avec ses concurrents. Or, un principe selon lequel les entreprises en position dominante sont obligées d'encourager la concurrence, n'existe pas en droit communautaire. Il est toutefois nécessaire de pouvoir imposer une telle obligation, notamment dans les cas où la concurrence sur un marché ne peut être mise en oeuvre à long terme par un autre moyen et où cette ouverture du marché n'entraîne pas d'obstacles à l'innovation. 11. La constellation particulière des facilités essentielles exige néanmoins un contrôle plus prudent que dans les cas constituant une rupture de relation d'affaires. Cette exigence a été respectée sur base des conditions que l'arrêt Bronner a établit concernant l'essentialité d'une facilité. Même si l'établissement en question remplit toutes les conditions afin d'être qualifié d'essentiel, l'ordonnance d'un accès obligé doit encore passer l'examen d'une balance d'intérêts. Celle-ci mène encore plus rarement à l'octroi d'une licence dans les cas où la facilité est protégée par un droit de propriété intellectuelle. Des exceptions à cette règle existent si le droit de la propriété intellectuelle n'a pas été obtenu par des moyens basés sur le mérite ou si la fonction d'incitation à l'innovation est en doute. 12. L'affaire IMS Health présente un tel cas exceptionnel. La structure recherchée par les concurrents de IMS remplissait, au moment de l'examen de l'affaire par la Commission européenne, tous les critères d'un standard de facto. En outre, au moment du développement de la structure, celle-ci ne bénéficiait pas d'une protection de droit immatérielle. Une telle protection ne lui a été accordée que depuis la transposition de la directive concernant la protection juridique des bases de données en droit d'auteur allemand. Par conséquent, IMS ne pouvait avoir entrepris des investissements dans la construction de la structure, afin de profiter ultérieurement de la protection du droit d'auteur. Ceci affaiblit la présomption selon laquelle l'utilisation exclusive du droit aurait dû être préservée afin de ne pas faire obstacle à l'innovation. 13. Le cas européen de Microsoft se distingue de cette constellation. Les conditions qui ont mené à la décision de la Commission européenne quant à l'attribution d'interopérabilité et ainsi à une licence obligatoire d'interfaces, ont été présenté de manière détaillée dans cette étude. Elles fournissent les meilleures preuves que les «circonstances exceptionnelles », qui ont été déterminantes dans l'affaire Magill de la Cour de justice, à savoir «l'empêchement de la création d'un nouveau produit », le «manque de justification objective » et «l'empêchement de toute concurrence sur un marché en aval distinct », ne peuvent constituer une énumération exhaustive pour l'ordonnance d'une licence obligatoire. 14. En effet, dans l'affaire Microsoft, l'intersection progressive d'interopérabilité entre les systèmes d'exploitation étrangers à Microsoft et des systèmes d'exploitation de Microsoft n'a pas empêché la création de nouveaux produits. Le marché en question, celui des systèmes d'exploitation pour serveur de groupe de travail, avait été créé par l'entreprise Novell. Par conséquent, quand Microsoft a accédé à ce marché, d'autres entreprises en situation d'offre s'y trouvaient déjà avec leurs produits. Il s'en suit que, en 'exigeant de Microsoft des interfaces correspondantes, il s'agissait d'assurer l'interopérabilité avec les produits de Microsoft, et surtout avec l'omniprésent système d'exploitation pour ordinateur PC, afin de maintenir des produits déjà existants sur le marché, et notamment des produits «pionniers »qui avaient pris le risque d'exploiter le marché des systèmes d'exploitation pour serveur de groupe de travail. 15. Une autre circonstance exceptionnelle que celle d'un nouveau produit empêché donne l'impulsion à la thèse qu'une intersection progressive aux interfaces de Microsoft constitue un abus d'une position dominante selon l'article 82 CE : celle du transfert du pouvoir de marché. L'intégration verticale d'une entreprise en position dominante sur un marché qui n'a jusqu'à ce jour été que fourni par celle-ci, et qui rompt des relations contractuelles avec des entreprises agissant sur ce marché, afin d'évincer de la concurrence, constitue un cas de type connu de l'abus, reconnue pour la première fois dans l'arrêt Commercial Solvents de la CJCE: L'entreprise en position dominante utilise son pouvoir sur un marché initial et stratégiquement important et se sert ainsi des avantages, qui ne peuvent être conciliés avec le concept de concurrence par le mérite. 16. Il doit être de même si le bien en question bénéficie d'un droit immatériel, et qu'il s'agit ainsi d'un arrêt d'une licence. En effet, les fonctions, en principe supposées, d'incitation et de mérite, perdent de leur importance si le bien en question a déjà fait objet d'une licence: Il ne peut pas alors être argumenté que le propriétaire d'un droit immatériel doit l'utiliser exclusivement lui-même, afin de profiter des fruits de son mérite. Cet argument particulier de la prise en compte de l'effet d'incitation et de mérite perd d'autant plus de sa pertinence, si l'entreprise en cause ne fournit pas sur le marché dérivé une innovation, mais ne sert juste qu'à vendre un produit déjà préexistant. 17. Dans le domaine de licence de propriété intellectuelle obligatoire selon l'article 82 CE, les juridictions européennes n'ont jusqu'à présent uniquement eu à décider sur des constellations de cas, dans lesquelles le droit n'avait pas été l'objet d'une licence antérieure. Avec le cas Microsoft, le Tribunal de Première Instance a maintenant la possibilité de décider d'une distinction importante à faire en droit de la concurrence entre, d'une part, les cas dans lesquels un droit de propriété intellectuelle n'a pas encore été l'objet d'une licence et de l'autre, ceux dans lesquels il s'agit d'une rupture de licence.
Resumo:
The spatial resolution visualized with hydrological models and the conceptualized images of subsurface hydrological processes often exceed resolution of the data collected with classical instrumentation at the field scale. In recent years it was possible to increasingly diminish the inherent gap to information from point like field data through the application of hydrogeophysical methods at field-scale. With regards to all common geophysical exploration techniques, electric and electromagnetic methods have arguably to greatest sensitivity to hydrologically relevant parameters. Of particular interest in this context are induced polarisation (IP) measurements, which essentially constrain the capacity of a probed subsurface region to store an electrical charge. In the absence of metallic conductors the IP- response is largely driven by current conduction along the grain surfaces. This offers the perspective to link such measurements to the characteristics of the solid-fluid-interface and thus, at least in unconsolidated sediments, should allow for first-order estimates of the permeability structure.¦While the IP-effect is well explored through laboratory experiments and in part verified through field data for clay-rich environments, the applicability of IP-based characterizations to clay-poor aquifers is not clear. For example, polarization mechanisms like membrane polarization are not applicable in the rather wide pore-systems of clay free sands, and the direct transposition of Schwarz' theory relating polarization of spheres to the relaxation mechanism of polarized cells to complex natural sediments yields ambiguous results.¦In order to improve our understanding of the structural origins of IP-signals in such environments as well as their correlation with pertinent hydrological parameters, various laboratory measurements have been conducted. We consider saturated quartz samples with a grain size spectrum varying from fine sand to fine gravel, that is grain diameters between 0,09 and 5,6 mm, as well as corresponding pertinent mixtures which can be regarded as proxies for widespread alluvial deposits. The pore space characteristics are altered by changing (i) the grain size spectra, (ii) the degree of compaction, and (iii) the level of sorting. We then examined how these changes affect the SIP response, the hydraulic conductivity, and the specific surface area of the considered samples, while keeping any electrochemical variability during the measurements as small as possible. The results do not follow simple assumptions on relationships to single parameters such as grain size. It was found that the complexity of natural occurring media is not yet sufficiently represented when modelling IP. At the same time simple correlation to permeability was found to be strong and consistent. Hence, adaptations with the aim of better representing the geo-structure of natural porous media were applied to the simplified model space used in Schwarz' IP-effect-theory. The resulting semi- empiric relationship was found to more accurately predict the IP-effect and its relation to the parameters grain size and permeability. If combined with recent findings about the effect of pore fluid electrochemistry together with advanced complex resistivity tomography, these results will allow us to picture diverse aspects of the subsurface with relative certainty. Within the framework of single measurement campaigns, hydrologiste can than collect data with information about the geo-structure and geo-chemistry of the subsurface. However, additional research efforts will be necessary to further improve the understanding of the physical origins of IP-effect and minimize the potential for false interpretations.¦-¦Dans l'étude des processus et caractéristiques hydrologiques des subsurfaces, la résolution spatiale donnée par les modèles hydrologiques dépasse souvent la résolution des données du terrain récoltées avec des méthodes classiques d'hydrologie. Récemment il est possible de réduire de plus en plus cet divergence spatiale entre modèles numériques et données du terrain par l'utilisation de méthodes géophysiques, notamment celles géoélectriques. Parmi les méthodes électriques, la polarisation provoquée (PP) permet de représenter la capacité des roches poreuses et des sols à stocker une charge électrique. En l'absence des métaux dans le sous-sol, cet effet est largement influencé par des caractéristiques de surface des matériaux. En conséquence les mesures PP offrent une information des interfaces entre solides et fluides dans les matériaux poreux que nous pouvons lier à la perméabilité également dirigée par ces mêmes paramètres. L'effet de la polarisation provoquée à été étudié dans différentes études de laboratoire, ainsi que sur le terrain. A cause d'une faible capacité de polarisation des matériaux sableux, comparé aux argiles, leur caractérisation par l'effet-PP reste difficile a interpréter d'une manière cohérente pour les environnements hétérogènes.¦Pour améliorer les connaissances sur l'importance de la structure du sous-sol sableux envers l'effet PP et des paramètres hydrologiques, nous avons fait des mesures de laboratoire variées. En détail, nous avons considéré des échantillons sableux de quartz avec des distributions de taille de grain entre sables fins et graviers fins, en diamètre cela fait entre 0,09 et 5,6 mm. Les caractéristiques de l'espace poreux sont changées en modifiant (i) la distribution de taille des grains, (ii) le degré de compaction, et (iii) le niveau d'hétérogénéité dans la distribution de taille de grains. En suite nous étudions comment ces changements influencent l'effet-PP, la perméabilité et la surface spécifique des échantillons. Les paramètres électrochimiques sont gardés à un minimum pendant les mesures. Les résultats ne montrent pas de relation simple entre les paramètres pétro-physiques comme par exemples la taille des grains. La complexité des media naturels n'est pas encore suffisamment représenté par les modèles des processus PP. Néanmoins, la simple corrélation entre effet PP et perméabilité est fort et consistant. En conséquence la théorie de Schwarz sur l'effet-PP a été adapté de manière semi-empirique pour mieux pouvoir estimer la relation entre les résultats de l'effet-PP et les paramètres taille de graines et perméabilité. Nos résultats concernant l'influence de la texture des matériaux et celles de l'effet de l'électrochimie des fluides dans les pores, permettront de visualiser des divers aspects du sous-sol. Avec des telles mesures géo-électriques, les hydrologues peuvent collectionner des données contenant des informations sur la structure et la chimie des fluides des sous-sols. Néanmoins, plus de recherches sur les origines physiques de l'effet-PP sont nécessaires afin de minimiser le risque potentiel d'une mauvaise interprétation des données.
Resumo:
Thèse réalisée en cotutelle avec l'Université Paris Diderot (Paris 7)
Resumo:
Réalisé en cotutelle, sous la direction du Pr. Bernold Hasenknopf, à l'Institut Parisien de Chimie Moléculaire, Université Pierre et Marie Curie (Paris VI, France) et dans le cadre de l'Ecole Doctorale "Physique et Chimie des Matériaux" - Spécialité Chimie Inorganique (ED397).
Resumo:
Bimetallic alloys are increasingly used in heterogeneous catalysis. This interest is explained by the emergence of new features that are absent in the parent single metals. Synergistic effects between the two combined elements create a more efficient catalyst. One of the most challenging aspect of multicomponent materials in catalysis is the ability to fine-tune the catalytic properties of an alloy by controlling the nature and composition of the surface [1]. For example, the gold/silver alloy combines a high activity and a large selectivity for a broad range of oxidation reaction.It is well established that the surface composition of alloys may deviate from that of the bulk phase. Surface enrichment has also important consequences in some applications of heterogeneous catalysis. In some cases, the thermal and chemical treatments can lead to opposite trends regarding the nature of the metal prone to surface enrichment. Using atom probe tomography we aim to link the physicochemical conditions the composition of the very first atomic layers of bimetallic catalysts and eventually to fine-tune the catalytic features of the latter.
Resumo:
An accurate characterization of the rhodium specimen was obtained via FIM experiments. Reaction behaviors between H2 and CO2 were observed in FEM mode at 700 K. At this temperature, CO desorption occurs, preventing CO+H2 reaction. Surface is mainly recovered by oxygen; reaction with hydrogen occurs. Finally, we can identify the reaction as the Reverse Water Gas Shift.
Resumo:
Introduction générale : 1 L'essor du contrat de franchise se situe dans un contexte de mutation économique ainsi que de développement en France des nouvelles techniques de la distribution au cours des années 1960. Le commerce indépendant, jusque-là prépondérant, a décliné au profit de la distribution intégrée qui tendait à canaliser les circuits de distribution afin d'agir notamment sur les prix. On assiste alors à l'émergence de la grande distribution (hypermarchés, supermarchés), aux côtés de nouvelles techniques d'intégration commerciale qu'on appelle commerce associé, dans lequel le distributeur est indépendant sur le plan juridique et dans sa gestion, et n'est pas contraint à une exclusivité de son approvisionnement. En parallèle, s'impose en France et un peu partout en Europe, la franchise dont l'esprit est proche du commerce associé, mais qui s'appuie sur le prestige et la réputation des marques connues du public, pour assurer la distribution des produits de la franchise dans des points de vente ayant une identité reconnaissable. La distribution par la franchise conservait aussi l'esprit du commerce de proximité, privilégiant l'idée de boutique plutôt que celle de grands magasins. Avec l'évolution de la franchise, on assiste aujourd'hui à une cohabitation entre grandes surfaces et petites boutiques, qui se côtoient sans antagonisme dans des grands ensembles commerciaux. La franchise est considérée par certains auteurs comme une figure fondamentale du commerce contemporaine. 2 Le succès de la franchise s'explique par les nombreuses qualités et avantages que beaucoup s'accordent à lui reconnaître. Harmonisant les techniques les plus modernes de vente, elle permet néanmoins une gestion à dimension humaine et surtout indépendante au franchisé. Elle encourage à la création d'une entreprise (petite ou moyenne) par des particuliers désireux d'exercer une activité indépendante, tout en leur assurant une certaine sécurité dans leur investissement du fait de la notoriété de la marque mais aussi de l'assistance et du conseil d'un franchiseur compétent dans son domaine. La franchise permet au franchisé sous l'enseigne d'une marque de renom, de proposer des produits répondant aux normes de qualité et de proposer la même garantie aux consommateurs, dans tous les points de vente de la marque franchisée. Quant au créateur de la franchise, le franchiseur, il peut assurer une diffusion nationale et internationale de ses produits sans consentir d'investissements financiers. 3 La franchise est le contrat par lequel le franchiseur concède le droit d'exploiter la franchise au franchisé ; elle est aussi la méthode commerciale par laquelle se réalise cette exploitation. Elle en désigne à la fois le cadre et le contenu. Le contrat de franchise permet ainsi de prévoir le cadre contractuel des partenaires pour l'exploitation de la méthode commerciale mise au point et expérimentée par le franchiseur. Ce contrat est né de la pratique, et évolue dans un cadre juridique souple et hétérogène composé de règles venant à la fois du droit commun, du droit de la distribution et du droit de la concurrence interne et communautaire. Cette originalité lui a permis d'évoluer et de trouver les adaptations nécessaires pour suivre les besoins des activités à exercer. Il a ainsi commencé par se développer dans la vente de produits puis la prestation de services pour convenir ensuite à des activités libérales, telles que le conseil et le management. A l'intérieur de ce cadre non contraignant, le contrat de franchise impose en revanche un ensemble complexe d'obligations, lesquelles impliquent pour les partenaires une grande implication personnelle et commerciale. La jurisprudence a d'ailleurs largement contribué à préciser le contenu de nombreuses notions liées à ce contrat. 4 Une des fortes spécificités du contrat de franchise est d'une part, son caractère d'intuitus personae qui rend essentiel le choix de la personne du cocontractant, et d'autre part, l'idée de collaboration étroite entre les partenaires qui leur permet à la fois de détenir une grande force dans la réussite de la réitération de la franchise, mais qui peut aussi être source de fragilités. Il y a d'ailleurs un équilibre à trouver entre des réalités paradoxales : l'intégration du franchisé dans un réseau protégé par l'imposition de normes ainsi que le contrôle exercé par le franchiseur et le respect de l'indépendance juridique de ce franchisé. 5 Malgré ces promesses indéniables de réussite du franchisé grâce à la réitération des méthodes éprouvées par le franchiseur, de nombreux écueils guettent la franchise, et ont été largement traités par la doctrine et la jurisprudence. On peut citer notamment la difficulté de trouver un équilibre entre la supériorité économique du franchiseur et l'indépendance juridique du franchisé, la nécessité d'informer correctement et suffisamment le franchisé sur les perspectives de la franchise grâce à l'obligation d'information précontractuelle. Ces difficultés peuvent déboucher sur une «faillite » du franchisé. Placés devant cette situation, commence pour les partenaires une période de turbulences, au cours de laquelle les principes fondateurs du contrat, intuitus personae et collaboration sont remis en question. 6 Les difficultés d'application des mesures de la loi sur le redressement et la liquidation judiciaires, au partenaire en difficulté et au contrat de franchise n'ont pas encore reçu de réponse satisfaisante dans la pratique. En effet, comment peuvent être préservées la spécificité de la relation contractuelle basée sur l'intuitus personae et la forte collaboration en pareille situation ? Quel sera le traitement d'un contrat de franchise dans la procédure collective ? Dès lors que la «faillite » concerne un contrat de franchise, le cadre habituel et respectueux des spécificités de ce contrat fait place à un ensemble de règles d'exception qui vont s'appliquer uniformément à tous les contrats de l'entreprise en difficulté, en vue de la redresser. Précisément, le contrat de franchise est un révélateur des difficultés d'application uniforme et indifférenciée des règles de la «faillite » à des situations présentant des particularités. 7 Le franchisé est celui qui dans l'exécution normale du contrat, doit constamment chercher à équilibrer les rapports contractuels à la fois pour préserver son autonomie juridique, et garder une collaboration avec le franchiseur de manière à s'inspirer de ses conseils et des recettes de sa réussite ; il doit également s'assurer dans le cadre d'une bonne collaboration que le franchiseur exécute ses obligations quant à la transmission de l'information ainsi que la fourniture d'une assistance suffisante, mais sans dépassement. Cet équilibre comme on le verra n'est pas facile à trouver. Dans la «faillite », le franchisé n'aura pas beaucoup le choix des moyens. Son contrat sera soumis aux décisions des mandataires de la procédure qui pourront prendre certaines mesures ne tenant pas compte de la spécificité des liens contractuels entre le franchisé et le franchiseur. 8 La position de faiblesse du franchisé dans la relation de franchise, conduit à envisager principalement les conséquences de la «faillite » sur sa situation, plutôt que d'envisager d'un côté la «faillite » du franchisé et de l'autre côté, la «faillite » du franchiseur. Ce choix de porter l'attention sur la situation du franchisé s'explique par les grandes particularités qui ressortent en pareil cas. La présente étude se propose donc dans une première partie d'étudier précisément le contrat de franchise dans son cadre général ainsi que dans ses particularités, en faisant ressortir à la fois ses fortes particularités et les risques de «faillite »qu'il présente (chapitre unique). Dans une deuxième partie, il est question du sort du contrat de franchise en cas de «faillite » de l'une des parties, en particulier le franchisé, des effets de l'intuitus personae, qui est remis en question lors de la cession judiciaire du contrat (chapitre I) et des effets de l'étroite collaboration entre les parties, qui se posent lorsque le franchiseur a dépassé ses prérogatives dans le contrôle de la gestion, et en général de tout préjudice ayant consisté à aggraver la situation financière du franchisé. Se posent alors les possibilités de mise en jeu de la responsabilité du franchiseur (chapitre II). Il reste à préciser que des aspects de la «faillite » du franchiseur peuvent également être abordés lorsqu'ils revêtent un intérêt pour cette étude.
Resumo:
Résumé La réalisation d'une seconde ligne de métro (M2) dès 2004, passant dans le centre ville de Lausanne, a été l'opportunité de développer une méthodologie concernant des campagnes microgravimétriques dans un environnement urbain perturbé. Les corrections topographiques prennent une dimension particulière dans un tel milieu, car de nombreux objets non géologiques d'origine anthropogénique comme toutes sortes de sous-sols vides viennent perturber les mesures gravimétriques. Les études de génie civil d'avant projet de ce métro nous ont fournis une quantité importante d'informations cadastrales, notamment sur les contours des bâtiments, sur la position prévue du tube du M2, sur des profondeurs de sous-sol au voisinage du tube, mais aussi sur la géologie rencontré le long du corridor du M2 (issue des données lithologiques de forages géotechniques). La planimétrie des sous-sols a été traitée à l'aide des contours des bâtiments dans un SIG (Système d'Information Géographique), alors qu'une enquête de voisinage fut nécessaire pour mesurer la hauteur des sous-sols. Il a été alors possible, à partir d'un MNT (Modèle Numérique de Terrain) existant sur une grille au mètre, de mettre à jour celui ci avec les vides que représentent ces sous-sols. Les cycles de mesures gravimétriques ont été traités dans des bases de données Ac¬cess, pour permettre un plus grand contrôle des données, une plus grande rapidité de traitement, et une correction de relief rétroactive plus facile, notamment lorsque des mises à jour de la topographie ont lieu durant les travaux. Le quartier Caroline (entre le pont Bessières et la place de l'Ours) a été choisi comme zone d'étude. Le choix s'est porté sur ce quartier du fait que, durant ce travail de thèse, nous avions chronologiquement les phases pré et post creusement du tunnel du M2. Cela nous a permis d'effectuer deux campagnes gravimétriques (avant le creu¬sement durant l'été 2005 et après le creusement durant l'été 2007). Ces réitérations nous ont permis de tester notre modélisation du tunnel. En effet, en comparant les mesures des deux campagnes et la réponse gravifique du modèle du tube discrétisé en prismes rectangulaires, nous avons pu valider notre méthode de modélisation. La modélisation que nous avons développée nous permet de construire avec détail la forme de l'objet considéré avec la possibilité de recouper plusieurs fois des interfaces de terrains géologiques et la surface topographique. Ce type de modélisation peut s'appliquer à toutes constructions anthropogéniques de formes linéaires. Abstract The realization of a second underground (M2) in 2004, in downtown Lausanne, was the opportunity to develop a methodology of microgravity in urban environment. Terrain corrections take on special meaning in such environment. Many non-geologic anthropogenic objects like basements act as perturbation of gravity measurements. Civil engineering provided a large amount of cadastral informations, including out¬lines of buildings, M2 tube position, depths of some basements in the vicinity of the M2 corridor, and also on the geology encountered along the M2 corridor (from the lithological data from boreholes). Geometry of basements was deduced from building outlines in a GIS (Geographic Information System). Field investigation was carried out to measure or estimate heights of basements. A DEM (Digital Elevation Model) of the city of Lausanne is updated from voids of basements. Gravity cycles have been processed in Access database, to enable greater control of data, enhance speed processing, and retroactive terrain correction easier, when update of topographic surface are available. Caroline area (between the bridge Saint-Martin and Place de l'Ours) was chosen as the study area. This area was in particular interest because it was before and after digging in this thesis. This allowed us to conduct two gravity surveys (before excavation during summer 2005 and after excavation during summer 2007). These re-occupations enable us to test our modélisation of the tube. Actually, by comparing the difference of measurements between the both surveys and the gravity response of our model (by rectangular prisms), we were able to validate our modeling. The modeling method we developed allows us to construct detailed shape of an object with possibility to cross land geological interfaces and surface topography. This type of modélisation can be applied to all anthropogenic structures.
Resumo:
La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l'Université de Montréal (http://www.bib.umontreal.ca/MU)
Resumo:
La stratégie de la tectonique moléculaire a montré durant ces dernières années son utilité dans la construction de nouveaux matériaux. Elle repose sur l’auto-assemblage spontané de molécule dite intelligente appelée tecton. Ces molécules possèdent l’habilité de se reconnaitre entre elles en utilisant diverses interactions intermoléculaires. L'assemblage résultant peut donner lieu à des matériaux moléculaires avec une organisation prévisible. Cette stratégie exige la création de nouveaux tectons, qui sont parfois difficiles à synthétiser et nécessitent dans la plupart des cas de nombreuses étapes de synthèse, ce qui empêche ou limite leur mise en application pratique. De plus, une fois formées, les liaisons unissant le corps central du tecton avec ces groupements de reconnaissance moléculaire ne peuvent plus être rompues, ce qui ne permet pas de remodeler le tecton par une procédure synthétique simple. Afin de contourner ces obstacles, nous proposons d’utiliser une stratégie hybride qui se sert de la coordination métallique pour construire le corps central du tecton, combinée avec l'utilisation des interactions plus faibles pour contrôler l'association. Nous appelons une telle entité métallotecton du fait de la présence du métal. Pour explorer cette stratégie, nous avons construit une série de ligands ditopiques comportant soit une pyridine, une bipyridine ou une phénantroline pour favoriser la coordination métallique, substitués avec des groupements diaminotriazinyles (DAT) pour permettre aux complexes de s'associer par la formation de ponts hydrogène. En plus de la possibilité de créer des métallotectons par coordination, ces ligands ditopiques ont un intérêt intrinsèque en chimie supramoléculaire en tant qu'entités pouvant s'associer en 3D et en 2D. En parallèle à notre étude de la chimie de coordination, nous avons ii examiné l'association des ligands, ainsi que celle des analogues, par la diffraction des rayons-X (XRD) et par la microscopie de balayage à effet tunnel (STM). L'adsorption de ces molécules sur la surface de graphite à l’interface liquide-solide donne lieu à la formation de différents réseaux 2D par un phénomène de nanopatterning. Pour comprendre les détails de l'adsorption moléculaire, nous avons systématiquement comparé l’organisation observée en 2D par STM avec celle favorisée dans les structures 3D déterminées par XRD. Nous avons également simulé l'adsorption par des calculs théoriques. Cette approche intégrée est indispensable pour bien caractériser l’organisation moléculaire en 2D et pour bien comprendre l'origine des préférences observées. Ces études des ligands eux-mêmes pourront donc servir de référence lorsque nous étudierons l'association des métallotectons dérivés des ligands par coordination. Notre travail a démontré que la stratégie combinant la chimie de coordination et la reconnaissance moléculaire est une méthode de construction rapide et efficace pour créer des réseaux supramoléculaires. Nous avons vérifié que la stratégie de la tectonique moléculaire est également efficace pour diriger l'organisation en 3D et en 2D, qui montre souvent une homologie importante. Nous avons trouvé que nos ligands hétérocycliques ont une aptitude inattendue à s’adsorber fortement sur la surface de graphite, créant ainsi des réseaux organisés à l'échelle du nanomètre. L’ensemble de ces résultats promet d’offrir des applications dans plusieurs domaines, dont la catalyse hétérogène et la nanotechnologie. Mots clés : tectonique moléculaire, interactions intermoléculaires, stratégie hybride, coordination métallique, diffraction des rayons-X, microscopie de balayage à effet tunnel, graphite, phénomène de nanopatterning, calculs théoriques, ponts hydrogène, chimie supramoléculaire, ligands hétérocycliques, groupements DAT, catalyse hétérogène, nanotechnologie.
Étude de l’association supramoléculaire bi- et tridimensionnelle d’oximes et d’hydrazones trigonales
Resumo:
Les concepts de la chimie supramoléculaire peuvent être exploités avantageusement pour contrôler la structure et les propriétés des matériaux moléculaires. Dans une approche productive, les composantes moléculaires du matériau peuvent être choisies pour pouvoir s'engager dans des interactions fortes et prévisibles avec leurs voisins. Cette stratégie, appelée la tectonique moléculaire, est caractérisée par la préparation de molécules particulières appelées tectons (du grec tectos, qui signifie constructeur) qui, par design rationnel, s’associent de manière prévisible via de multiples interactions non-covalentes afin de générer l’architecture désirée. Ce processus est réversible et guidé par la présence de fonctions chimiques complémentaires, appelées groupements de reconnaissance, qui sont orientées de manière à conférer un aspect directionnel aux interactions intermoléculaires. Ceci permet de positionner les molécules voisines de façon prédéterminée. Les contraintes imposées par les interactions s’opposent souvent à la tendance naturelle des molécules à former une structure compacte et permettent donc à d'autres molécules invitées d’occuper un volume appréciable dans le matériau, sans toutefois contribuer directement à l'architecture principale. Appliquée à la cristallisation, cette approche peut générer des cristaux poreux, analogues aux zéolites. Les ponts hydrogène offrent une interaction non-covalente de choix dans cette stratégie car ils sont forts et directionnels. L’exploration d’une multitude de fonctions chimiques connues pour pouvoir participer à la formation de ponts hydrogène a permis de créer une grande diversité de nouveaux matériaux lors de l’évolution du domaine du génie cristallin. Une molécule classique, qui illustre bien la stratégie tectonique et qui a eu un fort impact dans le domaine de la chimie supramoléculaire, est l’acide 1,3,5-benzènetricarboxylique, communément appelé acide trimésique. L’acide trimésique donne une orientation trigonale à trois groupements carboxyles, favorisant ainsi la formation d'un réseau hexagonal retenu par ponts hydrogène. Nous avons visé une modification dans laquelle les groupements -COOH de l'acide trimésique sont remplacés par deux autres groupements de reconnaissance, jusqu’ici peu exploités en chimie supramoléculaire, l’oxime et l’hydrazone. Nous rapportons la synthèse et la cristallisation de différentes trioximes et trihydrazones analogues à l'acide trimésique. Les cristaux obtenus ont été analysés par diffraction des rayons-X et leurs structures ont été déterminées. L’auto-assemblage de différentes trioximes et trihydrazones en 2D par adsorption sur graphite a également été étudié en utilisant la microscopie à balayage à effet tunnel. Nos résultats nous permettent de comparer l'organisation en 2D et en 3D de différents analogues de l'acide trimésique.
Resumo:
Nous avons observé une augmentation ‘’transient’’du taux de cristallisation interfacique de l’a-Si lorsqu’on réimplante du Si à proximité de l’interface amorphe/cristal. Après amorphisation et traitement thermique à 650°C pendant 5s de la couche a-Si crée par implantation ionique, une partie a été réimplantée. Les défauts produits par auto-réimplantation à 0.7MeV se trouvent à (302±9) nm de l’interface initiale. Cela nous a permis d’étudier d’avantage la variation initiale de la vitesse SPE (Épitaxie en phase solide). Avec des recuit identiques de 4h à 500°C, nous avons déterminé les positions successives des interfaces et en déduit les taux de cristallisation SPE. La cristallisation débute à l’interface et continue graduellement vers la surface. Après le premier recuit, (252±11) nm s’est recristallisé dans la zone réimplantée soit un avancement SPE de 1.26x10^18at./cm2. Cette valeur est environ 1.50 fois plus importante que celle dans l’état relaxé. Nous suggérons que la présence de défauts à proximité de l’interface a stimulé la vitesse initiale. Avec le nombre de recuit, l’écart entre les vitesses diminue, les deux régions se cristallisent presque à la même vitesse. Les mesures Raman prises avant le SPE et après chaque recuit ont permis de quantifier l’état de relaxation de l’a-Si et le transfert de l’état dé-relaxé à relaxé.
Resumo:
L’implantation répandue de nouveaux quartiers résidentiels sur le territoire de la périphérie urbaine est en partie responsable de la baisse du couvert végétal et de l’augmentation des surfaces imperméables à grande échelle. Les villes sont maintenant aux prises avec une augmentation constante de la production de ruissellement qu'elles doivent gérer au moyen d’un vaste réseau d’égouts et de canalisations. Des données sur les impacts de ces modèles de quartier résidentiel nous révèlent que cette forme d’habitat provoque la dégradation des milieux naturels et aquatiques. La présente étude vise à mettre à l’épreuve la stratégie d’aménagement de l’Open space design en comparant l’effet de trois situations d’aménagement d’ensembles résidentiels sur le coefficient de ruissellement pondéré (Cp). Les trois situations étudiées sont 1 : le développement actuel tel que conçu par le promoteur, 2 : un scénario de quartier visant la préservation des cours d’eau existants ainsi qu’une réduction des lots et des surfaces imperméables et 3 : un quartier avec des types d’habitation plus denses. Les coefficients pondérés obtenus sont respectivement de 0,50 pour le quartier actuel, de 0,40 pour le scénario 1 et de 0,34 pour le scénario 2. Au terme de cet exercice, il apparaît, d’une part, que la densification du bâti, la nature des surfaces et l’organisation spatiale peuvent concourir à diminuer la production de ruissellement d’un quartier. Cette étude permet de situer l’importance de la gestion du ruissellement dans la planification et l’aménagement du territoire.
Resumo:
Le méthotrexate (MTX), un agent anti-cancéreux fréquemment utilisé en chimiothérapie, requiert généralement un suivi thérapeutique de la médication (Therapeutic Drug Monitoring, TDM) pour surveiller son niveau sanguin chez le patient afin de maximiser son efficacité tout en limitant ses effets secondaires. Malgré la fenêtre thérapeutique étroite entre l’efficacité et la toxicité, le MTX reste, à ce jour, un des agents anti-cancéreux les plus utilisés au monde. Les techniques analytiques existantes pour le TDM du MTX sont coûteuses, requièrent temps et efforts, sans nécessairement fournir promptement les résultats dans le délai requis. Afin d’accélérer le processus de dosage du MTX en TDM, une stratégie a été proposée basée sur un essai compétitif caractérisé principalement par le couplage plasmonique d’une surface métallique et de nanoparticules d’or. Plus précisément, l’essai quantitatif exploite la réaction de compétition entre le MTX et une nanoparticule d’or fonctionnalisée avec l’acide folique (FA-AuNP) ayant une affinité pour un récepteur moléculaire, la réductase humaine de dihydrofolate (hDHFR), une enzyme associée aux maladies prolifératives. Le MTX libre mixé avec les FA-AuNP, entre en compétition pour les sites de liaison de hDHFR immobilisés sur une surface active en SPR ou libres en solution. Par la suite, les FA-AuNP liées au hDHFR fournissent une amplification du signal qui est inversement proportionnelle à la concentration de MTX. La résonance des plasmons de surface (SPR) est généralement utilisée comme une technique spectroscopique pour l’interrogation des interactions biomoléculaires. Les instruments SPR commerciaux sont généralement retrouvés dans les grands laboratoires d’analyse. Ils sont également encombrants, coûteux et manquent de sélectivité dans les analyses en matrice complexe. De plus, ceux-ci n’ont pas encore démontré de l’adaptabilité en milieu clinique. Par ailleurs, les analyses SPR des petites molécules comme les médicaments n’ont pas été explorés de manière intensive dû au défi posé par le manque de la sensibilité de la technique pour cette classe de molécules. Les développements récents en science des matériaux et chimie de surfaces exploitant l’intégration des nanoparticules d’or pour l’amplification de la réponse SPR et la chimie de surface peptidique ont démontré le potentiel de franchir les limites posées par le manque de sensibilité et l’adsorption non-spécifique pour les analyses directes dans les milieux biologiques. Ces nouveaux concepts de la technologie SPR seront incorporés à un système SPR miniaturisé et compact pour exécuter des analyses rapides, fiables et sensibles pour le suivi du niveau du MTX dans le sérum de patients durant les traitements de chimiothérapie. L’objectif de cette thèse est d’explorer différentes stratégies pour améliorer l’analyse des médicaments dans les milieux complexes par les biocapteurs SPR et de mettre en perspective le potentiel des biocapteurs SPR comme un outil utile pour le TDM dans le laboratoire clinique ou au chevet du patient. Pour atteindre ces objectifs, un essai compétitif colorimétrique basé sur la résonance des plasmons de surface localisée (LSPR) pour le MTX fut établi avec des nanoparticules d’or marquées avec du FA. Ensuite, cet essai compétitif colorimétrique en solution fut adapté à une plateforme SPR. Pour les deux essais développés, la sensibilité, sélectivité, limite de détection, l’optimisation de la gamme dynamique et l’analyse du MTX dans les milieux complexes ont été inspectés. De plus, le prototype de la plateforme SPR miniaturisée fut validé par sa performance équivalente aux systèmes SPR existants ainsi que son utilité pour analyser les échantillons cliniques des patients sous chimiothérapie du MTX. Les concentrations de MTX obtenues par le prototype furent comparées avec des techniques standards, soit un essai immunologique basé sur la polarisation en fluorescence (FPIA) et la chromatographie liquide couplée avec de la spectrométrie de masse en tandem (LC-MS/MS) pour valider l’utilité du prototype comme un outil clinique pour les tests rapides de quantification du MTX. En dernier lieu, le déploiement du prototype à un laboratoire de biochimie dans un hôpital démontre l’énorme potentiel des biocapteurs SPR pour utilisation en milieux clinique.
Resumo:
Cette thèse traite de la chimie des complexes pinces de Ni(II) ainsi que des complexes cyclométallés de Ni(II) comportant au moins un motif phosphinite. Elle se divise en trois parties. La première concerne la synthèse, la caractérisation, le mécanisme de formation et la réactivité des complexes pinces de Ni(II) à base de ligand de type POCOP 1,3-(i-Pr2PO)2C6H4. De nouveaux ligands de type R-(POCOP) = κP,κC,κP-{Rn-2,6-( R'2PO)2C6H4-n}; Rn = 4-OMe, 4-Me, 4-CO2Me, 3-OMe, 3- CO2Me, 3,5-t-Bu2 ; R' = i-Pr, t-Bu ont été synthétisés suite à l'addition de chlorophosphine ClPR'2 à une solution de résorcinol ou dérivés en présence de base. La synthèse des complexes R-(POCOP)Ni(Br) s'effectue à partir du ligand correspondant en présence de base, et de {NiBr2(NCiPr)}n. Ce nouveau précurseur de nickel est synthétisé à partir de brome de nickel métallique dans l'isobutyronitrile. Il est stable sous atmosphère inerte et sa solubilité dans les solvants polaires permet d'étudier les synthèses des complexes en milieu homogène. Le mécanisme de formation des complexes portant des ligand pinces (PCsp3P) 1,3-(i- Pr2PCH2CH2)2CH2, (POCsp3OP) 1,3-(i-Pr2POCH2)2CH2, (PCsp2P) 1,3-(i- Pr2PCH2)2C6H4, Rn-(POCsp2OP) 1,3-(i-Pr2PO)2C6H4-n via nickellation du lien C-H a été investigué avec une méthode de réaction de compétition. Cette étape a été déterminée comme étant de nature électrophile. Les complexes résultants ont été complètement caractérisés. Une corrélation a notamment été effectuée entre le déplacement chimique du Cipso en spectroscopie RMN 13C et le potentiel d'oxydation Eox en voltamétrie cyclique. Une nouvelle méthode de synthèse directe verte "one pot" a été mise en place. En faisant réagir à 75 °C un mélange hétérogène de II résorcinol, de chlorodiisopropylphosphine et de nickel métallique en poudre, on obtient le complexes pince (POCOP)Ni(Cl) avec des rendements allant jusqu'à 93%. La réactivité de ces complexes POCOP a été investiguée pour des réactions de fluorination et trifluorométhylation des halogénures d'alkyle. La synthèse du (POCOP)Ni(F) a lieu à partir de précurseur (POCOP)Ni(X) (X=Br, Cl), en présence d'un large excès de fluorure d'argent AgF. Ce complexe catalyse la fluorination du bromure de benzyle et peut être converti en (POCOP)Ni(CF3) en présence de réactif du Ruppert, Me3SiCF3. La réaction entre (POCOP)Ni(CF3) et le bromure de benzyle dans les solvants aromatiques mène à la conversion totale du complexe en (POCOP)Ni(Br) et à l'inattendue benzylation du solvant aromatique utilisé. La seconde partie concerne la synthèse des nouveaux complexes non symétriques à base de ligands comportant un motif imidazolo-phosphine (PIMCOP) 3-[2-(R2P)-C3H2N2]-(R2PO)-C6H3, imidazoliophosphine (PIMIOCOP) 3-[2-(R2P)-3- (CH3)-C3H2N2]-(R2PO)-C6H3] et carbène N-hétérocyclique (NHCCOP). La double déprotonation du 3-hydroxyphenyl-imidazole suivi de l'addition de deux équivalents de chlorodiphenylphosphine mène à l'obtention du ligand PIMCOP 3-[3-(CH3)- C3H2N2]-(R2PO)-C6H3. L'étape de nickellation a lieu comme dans le cas des composés (POCOP)Ni. La méthylation du motif imidazole du (PIMCOP)Ni(Br) par le triflate de méthyle MeOTf, donne le dérivé (PIMIOCOP)Ni(Br). Ce dernier est converti en (NHCCOP)Ni(Br) après l'addition de chlorure de tétraéthylamonium NEt4Cl. Les analogues i-Pr2P de ces complexes sont synthétisés en remplaçant ClPPh2 par ClPiPr2. On obtient les espèces cationiques [(PIMCOP)Ni(NCCH3)][OTf], [(PIMIOCOP)Ni(NCCH3)][OTf]2 et III [(NHCCOP)Ni(NCCH3)][OTf] suite à l'addition en solution dans l'acétonitrile de triflate d'argent AgOTf. Ces espèces ont été utilisés comme catalyseurs pour la synthèse d'amidine à partir de benzonitrile et de diverse amines aliphatiques. Enfin des complexes orthonickellés trans-Ni[(ĸ2-P,C-P(OC6H4)-(iPr2)( iPr2P(OC6H5))]Br à base de phosphinite ont été synthétisés et caractérisés. Les ligands sont synthétisés par réaction d'un phénol et de chlorodiisopropylphosphine en présence de base. L'ajout de {NiBr2(NCiPr)}n et de triéthylamine permet l'orthométallation via une étape de nickellation C-H. Un intermédiaire trans- [NiBr2{PiPr2(OC6H5)}2] de cette réaction a été isolé. Le complexe dimère peut réagir avec des espèces électrophiles mener à l'ortho-fonctionnalisation de la phosphinite.