637 resultados para Recherche-développement


Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’actualité juridique européenne et française en matière de développement durable conduit à un paradoxe. D’un côté, il ne peut être nié que le développement durable imprègne tant le droit européen que français. Illustration prise des évolutions récentes du droit français des affaires, force est de constater que le développement durable est devenu une réalité incontournable sur la scène juridique. D’un autre côté, le développement durable est source d’interrogations. Premièrement, sa place sur l’échiquier européen se révèle incertaine. Deuxièmement, cette notion s’entoure de brume lorsqu’il s’agit de la définir précisément. Malgré ces interrogations qui demeurent, le développement durable est omniprésent et contribue chaque à faire évoluer le droit et ce, au point qu’il est possible d’affirmer que le siècle qui s’annonce est bel et bien celui du développement durable.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Autorisation de publications des Éditions Dalloz.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les schémas en annexe ont été réalisés avec le logiciel Adobe Illustrator.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Un fichier intitulé Charbonneau_Nathalie_2008_AnimationAnnexeT accompagne la thèse. Il contient une séquence animée démontrant le type de parcours pouvant être effectué au sein des environnements numériques développés. Il s'agit d'un fichier .wmv qui a été compressé.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Depuis quelques années, Internet est devenu un média incontournable pour la diffusion de ressources multilingues. Cependant, les différences linguistiques constituent souvent un obstacle majeur aux échanges de documents scientifiques, culturels, pédagogiques et commerciaux. En plus de cette diversité linguistique, on constate le développement croissant de bases de données et de collections composées de différents types de documents textuels ou multimédias, ce qui complexifie également le processus de repérage documentaire. En général, on considère l’image comme « libre » au point de vue linguistique. Toutefois, l’indexation en vocabulaire contrôlé ou libre (non contrôlé) confère à l’image un statut linguistique au même titre que tout document textuel, ce qui peut avoir une incidence sur le repérage. Le but de notre recherche est de vérifier l’existence de différences entre les caractéristiques de deux approches d’indexation pour les images ordinaires représentant des objets de la vie quotidienne, en vocabulaire contrôlé et en vocabulaire libre, et entre les résultats obtenus au moment de leur repérage. Cette étude suppose que les deux approches d’indexation présentent des caractéristiques communes, mais également des différences pouvant influencer le repérage de l’image. Cette recherche permet de vérifier si l’une ou l’autre de ces approches d’indexation surclasse l’autre, en termes d’efficacité, d’efficience et de satisfaction du chercheur d’images, en contexte de repérage multilingue. Afin d’atteindre le but fixé par cette recherche, deux objectifs spécifiques sont définis : identifier les caractéristiques de chacune des deux approches d’indexation de l’image ordinaire représentant des objets de la vie quotidienne pouvant influencer le repérage, en contexte multilingue et exposer les différences sur le plan de l’efficacité, de l’efficience et de la satisfaction du chercheur d’images à repérer des images ordinaires représentant des objets de la vie quotidienne indexées à l’aide d’approches offrant des caractéristiques variées, en contexte multilingue. Trois modes de collecte des données sont employés : l’analyse des termes utilisés pour l’indexation des images, la simulation du repérage d’un ensemble d’images indexées selon chacune des formes d’indexation à l’étude réalisée auprès de soixante répondants, et le questionnaire administré aux participants pendant et après la simulation du repérage. Quatre mesures sont définies pour cette recherche : l’efficacité du repérage d’images, mesurée par le taux de succès du repérage calculé à l’aide du nombre d’images repérées; l’efficience temporelle, mesurée par le temps, en secondes, utilisé par image repérée; l’efficience humaine, mesurée par l’effort humain, en nombre de requêtes formulées par image repérée et la satisfaction du chercheur d’images, mesurée par son autoévaluation suite à chaque tâche de repérage effectuée. Cette recherche montre que sur le plan de l’indexation de l’image ordinaire représentant des objets de la vie quotidienne, les approches d’indexation étudiées diffèrent fondamentalement l’une de l’autre, sur le plan terminologique, perceptuel et structurel. En outre, l’analyse des caractéristiques des deux approches d’indexation révèle que si la langue d’indexation est modifiée, les caractéristiques varient peu au sein d’une même approche d’indexation. Finalement, cette recherche souligne que les deux approches d’indexation à l’étude offrent une performance de repérage des images ordinaires représentant des objets de la vie quotidienne différente sur le plan de l’efficacité, de l’efficience et de la satisfaction du chercheur d’images, selon l’approche et la langue utilisées pour l’indexation.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’expansion des maladies métaboliques dans les sociétés modernes exige plus d’activités de recherche afin d’augmenter notre compréhension des mécanismes et l’identification de nouvelles cibles d’interventions cliniques. L’obésité, la résistance à l’insuline (RI) et la dyslipidémie, en particulier sont tous des facteurs de risque associés à la pathogenèse du diabète de type 2 (DT2) et des maladies cardiovasculaires. Ainsi, la dyslipidémie postprandiale, notamment la surproduction des lipoprotéines hépatiques et intestinales, contribue d’une façon significative à l’hypertriglycéridémie. Quoique plusieurs études cliniques et fondamentales chez l’homme et les modèles animaux aient mis en évidence les rôles importants joués par le foie et l’intestin dans la dyslipidémie, les mécanismes moléculaires en cause ne sont pas bien élucidés. L’une des voies principales régulant le métabolisme lipidique est la voie de la protéine kinase AMPK. L’épuisement de l’ATP intracellulaire entraîne une activation de l’AMPK qui va œuvrer pour rétablir l’équilibre énergétique en stimulant des voies génératrices d’ATP et en inhibant des voies anaboliques consommatrices d’ATP. Les effets positifs de l’activation de l’AMPK comprennent l’augmentation de la sensibilité à l’insuline dans les tissus périphériques, la réduction de l’hyperglycémie et la réduction de la lipogenèse, d’où son importance dans les interventions cliniques pour la correction des dérangements métaboliques. Il est à souligner que le rôle de l’AMPK dans le foie et l’intestin semble plus complexe et mal compris. Ainsi, la voie de signalisation de l’AMPK n’est pas bien élucidée dans les situations pathologiques telles que le DT2, la RI et l’obésité. Dans le présent projet, notre objectif consiste à caractériser le rôle de cette voie de signalisation dans la lipogenèse hépatique et dans le métabolisme des lipides dans l’intestin chez le Psammomys obesus, un modèle animal d’obésité, de RI et de DT2. À cette fin, 3 groupes d’animaux sont étudiés (i.e. contrôle, RI et DT2). En caractérisant la voie de signalisation de l’AMPK/ACC dans le foie, nous avons constaté une augmentation de l’expression génique des enzymes clés de la lipogenèse (ACC, FAS, SCD-1 et mGPAT) et des facteurs de transcription (ChREBP, SREBP-1) qui modulent leur niveau d’expression. Nos analyses détaillées ont révélé, par la suite, une nette augmentation de l’expression de l’isoforme cytosolique de l’ACC, ACC1 (impliqué dans la lipogenèse de novo) concomitante avec une invariabilité de l’expression de l’isoforme mitochondrial ACC2 (impliqué dans la régulation négative de la β-oxydation). En dépit d’un état adaptatif caractérisé par une expression protéique et une phosphorylation (activation) élevées de l’AMPKα, l’activité de la kinase qui phosphoryle et inhibe l’ACC reste très élevée chez les animaux RI et DT2. Au niveau de l’intestin grêle des animaux RI et DT2, nous avons démontré que l’augmentation de la lipogenèse intestinale est principalement associée avec une diminution de la voie de signalisation de l’AMPK (i.e. expression protéique et phosphorylation/activation réduites des deux isoformes AMPKα1 et AMPKα2). La principale conséquence de la diminution de l’activité AMPK est la réduction de la phosphorylation de l’ACC. Étant donné que le niveau d’expression totale d’ACC reste inchangé, nos résultats suggèrent donc une augmentation de l’activité des deux isoformes ACC1 et ACC2. En parallèle, nous avons observé une réduction de l’expression protéique et génique de la CPT1 [enzyme clé de la β-oxydation des acides gras (AG)]. L’ensemble de ces résultats suggère une inhibition de l’oxydation des AG concomitante avec une stimulation de la lipogenèse de novo. Enfin, nous avons démontré que l’intestin grêle est un organe sensible à l’action de l’insuline et que le développement de la résistance à l’insuline pourrait altérer les deux voies de signalisation (i.e. Akt/GSK3 et p38MAPK) essentielles dans plusieurs processus métaboliques. En conclusion, nos résultats indiquent que l’augmentation de la lipogenèse qui contribue pour une grande partie à la dyslipidémie dans la résistance à l’insuline et le diabète serait due, en partie, à des défauts de signalisation par l’AMPK. Nos observations illustrent donc le rôle crucial du système AMPK au niveau hépatique et intestinal, ce qui valide l’approche thérapeutique consistant à activer l’AMPK pour traiter les maladies métaboliques.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les terrains vacants sont, à Montréal, des éléments indéniables dans la composition de la trame urbaine. Leur présence soutenue intéresse déjà depuis longtemps de nombreux auteurs et décideurs municipaux. Toutefois, il s’avère que l’on connaît peu les caractéristiques paysagères de ces espaces. Cette recherche en aménagement vise à compléter nos connaissances sur cette typologie d’espace urbain. Elle porte sur la caractérisation paysagère des terrains vacants du centre-ville de Montréal et sur l’étude de leur potentiel visuel à mettre en valeur les attributs significatifs du paysage urbain. Ces deux études doivent permettre de comprendre le rôle joué par ces vides dans la perception du paysage urbain. Cette démarche s’interroge sur la possibilité que certains vides puissent être justifiés et légitimés en regard de la notion de lisibilité du paysage urbain (Lynch, 1976, 1982). Les terrains joueraient un rôle important au niveau de la perception des paysages urbains. Il s’agit de démontrer le potentiel des espaces vacants dans la mise en valeur du paysage urbain, dans l’optique, pour certains d’entre eux, de légitimer le vide ou une partie du vide qui les définit, de les rendre structurants dans la composition urbaine. Grâce à un travail d’observation des caractéristiques urbaines, contextuelles, visuelles et physiques, l’étude a pu à la fois dresser le portrait de ces espaces en attente de développement urbain et démontrer leur implication dans la lisibilité urbaine. Ce travail présente l’intérêt d’offrir un énoncé sur la planification du développement des terrains vacants du centre-ville de Montréal en regard de la notion de lisibilité urbaine partie prenante dans la qualité urbaine.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le virus Epstein-Barr (VEB) est fortement associé au développement de syndromes lymphoprolifératifs (SLP) en greffe pédiatrique. Ce virus a la capacité d’immortaliser les lymphocytes B et de provoquer leur prolifération incontrôlée chez l’hôte immunodéprimé. Plusieurs études démontrent que le cycle lytique du virus jouerait un rôle primordial dans la genèse des SLP en produisant des particules virales pouvant infecter les cellules B adjacentes. Chez un individu immunodéprimé, ces cellules B nouvellement infectées peuvent donner naissance à une expansion lymphocytaire. Le projet présenté dans ce mémoire fait partie d’un programme de recherche visant à élucider le rôle de l’infection productive par le VEB dans le développement des SLP. L’objectif précis de ce projet est de développer un anticorps monoclonal chimère contre la glycoprotéine gp350 du VEB dans le but de neutraliser le virus et d’ainsi prévenir son entrée dans les cellules B. Notre laboratoire a construit une version chimère de l’anticorps monoclonal murin 72A1, lequel se lie à la gp350 et bloque l’infection. Les premiers essais ont révélé la présence de chaînes non fonctionnelles (aberrantes) dans l’hybridome produisant l’anticorps 72A1. La construction de la chaîne légère authentique est maintenant complète alors que celle de la chaîne lourde est toujours en cours. Le processus de caractérisation de l’anticorps chimère inclura des essais de cytotoxicité à médiation cellulaire dépendante des anticorps (ADCC). Dans cette optique, une lignée cellulaire exprimant de façon stable la gp350 a été établie. Notre anticorps chimère anti-gp350 pourrait éventuellement être utilisé comme thérapie préventive chez les greffés présentant un risque élevé de SLP en empêchant l’infection des cellules B adjacentes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La recherche de sources d’énergie fiables ayant un faible coût environnemental est en plein essor. L’hydrogène, étant un transporteur d’énergie propre et simple, pourrait servir comme moyen de transport de l’énergie de l’avenir. Une solution idéale pour les besoins énergétiques implique une production renouvelable de l’hydrogène. Parmi les possibilités pour un tel processus, la production biologique de l’hydrogène, aussi appelée biohydrogène, est une excellente alternative. L’hydrogène est le produit de plusieurs voies métaboliques bactériennes mais le rendement de la conversion de substrat en hydrogène est généralement faible, empêchant ainsi le développement d’un processus pratique de production d’hydrogène. Par exemple, lorsque l’hydrogène est produit par la nitrogénase sous des conditions de photofermentation, chaque molécule d’hydrogène constituée requiert 4 ATP, ce qui rend le processus inefficace. Les bactéries photosynthétiques non sulfureuses ont la capacité de croître sous différentes conditions. Selon des études génomiques, Rhodospirillum rubrum et Rhodopseudomonas palustris possèdent une hydrogénase FeFe qui leur permettrait de produire de l’hydrogène par fermentation anaérobie de manière très efficace. Il existe cependant très peu d’information sur la régulation de la synthèse de cette hydrogénase ainsi que sur les voies de fermentation dont elle fait partie. Une surexpression de cette enzyme permettrait potentiellement d’améliorer le rendement de production d’hydrogène. Cette étude vise à en apprendre davantage sur cette enzyme en tentant la surexpression de cette dernière dans les conditions favorisant la production d’hydrogène. L’utilisation de résidus organiques comme substrat pour la production d’hydrogène sera aussi étudiée.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Environ 2-3% d’enfants avec convulsions fébriles (CF) développent une épilepsie, mais les outils cliniques existants ne permettent pas d’identifier les enfants susceptibles de développer une épilepsie post-convulsion fébrile. Des études ont mis en évidence des anomalies d’EEG quantifiée, et plus particulièrement en réponse à la stimulation lumineuse intermittente (SLI), chez des patients épileptiques. Aucune étude n’a analysé ces paramètres chez l’enfant avec CF et il importe de déterminer s’ils sont utiles pour évaluer le pronostic des CF. Les objectifs de ce programme de recherche étaient d’identifier, d’une part, des facteurs de risque cliniques qui déterminent le développement de l’épilepsie après des CF et, d’autre part, des marqueurs électrophysiologiques quantitatifs qui différencieraient les enfants avec CF des témoins et pourraient aider à évaluer leur pronostic. Afin de répondre à notre premier objectif, nous avons analysé les dossiers de 482 enfants avec CF, âgés de 3 mois à 6 ans. En utilisant des statistiques de survie, nous avons décrit les facteurs de risque pour développer une épilepsie partielle (antécédents prénataux, retard de développement, CF prolongées et focales) et généralisée (antécédents familiaux d’épilepsie, CF récurrentes et après l’âge de 4 ans). De plus, nous avons identifié trois phénotypes cliniques distincts ayant un pronostic différent : (i) CF simples avec des antécédents familiaux de CF et sans risque d’épilepsie ultérieure; (ii) CF récurrentes avec des antécédents familiaux d’épilepsie et un risque d’épilepsie généralisée; (iii) CF focales avec des antécédents familiaux d’épilepsie et un risque d’épilepsie partielle. Afin de répondre à notre deuxième objectif, nous avons d’abord analysé les potentiels visuels steady-state (PEVSS) évoqués par la SLI (5, 7,5, 10 et 12,5 Hz) en fonction de l’âge. Le tracé EEG de haute densité (128 canaux) a été enregistré chez 61 enfants âgés entre 6 mois et 16 ans et 8 adultes normaux. Nous rapportons un développement topographique différent de l’alignement de phase des composantes des PEVSS de basses (5-15 Hz) et de hautes (30-50 Hz) fréquences. Ainsi, l’alignement de phase des composantes de basses fréquences augmente en fonction de l’âge seulement au niveau des régions occipitale et frontale. Par contre, les composantes de hautes fréquences augmentent au niveau de toutes les régions cérébrales. Puis, en utilisant cette même méthodologie, nous avons investigué si les enfants avec CF présentent des anomalies des composantes gamma (50-100 Hz) des PEVSS auprès de 12 cas de CF, 5 frères et sœurs des enfants avec CF et 15 témoins entre 6 mois et 3 ans. Nous montrons une augmentation de la magnitude et de l’alignement de phase des composantes gamma des PEVSS chez les enfants avec CF comparés au groupe témoin et à la fratrie. Ces travaux ont permis d’identifier des phénotypes électro-cliniques d’intérêt qui différencient les enfants avec CF des enfants témoins et de leur fratrie. L’étape suivante sera de vérifier s’il y a une association entre les anomalies retrouvées, la présentation clinique et le pronostic des CF. Cela pourrait éventuellement aider à identifier les enfants à haut risque de développer une épilepsie et permettre l’institution d’un traitement neuroprotecteur précoce.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les progrès spectaculaires réalisés dans le traitement de la fibrose kystique font en sorte qu'un nombre de plus en plus élevé de familles comptant un adolescent atteint de ce problème de santé, peut maintenant envisager d'effectuer la transition depuis l'adolescent vers l'âge adulte. À ce jour, les recherches à ce sujet demeurent peu nombreuses, principalement en ce qui a trait à la nature des interations entre les adolescents, leurs parents et les professionnels de la santé qui préparent ces familles en vue du transfert, depuis un établissement pédiatrique vers un établissement adulte. L'appréhension de ce phénomène s'est réalisée dans une perspective constructiviste et systémique, ce qui a permis de mettre en relief certaines des multiples facettes du phénomène et de jeter un éclairage novateur sur des dynamiques entre les membres de la famille et entre ces derniers et les professionnels de la santé. Le but de cette étude de cas, de type qualitavive, était de modéliser de manière systémique, le processus de transtion pour des familles ayant un adolescent atteint de la fibrose kystique qui est en phase pré transfert, depuis l'établissement pédiatrique vers le milieu adulte. Des entretiens semi-dirigés ont été réalisés avec sept familles comptant un adolescent atteint de la fibrose kystique. De plus, un entretien de groupe a également été effectué avec une équipe interprofessionnelle oeuvrant dans une clinique qui traite des adolescents atteints de la fibrose kysitque. L'analyse qualitative des données a mené au développement d'un modèle systémique de la transition pour ces familles. Ce modèle souligne qu'en évoluant de façon parallèle, les familles et les professionnels de la santé poursuivent la même finalité de favoriser le développement de l'autonomie de l'adolescent. Ce processus de transition chez ces familles s'inscrit, par ailleurs, dans un espace-temps signifié par le transfert inter-établissements, avec peu de considération pour la souffrance parentale liée au pronostic de la maladie. Ainsi, le développement de l'autonomie est marqué par la confiance qui doit s'établir entre l'adolescent et son parent, en passant par la surveillance du parent envers l'adolescent et par la responsabilisation graduelle chez ce dernier. Cette étude propose donc une modélisation systémique de ce processus de transition qui contribue non seulement au développement du concept de la transition en sciences de la santé, mais aussi de la pratique clinique et de la recherche dans le domaine des soins à la famille aux prises avec un adolescent atteint de la fibrose kystique.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Toujours en évolution le droit maritime est constamment en train de se moderniser. Depuis ses débuts Ie droit maritime essaie de s'adapter aux réalités de son temps. Le changement fut lent et difficile à atteindre. Au départ la pratique voulait qu'un transporteur maritime puisse échapper à presque toute responsabilité. L'application des coutumes du domaine et du droit contractuel avait laissé place aux abus et aux inégalités de pouvoir entre transporteurs maritimes et chargeurs/propriétaires de marchandises. La venue du vingtième siècle changea tout. L'adoption des Règles de la Haye, Haye / Nisby et Hambourg a transforme Ie système de transport de marchandise par mer tel qu'on Ie connaissait jusqu'à date. Ainsi une évolution graduelle marqua l'industrie maritime, parallèlement Ie droit maritime se développa considérablement avec une participation judiciaire plus active. De nos jours, les transporteurs maritimes sont plus responsables, or cela n'empêche pas qu'ils ne sont pas toujours capables de livrer leurs cargaisons en bonne condition. Chaque fois qu'un bateau quitte Ie port lui et sa cargaison sont en danger. De par ce fait, des biens sont perdus ou endommages en cours de route sous la responsabilité du transporteur. Malgré les changements et l'évolution dans les opérations marines et l'administration du domaine la réalité demeure telle que Ie transport de marchandise par mer n' est pas garanti it. cent pour cent. Dans les premiers temps, un transporteur maritime encourait toutes sortes de périls durant son voyage. Conséquemment les marchandises étaient exposées aux pertes et dangers en cours de route. Chaque année un grand nombre de navires sont perdu en mer et avec eux la cargaison qu'ils transportent. Toute la modernisation au monde ne peut éliminer les hauts risques auxquels sont exposes les transporteurs et leurs marchandises. Vers la fin des années soixante-dix avec la venue de la convention de Hambourg on pouvait encore constater que Ie nombre de navires qui sont perdus en mer était en croissance. Ainsi même en temps moderne on n'échappe pas aux problèmes du passe. "En moyenne chaque jour un navire de plus de 100 tonneaux se perd corps et biens (ceci veut dire: navire et cargaison) et Ie chiffre croit: 473 en 1978. Aces sinistres majeurs viennent s'ajouter les multiples avaries dues au mauvais temps et les pertes pour de multiples raisons (marquage insuffisant, erreurs de destination...). Ces périls expliquent : (1) le système de responsabilité des transporteurs ; (2) la limitation de responsabilité des propriétaires de navires; ... " L'historique légal du système de responsabilité et d'indemnité des armateurs démontre la difficulté encourue par les cours en essayant d'atteindre un consensus et uniformité en traitant ses notions. Pour mieux comprendre les différentes facettes du commerce maritime il faut avoir une compréhension du rôle des armateurs dans ce domaine. Les armateurs représentent Ie moyen par lequel le transport de marchandises par mer est possible. Leur rôle est d'une importance centrale. Par conséquent, le droit maritime se retrouve face à des questions complexes de responsabilités et d'indemnités. En particulier, la validité de l'insertion de clauses d'exonérations par les transporteurs pour se libérer d'une partie ou de toutes leurs responsabilités. A travers les années cette pratique a atteint un tel point d'injustice et de flagrant abus qu'il n'est plus possible d'ignorer Ie problème. L'industrie en crise se trouve obliger d'affronter ces questions et promouvoir Ie changement. En droit commun, l'armateur pouvait modifier son obligation prima facie autant qu'il le voulait. Au cours des ans, ces clauses d'exception augmentaient en nombre et en complexité au point qu'il devenait difficile de percevoir quel droit on pouvait avoir contre Ie transporteur. Les propriétaires de marchandise, exportateurs et importateurs de marchandises i.e. chargeurs, transporteurs, juristes et auteurs sont d'avis qu'il faut trouver une solution relative aux questions des clauses d'exonérations insérées dans les contrats de transport sous connaissement. Plus précisément ces clauses qui favorisent beaucoup plus les armateurs que les chargeurs. De plus, depuis longtemps la notion du fardeau de preuve était obscure. Il était primordial pour les pays de chargeurs d'atteindre une solution concernant cette question, citant qu'en pratique un fardeau très lourd leur était impose. Leur désir était de trouver une solution juste et équitable pour toutes les parties concernées, et non une solution favorisant les intérêts d’un coté seulement. Le transport par mer étant en grande partie international il était évident qu'une solution viable ne pouvait être laissée aux mains d'un pays. La solution idéale devait inclure toutes les parties concernées. Malgré le désir de trouver une solution globale, le consensus général fut long à atteindre. Le besoin urgent d'uniformité entre les pays donna naissance à plusieurs essais au niveau prive, national et international. Au cours des ans, on tint un grand nombre de conférences traitant des questions de responsabilités et d'indemnités des transporteurs maritimes. Aucun succès n'est atteint dans la poursuite de l'uniformité. Conséquemment, en 1893 les États Unis prennent la situation en mains pour régler le problème et adopte une loi nationale. Ainsi: «Les réactions sont venues des États Unis, pays de chargeurs qui supportent mal un système qui les désavantage au profit des armateurs traditionnels, anglais, norvégiens, grecs... Le Harter Act de 1893 établit un système transactionnel, mais impératif... »2 On constate qu'aux États Unis la question des clauses d'exonérations était enfin régie et par conséquent en grande partie leur application limitée. L'application du Harter Act n'étant pas au niveau international son degré de succès avait des limites. Sur Ie plan international la situation demeure la même et Ie besoin de trouver une solution acceptable pour tous persiste. Au début du vingtième siècle, I'utilisation des contrats de transport sous connaissement pour Ie transport de marchandise par mer est pratique courante. Au coeur du problème les contrats de transport sous connaissement dans lesquels les armateurs insèrent toutes sortes de clauses d'exonérations controversées. II devient évident qu'une solution au problème des clauses d'exonérations abusives tourne autour d'une règlementation de l'utilisation des contrats de transport sous connaissement. Ainsi, tout compromis qu'on peut envisager doit nécessairement régir la pratique des armateurs dans leurs utilisations des contrats de transport sous connaissement. Les années antérieures et postérieures à la première guerre mondiale furent marquées par I'utilisation croissante et injuste des contrats de transport sous connaissement. Le besoin de standardiser la pratique devenait alors pressant et les pays chargeurs s'impatientaient et réclamaient l'adoption d'une législation semblable au Harter Act des États Unis. Une chose était certaine, tous les intérêts en cause aspiraient au même objectif, atteindre une acceptation, certitude et unanimité dans les pratiques courantes et légales. Les Règles de la Haye furent la solution tant recherchée. Ils représentaient un nouveau régime pour gouverner les obligations et responsabilités des transporteurs. Leur but était de promouvoir un système bien balance entre les parties en cause. De plus elles visaient à partager équitablement la responsabilité entre transporteurs et chargeurs pour toute perte ou dommage causes aux biens transportes. Par conséquent, l'applicabilité des Règles de la Haye était limitée aux contrats de transport sous connaissement. Avec le temps on a reconnu aux Règles un caractère international et on a accepte leur place centrale sur Ie plan global en tant que base des relations entre chargeurs et transporteurs. Au départ, la réception du nouveau régime ne fut pas chaleureuse. La convention de la Haye de 1924 fut ainsi sujette à une opposition massive de la part des transporteurs maritimes, qui refusaient l'imposition d'un compromis affectant l'utilisation des clauses d'exonérations. Finalement Ie besoin d'uniformité sur Ie plan international stimula son adoption en grand nombre. Les règles de la Haye furent pour leur temps une vraie innovation une catalyse pour les reformes futures et un modèle de réussite globale. Pour la première fois dans 1'histoire du droit maritime une convention internationale régira et limitera les pratiques abusives des transporteurs maritimes. Les règles ne laissent pas place aux incertitudes ils stipulent clairement que les clauses d'exonération contraire aux règles de la Haye seront nulles et sans valeur. De plus les règles énoncent sans équivoque les droits, obligations et responsabilités des transporteurs. Néanmoins, Ie commerce maritime suivant son cours est marque par le modernisme de son temps. La pratique courante exige des reformes pour s'adapter aux changements de l'industrie mettant ainsi fin à la période d'harmonisation. Les règles de la Haye sous leur forme originale ne répondent plus aux besoins de l'industrie maritime. Par conséquent à la fin des années soixante on adopte les Règles de Visby. Malgré leur succès les règles n'ont pu échapper aux nombreuses critiques exprimant l'opinion, qu'elles étaient plutôt favorables aux intérêts des transporteurs et au détriment des chargeurs. Répondant aux pressions montantes on amende les Règles de la Haye, et Ie 23 février 1968 elles sont modifiées par Ie protocole de Visby. Essayant de complaire à l'insatisfaction des pays chargeurs, l'adoption des Règles de Visby est loin d'être une réussite. Leur adoption ne remplace pas le régime de la Haye mais simplement met en place un supplément pour combler les lacunes du système existant. Les changements qu'on retrouve dans Visby n'étant pas d'une grande envergure, la reforme fut critiquée par tous. Donnant naissance à des nouveaux débats et enfin à une nouvelle convention. Visby étant un échec, en 1978 la réponse arrive avec l'instauration d'un nouveau régime, différent de son prédécesseur (Hay/Haye-Visby). Les Règles de XI Hambourg sont Ie résultat de beaucoup d'efforts sur Ie plan international. Sous une pression croissante des pays chargeurs et plus particulièrement des pays en voie de développement la venue d'un nouveau régime était inévitables. Le bon fonctionnement de l'industrie et la satisfaction de toutes les parties intéressées nécessitaient un compromis qui répond aux intérêts de tous. Avec l'aide des Nations Unis et la participation de toutes les parties concernées les Règles de Hambourg furent adoptées. Accepter ce nouveau régime impliqua le début d'un nouveau système et la fin d'une époque centrée autour des règles de la Haye. II n'y a aucun doute que les nouvelles règles coupent les liens avec Ie passe et changent Ie système de responsabilité qui gouverne les transporteurs maritimes. L'article 4(2) de la Haye et sa liste d'exception est éliminé. Un demi-siècle de pratique est mis de coté, on tourne la page sur les expériences du passe et on se tourne vers une nouvelle future. Il est clair que les deux systèmes régissant Ie droit maritime visent Ie même but, une conformité internationale. Cette thèse traitera la notion de responsabilité, obligation et indemnisation des transporteurs maritimes sous les règles de la Haye et Hambourg. En particulier les difficultés face aux questions d'exonérations et d'indemnités. Chaque régime a une approche distincte pour résoudre les questions et les inquiétudes du domaine. D’un coté, la thèse démontrera les différentes facettes de chaque système, par la suite on mettra l'accent sur les points faibles et les points forts de chaque régime. Chaque pays fait face au dilemme de savoir quel régime devrait gouverner son transport maritime. La question primordiale est de savoir comment briser les liens du passe et laisser les Règles de la Haye dans leur place, comme prédécesseur et modèle pour Ie nouveau système. Il est sûr qu'un grand nombre de pays ne veulent pas se départir des règles de la Haye et continuent de les appliquer. Un grand nombre d'auteurs expriment leurs désaccords et indiquent qu'il serait regrettable de tourner le dos à tant d'années de travail. Pour se départir des Règles de la Haye, il serait une erreur ainsi qu'une perte de temps et d'argent. Pendant plus de 50 ans les cours à travers Ie monde ont réussi à instaurer une certaine certitude et harmonisation sur Ie plan juridique. Tout changer maintenant ne semble pas logique. Tout de même l'évident ne peut être ignorer, les Règles de la Haye ne répondent plus aux besoins du domaine maritime moderne. Les questions de responsabilité, immunité, fardeau de preuve et conflit juridictionnel demeurent floues. La législation internationale nécessite des reformes qui vont avec les changements qui marque l'évolution du domaine. Les précurseurs du changement décrivent les Règles de la Haye comme archaïques, injustes et non conforme au progrès. Elles sont connues comme Ie produit des pays industrialises sans l'accord ou la participation des pays chargeurs ou en voie de développement. Ainsi I'adoption des Règles de Hambourg signifie Ie remplacement du système précédent et non pas sa reforme. L'article 5(1) du nouveau système décrit un régime de responsabilité base sur la présomption de faute sans recours à une liste d'exonération, de plus les nouvelles règles étendent la période de responsabilité du transporteur. Les Règles de Hambourg ne sont peut être pas la solution idéale mais pour la première fois elle représente les intérêts de toutes les parties concernées et mieux encore un compromis accepte par tous. Cela dit, il est vrai que Ie futur prochain demeure incertain. II est clair que la plupart des pays ne sont pas presses de joindre ce nouveau régime aussi merveilleux soit-il. Le débat demeure ouvert Ie verdict délibère encore. Une chose demeure sure, l'analyse détaillée du fonctionnement de Hambourg avec ses défauts et mérites est loin d'être achevée. Seulement avec Ie recul on peut chanter les louanges, la réussite ou I'insuccès d'un nouveau système. Par conséquent, Ie nombre restreint des parties y adhérents rend l'analyse difficile et seulement théorique. Néanmoins il y'a de l'espoir qu'avec Ie temps l'objectif recherche sera atteint et qu'un commerce maritime régi par des règles et coutumes uniformes it. travers Ie globe sera pratique courante. Entre temps la réalité du domaine nous expose it. un monde divise et régi par deux systèmes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans une époque de changements des moyens de représentation et communication en architecture, cette recherche porte sur l’enseignement de la conception architecturale et plus spécifiquement sur l’apport que l’informatique pourrait avoir dans ce processus. En nous basant sur une méthodologie qualitative, exploratoire et participative, nous y procédons par enchainement de questions, celle de départ étant la suivante: Comment l’enseignement de la conception architecturale pourrait tirer avantage des moyens numériques? Notre objectif est de proposer des méthodes et des outils d’apprentissage aux étudiants en architecture pour enrichir leurs démarches de conception grâce à l’ordinateur. Après une revue de la littérature dans le domaine, et un approfondissement de l’étude sur le rôle des référents architecturaux et sur la conception intégrée, nous avons procédé à une observation exploratoire du travail des étudiants en atelier d’architecture. Ces premières étapes de la recherche ont permis de dégager des discordances entre les positions théoriques et la pratique en l’atelier, pour concrétiser ultérieurement la question de recherche. Dans le but de discerner des méthodes efficaces et innovatrices pour répondre aux discordances identifiées, nous avons engagé une étude de la littérature sur les théories cognitives par rapport aux connaissances, l’apprentissage et la conception. Certaines stratégies ont pu être définies, notamment la nécessité de représentation multimodale des référents architecturaux, l’importance de représenter le processus et non seulement le résultat, ainsi que l’avantage d’inciter les étudiants à travailler dans leur ‘zone proximale’ de développement. Suite à ces recherches, une méthode d’enseignement complémentaire a été définie. Elle propose aux étudiants des explorations de l’objet en conception basées sur la manipulation des savoir-faire architecturaux. Cette méthode a été opérationnalisée d’un point de vue pédagogique ainsi que didactique et mise à l’épreuve auprès des étudiants en atelier. Un prototype de librairie de référents architecturaux interactifs (LibReArchI) a été créé dans ce but. Elle a été conçue en tant qu’environnement de conception et espace de partage de savoir-faire entre étudiants et enseignants. Les principaux résultats de cette recherche démontrent le rôle positif de la méthode proposée pour le transfert des savoir-faire architecturaux lors de l’apprentissage en atelier. Son potentiel d’assister la conception intégrée et de stimuler l’émergence d’idées a été constaté. Au niveau théorique, un modèle d’un cycle du processus de design avec le numérique a été esquissé. En conclusion, des avenues de développements futurs de cette recherche sont proposées.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En salle d’opération, les tâches de l’anesthésiste sont nombreuses. Alors que l’utilisation de nouveaux outils technologiques l’informe plus fidèlement sur ce qui se passe pour son patient, ces outils font que ses tâches deviennent plus exigeantes. En vue de diminuer cette charge de travail, nous avons considérer l’administration automatique d’agents anesthésiques en se servant de contrôle en boucle fermée. À cette fin, nous avons développé un système d’administration d’un agent anesthésique (le propofol) visant à maintenir à un niveau optimal la perte de conscience du patient pendant toute la durée d’une chirurgie. Le système comprend un ordinateur, un moniteur d’anesthésie et une pompe de perfusion. L’ordinateur est doté d’un algorithme de contrôle qui, à partir d’un indice (Bispectral IndexTM ou BIS) fournit par le moniteur d’anesthésie détermine le taux d’infusion de l’agent anesthésiant. Au départ, l’anesthésiste choisit une valeur cible pour la variable de contrôle BIS et l’algorithme, basé sur système expert, calcule les doses de perfusion de propofol de sorte que la valeur mesurée de BIS se rapproche le plus possible de la valeur cible établie. Comme interface-utilisateur pour un nouveau moniteur d’anesthésie, quatre sortes d’affichage ont été considérés: purement numérique, purement graphique, un mélange entre graphique et numérique et un affichage graphique intégré (soit bidimensionnel). À partir de 20 scenarios différents où des paramètres normaux et anormaux en anesthésie étaient présentés à des anesthésistes et des résidents, l’étude des temps de réaction, de l’exactitude des réponses et de la convivialité (évaluée par le NASA-TLX) a montré qu’un affichage qui combine des éléments graphiques et numériques était le meilleur choix comme interface du système. Une étude clinique a été réalisée pour comparer le comportement du système d’administration de propofol en boucle fermée comparativement à une anesthésie contrôlée de façon manuelle et conventionnelle où le BIS était aussi utilisé. Suite à l’approbation du comité d’éthique et le consentement de personnes ayant à subir des chirurgies générales et orthopédiques, 40 patients ont été distribués également et aléatoirement soit dans le Groupe contrôle, soit dans le Groupe boucle fermée. Après l’induction manuelle de propofol (1.5 mg/kg), le contrôle en boucle fermée a été déclenché pour maintenir l’anesthésie à une cible de BIS fixée à 45. Dans l’autre groupe, le propofol a été administré à l’aide d’une pompe de perfusion et l’anesthésiste avait aussi à garder manuellement l’indice BIS le plus proche possible de 45. En fonction du BIS mesuré, la performance du contrôle exercé a été définie comme excellente pendant les moments où la valeur du BIS mesurée se situait à ±10% de la valeur cible, bonne si comprise de ±10% à ±20%, faible si comprise de ±20% à ±30% ou inadéquate lorsque >±30%. Dans le Groupe boucle fermée, le système a montré un contrôle excellent durant 55% du temps total de l’intervention, un bon contrôle durant 29% du temps et faible que pendant 9% du temps. Le temps depuis l’arrêt de la perfusion jusqu’à l’extubation est de 9 ± 3.7 min. Dans le Groupe contrôle, un contrôle excellent, bon, et faible a été enregistré durant 33%, 33% et 15% du temps respectivement et les doses ont été changées manuellement par l’anesthésiste en moyenne 9.5±4 fois par h. L’extubation a été accomplie après 11.9 ± 3.3 min de l’arrêt de la perfusion. Dans le Groupe boucle fermée, un contrôle excellent a été obtenu plus longtemps au cours des interventions (P<0.0001) et un contrôle inadéquat moins longtemps (P=0.001) que dans le Groupe contrôle. Le système en boucle fermée d’administration de propofol permet donc de maintenir plus facilement l’anesthésie au voisinage d’une cible choisie que l’administration manuelle.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’évolution de l’urbanisation dans le monde nous a motivés à développer nos recherches quant à cette croissance déchaînée des villes et ces multitudes de formes urbaines qui en résultent. L'objet de ce travail est d'analyser ces formes de croissance spatiales et d’analyse leur impact sur l’identité dans la ville. Il s'agit de montrer dans quelle mesure elles favorisent la prolifération de nouvelles identités dans les régions périphériques de la ville. Notre recherche porte alors sur une étude socio spatiale de la capitale de la Tunisie. Tunis, cette métropole en pleine expansion, occupe un emplacement stratégique dans la Méditerranée et joue un rôle important dans les échanges afro-européens. La pertinence de l’étude de l’évolution du domaine urbain de Tunis résulte du fait que cette ville a connu différents types de croissances. La variété des modes de développement de l’espace urbain fait de Tunis un exemple pertinent qui mérite d’être étudié, d’autant plus que l’espace englobe des banlieues planifiées, spontanées, historiques, et bien d’autres qui résultent du juste fait de l’informalité, allant du patrimoine à la construction d’une identité urbaine plurielle. Notre travail comportera donc une étude spatiale de l’évolution de l’espace urbain de Tunis, basée essentiellement sur des cartes et des photos satellites, doublées d’une analyse sociale, basée sur une enquête in situ, réalisée avec les habitants des banlieues, et ce, dans le but de recenser leurs degrés d’attachement à l’espace ainsi que les rapports qu’ils entament avec le centre-ville. Notre recherche nous a permis de conclure que les habitants des banlieues s’identifient aux nouvelles formes de croissance et développent au fil des années un sentiment d’appartenance et d’attachement identitaire à leurs quartiers. Cela contribue à la prolifération d’identités multiple dans la ville.