999 resultados para Chirurgie assistée par ordinateur (CAO)


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Rapport de synthèse : But: comparer les taux d'infections du site chirurgical (ISC) en fonction de la voie d'abord, ouverte ou laparoscopique, pour 3 procédures : l'appendicectomie, la cholécystectomie et la colectomie. Evaluer l'effet de la laparoscopie sur l'ISC pour ces trois interventions. Contexte : la laparoscopie est associée à de nombreux avantages par rapport à la chirurgie ouverte. Parmi ceux-ci, des taux inférieurs d'ISC ont été rapportés lors de laparoscopie. Ceci a été décrit en particulier lors de cholécystectomie. Mais des biais tels que le manque de suivi après la sortie de l'hôpital, et certains facteurs confondants, auraient pu contribuer à l'observation de différences entre ces deux techniques. Méthode : étude descriptive basée sur des données collectées entre mars 1998 et décembre 2004 de manière prospective dans le cadre d'un programme de surveillance des ISC dans 8 hôpitaux suisses. Ce programme comportait un suivi standardisé après le départ de l'hôpital. Les taux d'ISC ont été comparés après interventions faites par laparoscopie et chirurgie ouverte. Différents paramètres pouvant influencer la survenue d'une infection ont été identifiés en utilisant des modèles de régression logistiques. Résultats : les taux d'ISC après interventions par laparoscopie et par voie ouverte ont été respectivement de 59/1051 (5.6%) versus 117/1417 (8.3%) après appendicectomie (p = 0.01), 46/2606 (1.7%) versus 35/144 (7.9%) après cholécystectomie (p < 0.0001), et 35/311 (11.3%) versus 400/1781 (22.5%) après colectomie (p < 0,0001). Après ajustement, les interventions par laparoscopie étaient associées à un taux inférieur d'ISC : odds ratio = 0.61 (IC 95% : 0.43 - 0.87) pour l'appendicectomie, 0.27 (0.16 - 0.43) pour la cholécystectomie et 0.43 (0.29 - 0.63) pour la colectomie. Discussion et conclusion : bien que les patients aient quitté plus tôt l'hôpital après une intervention laparoscopique, leur suivi à un mois a été identique, ce qui a permis d'éviter une sous-estimation des ISC après chirurgie laparoscopique. De plus, l'analyse multivariée a inclus de nombreux facteurs potentiellement confondants, et l'utilisation de la laparoscopie était indépendamment et significativement liée à un effet protecteur à l'égard de l'ISC. La laparoscopie lors d'appendicectomie, cholécystectomie et colectomie semble diminuer le taux d'ISC en comparaison à la même chirurgie pratiquée par voie ouverte. Lorsqu'elle est faisable, cette voie d'abord minimalement invasive devrait être préférée à la chirurgie ouverte.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

1.1. La greffe de rein La greffe d'organes a révolutionné la médecine. De tout le temps elle a suscité les fantasmes et les rêves : la pratique est ancestrale ; elle remonte au 3ème siècle lorsque Saint Côme et Saint Damien réalisent pour la première fois une greffe de jambe de Maure sur un patient. Il faudra néanmoins attendre le 20ème siècle pour voir la transplantation se réaliser plus concrètement avec succès et se généraliser. A Vienne, en 1902, le Dr. Ulmann (1861-1937) pratique la toute première autogreffe de rein sur un chien. Il replace le rein de l'animal au niveau du cou, pratiquant une anastomose vasculaire. Depuis, les tentatives se multiplient et peu après le Dr. Von Decastello, pratique la première transplantation chien-chien. Par la suite, en associa- tion avec le Dr. Ulmann la première greffe entre un chien et une chèvre aura lieu, avec un certain succès. En effet, elle a permis à l'animal receveur de produire de l'urine. L'avancée majeure durant ce début de siècle fut le développement d'une nouvelle technique de suture vasculaire par le Dr. Carrel, qui obtiendra le prix Nobel en 1912. Son élève, le Dr. Jaboulay (1860-1913) a réalisé plusieurs tentatives de xénogreffes rénales. Il pratiquera en 1906 les deux premières xénogreffes en utilisant un cochon et une chèvre comme donneurs. Le greffon fut respectivement placé au niveau de la cuisse et du bras des patients. La fonction rénale durera une heure. En 1909 Ernest Unger (1875-1938) transplanta un rein de fox-terrier sur un boxer, avec une production d'urine pendant 14 jours. Durant la même année le Dr. Unger a pratiqué une xénogreffe en transplantant un rein de nouveau né sur un babouin, cette intervention se terminant par la mort de l'animal. Un autre essai de greffe singe à humain, pratiqué sur une femme mourant de défaillance rénale, a fait comprendre à Unger qu'il y a des barrières biologiques dans la transplantation, mais que la greffe rénale est techniquement faisable. En 1914, J.B. Murphy découvre l'importance de la rate et de la moelle osseuse dans la réponse immune. En 1933 et 1949 en Ukraine, les premières allogreffes humaines de reins sont pratiquées par le chirurgien soviétique Yu Yu Voronoy. Malheureuse- ment aucune fonction rénale des greffons n'a été observée. Après une période de « stagnation scientifique » générale qui durera à peu près 10 ans, l'intérêt pour la transplantation refait surface dans les années 1950. Deux équipes de chirurgien se forment : une à Boston et l'autre à Paris. De nombreux cas d'allogreffes humaines sans immunosuppression sont documentés de 1950 à 1953. Malheureusement chaque opération aboutit à un échec, ceci dû aux phénomènes du rejet. M. Simonsen et WJ. Dempster découvrent qu'un mécanisme immun est à la base du rejet. Ils établissent aussi que la position pelvienne était meilleure que la position plus superficielle. Grâce aux découvertes dans le domaine du rejet et les nombreux progrès techniques, une allogreffe entre vrais jumeaux est pratiquée à Boston en 1954. L'opération est un succès total et permet de contrer toutes les hypothèses négatives avancées par certains groupes de travail. Depuis 1948, de nombreux travaux dans le domaine de l'immunosuppression ont été entrepris. La découverte de l'action immunosuppressive de la cortisone permet son instauration dans le traitement anti-rejet, malheureusement avec peu de succès. En effet, l'irradiation totale reste la méthode de choix jusqu'en 1962, date de l'apparition de l'Azaothioprine (Imuran®). La découverte de l'Azaothioprine, permet d'avancer de nouvelles hypothèses concernant le rejet : en évitant le rejet post-opératoire aigu, une protection et une adaptation au receveur pourraient être modulées par l'immunosuppression. Dans les années 1960, l'apparition des immunosuppresseurs de synthèse permet de développer de nouvelles lignes de traitement. Le Dr.Starzl et ses collègues, découvrent l'efficacité d'un traitement combiné de Prednisone et d'Azathioprine qui devient alors le standard d'immunosuppression post greffe durant cette période. Les années 60 et 70 sont des années d'optimisme. La prise en charge des patients s'améliore, le développement de la dialyse permet de maintenir en vie les patients avant la greffe, les techniques de conservation des organes s'améliorent, la transplantation élargit son domaine d'action avec la première greffe de coeur en 1968. Le typage tissulaire permet de déterminer le type d'HLA et la compatibilité entre le re- ceveur et le donneur afin de minimiser les risques de rejet aigu. Les années 1970 se caractérisent par deux amélioration majeures : celle du typage HLA-DR et l'apparition des inhibiteurs de la calcineurine (Cyclosporine A). Ce dernier restera l'agent de premier choix jusqu'aux alentours des années 1990 où apparaissaient de nouveaux immunosuppresseurs, tels que les inhibiteurs mTOR (siroli- mus) et les inhibiteurs de l'inosine monophosphate déshydrogénase (mycophénolate mofétil), par exemple. En conclusion, la transplantation rénale a été une des premières transplantations d'organes solides pratiquées sur l'homme avec de nombreux essais cliniques impliquant une multitude d'acteurs. Malgré des périodes de hauts et de bas, les avancements techniques ont été notables, ce qui a été très favorable en terme de survie pour les patients nécessitant une greffe. 1.2. Le lymphocèle La greffe rénale, comme toute autre acte chirurgical, comporte des risques et une morbidité spécifique. Le lymphocèle a la prévalence la plus élevée, qui peut aller de 0.6 à 51% 1-3 avec des variations entre les études. Le lymphocèle est défini comme une collection post opératoire de liquide lymphatique dans une cavité non épithélialisée et n'est pas causée par une fuite urinaire ou une hémorragie1, 4. Historiquement, le lymphocèle a été décrit pour la première fois dans la littérature médicale dans les années 1950, par Kobayashi et Inoue5 en chirurgie gynécologique. Par la suite Mori et al.6 en 1960 documentent la première série d'analyse de lymphocèles. En 1969 le lymphocèle est décrit pour la première fois par Inociencio et al.7 en tant que complication de greffe rénale. Sa pathogénèse n'est pas complètement élucidée, cependant plusieurs facteurs de risque ont été identifiés tels que : la ligature inadéquate des vaisseaux lymphatiques lors de la dissection des vaisseaux iliaques du donneur et de la préparation du greffon, le BMI, les diurétiques, l'anticoagulation (héparine), les hautes doses de stéoïdes, certains agents immunosuppresseurs (sirolimus), le diabète, les problèmes de cicatrisation, une hypoalbuminémie, une chirurgie rétropéritonéale préalable et le rejet aigu de greffe. (Tableau 1) Une symptomatologie peut être présente ou absente : elle découle directement de la localisation et de la taille de la collection8, 9, 10. Lorsqu'on se trouve devant un tableau de lymphocèle asymptomatique, la découverte se fait de manière fortuite lors d'un contrôle de suivi de greffe11, 12 cliniquement ou par échographie. En cas de lymphocèle non significatif cela ne requiert aucun traitement. Au contraire, lorsqu'il atteint une certaines taille il provoque un effet de masse et de compression qui provoque la symptomatologie. Cette dernière est peu spécifique et apparait en moyenne entre 2 semaines et 6 mois 13 après la greffe. Le patient va se présenter avec un tableau pouvant aller de la simple douleur abdominale en passant par un oedème du membre inférieur ou, dans de plus rares cas, une thrombose veineuse profonde sera le seul signe consécutif au lymphocèle14, 15. La plupart du temps on observera des valeurs de créatinine élevées, signant une souffrance rénale. Le diagnostic du lymphocèle peut se faire selon plusieurs techniques. La plus utilisée est la ponction à l'aiguille fine sous guidage ultrasonographique4. L'analyse du liquide ponctionné permet de différencier un lymphocèle d'un urinome. Les autres techniques existantes sont : la ponction après injection de carmin d'indigo15, un pyelogramme intraveineux et un lymphangiogramme16, le CT-Scan ou l'IRM15. Le dosage sanguin d'IL6 et IL8 est parfois utilisé pour déterminer si le lymphocèle est infecté.15 Suite à l'apparition d'une collection symptomatique; le rein transplanté peut être dans une situation à risque pour laquelle un traitement doit être entrepris. A l'heure actuelle, il n'existe pas de solution universelle dans la prévention et le traitement de ce type de complication. Les solutions sont multiples et dépendent principalement de la localisation et de la taille de la collection. Pendant de nombreuses années, le seul traitement du lymphocèle a été celui de l'aspiration percutanée simple. Cette dernière conduit cependant à un taux de récidive de presque 100%.17 Cette technique reste une solution utilisée principalement à visée diagnostique18, 19, 20, 21 ou pour soulager les patients à court terme15. Pour améliorer l'efficacité de cette technique on a fait appel à des agents sclérosants comme l'éthanol, la povidone-iodine, la tétracycline, la doxycycline ou de la colle de fibrine. Des complications chirurgicales ont cependant été rapportées, pouvant aller jusqu'au rejet de greffe22. La fenestration par laparoscopie a été décrite pour la première fois en 1991 par McCullough et al.23 Cette technique reste, de nos jours, la technique la plus utilisée pour le traitement du lymphocèle. Elle a de nombreux avantages : un temps de convalescence court, des pertes de sang minimes et une réalimentation rapide24, 25. On constate en outre la quasi absence de récidives après traitement11, 26. L'évaluation radiologique est très importante, car la marsupialisation par laparoscopie est limitée par l'emplacement et le volume de la collection. Ainsi, on évitera ce type de traite- ment lorsque la collection se situera postérieurement, à proximité de la vessie, de l'uretère ou du hile rénal. Dans ces situations, la laparotomie s'impose malgré l'augmentation de la morbidité liée à cette technique24. Actuellement on cherche à trouver une technique universelle du traitement des lymphocèles avec la chirurgie la moins invasive possible et le taux de récidive le plus faible possible. Malgré ses li- mites, la fenestration par laparoscopie apparaît comme une très bonne solution. Cette étude consiste en une évaluation rétrospective des traitements chirurgicaux de cette complication post-opératoire de la greffe rénale au CHUV (Centre Hospitalier Universitaire Vaudois) de 2003 à 2011. Le but est de recenser et analyser les différentes techniques que l'on observe actuellement dans la littérature et pouvoir ainsi proposer une technique idéale pour le CHUV.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Résumé Introduction: La plupart des études disponibles sur la chirurgie colorectale par laparoscopie concernent des patients hautement sélectionnés. Le but de cette étude est d'analyser les résultats à court et à long terme de l'ensemble des patients traités dans un service de chirurgie générale. Méthodes: Il s'agit d'une analyse rétrospective d'un registre prospectif interne au service, dans lequel tous les patients consécutifs opérés pour la première fois du colon et du rectum entre mars 1993 et décembre 1997 ont été enregistrés. Les informations concernant le suivi ont été collectées par questionnaire. Résultats: Un total de 187 patients ont été opérés par laparoscopie et 215 patients par chirurgie ouverte durant la période d'étude. Les informations concernant le suivi ont pu être collectées dans 95% des cas avec une évolution de 1-107 mois (médiane 59 mois), respectivement de 1-104 mois (médiane 53 mois). Une conversion fut nécessaire dans 28 cas (15%) mais ceux-ci restent inclus dans le groupe laparoscopie pour l'analyse par intention de traitement. Dans le groupe laparoscopie, les opérations ont duré plus longtemps (205 vs 150 min, p<0.001) mais l'hospitalisation a été plus courte (8 vs 13 jours, p<0.001). La reprise du transit a été plus rapide après laparoscopie, mais uniquement après intervention sur le colon gauche (3 vs 4 jours, p<0.01). Cependant, la sélection préopératoire (nombre plus élevé d'urgences et de patients avec un risque anesthésiologique élevé dans le groupe de la chirurgie ouverte) a été favorable à la laparoscopie. Le taux de complications (global ainsi que pour chaque complication chirurgicale) a été similaire dans les deux groupes, avec un taux global de 20% environ. Conclusions: Malgré une sélection favorable des cas, uniquement très peu d'avantages à la laparoscopie sur la chirurgie ouverte ont pu être observés. Abstract Background: Most studies available on laparoscopic colorectal surgery focus on highly selected patient groups. The aim of the present study was to review short- and long-term outcome of everyday patients treated in a general surgery department. Methods: Retrospective review was carried out of a prospective database of all consecutive patients having undergone primary laparoscopic (LAP) or open colorectal surgery between March 1993 and December 1997. Follow-up data were completed via questionnaire. Results: A total of 187 patients underwent LAP resection and 215 patients underwent open surgery. Follow up was complete in 95% with a median of 59 months (range, 1-107 months) and 53 months (range, 1-104 months), respectively. There were 28 conversions (15%) in the LAP group and these remained in the LAP group in an intention-to-treat analysis. The LAP operations lasted significantly longer for all types of resections (205 vs 150 min, P<0.001) and hospital stay was shorter (8 vs 13 days, P<0.001). Recovery of intestinal function was faster in the LAP group, but only after left-sided procedures (3 vs 4days, P<0.01). However, preoperative patient selection (more emergency operations and patients with higher American Society of Anesthesiologists (ASA) score in the open group) had a major influence on these elements and favours the LAP group. Surprisingly, the overall surgical complication rate (including long-term complications such as wound hernia) was 20% in both groups with rates of individual complications also being comparable in both groups. Conclusion: Despite a patient selection favourable to the laparoscopy group, only little advantage in postoperative outcome could be shown for the minimally invasive over the open approach in the everyday patient.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Games are powerful and engaging. On average, one billion people spend at least 1 hour a day playing computer and videogames. This is even more true with the younger generations. Our students have become the < digital natives >, the < gamers >, the < virtual generation >. Research shows that those who are most at risk for failure in the traditional classroom setting, also spend more time than their counterparts, using video games. They might strive, given a different learning environment. Educators have the responsibility to align their teaching style to these younger generation learning styles. However, many academics resist the use of computer-assisted learning that has been "created elsewhere". This can be extrapolated to game-based teaching: even if educational games were more widely authored, their adoption would still be limited to the educators who feel a match between the authored games and their own beliefs and practices. Consequently, game-based teaching would be much more widespread if teachers could develop their own games, or at least customize them. Yet, the development and customization of teaching games are complex and costly. This research uses a design science methodology, leveraging gamification techniques, active and cooperative learning theories, as well as immersive sandbox 3D virtual worlds, to develop a method which allows management instructors to transform any off-the-shelf case study into an engaging collaborative gamified experience. This method is applied to marketing case studies, and uses the sandbox virtual world of Second Life. -- Les jeux sont puissants et motivants, En moyenne, un milliard de personnes passent au moins 1 heure par jour jouer à des jeux vidéo sur ordinateur. Ceci se vérifie encore plus avec les jeunes générations, Nos étudiants sont nés à l'ère du numérique, certains les appellent des < gamers >, d'autres la < génération virtuelle >. Les études montrent que les élèves qui se trouvent en échec scolaire dans les salles de classes traditionnelles, passent aussi plus de temps que leurs homologues à jouer à des jeux vidéo. lls pourraient potentiellement briller, si on leur proposait un autre environnement d'apprentissage. Les enseignants ont la responsabilité d'adapter leur style d'enseignement aux styles d'apprentissage de ces jeunes générations. Toutefois, de nombreux professeurs résistent lorsqu'il s'agit d'utiliser des contenus d'apprentissage assisté par ordinateur, développés par d'autres. Ceci peut être extrapolé à l'enseignement par les jeux : même si un plus grand nombre de jeux éducatifs était créé, leur adoption se limiterait tout de même aux éducateurs qui perçoivent une bonne adéquation entre ces jeux et leurs propres convictions et pratiques. Par conséquent, I'enseignement par les jeux serait bien plus répandu si les enseignants pouvaient développer leurs propres jeux, ou au moins les customiser. Mais le développement de jeux pédagogiques est complexe et coûteux. Cette recherche utilise une méthodologie Design Science pour développer, en s'appuyant sur des techniques de ludification, sur les théories de pédagogie active et d'apprentissage coopératif, ainsi que sur les mondes virtuels immersifs < bac à sable > en 3D, une méthode qui permet aux enseignants et formateurs de management, de transformer n'importe quelle étude de cas, provenant par exemple d'une centrale de cas, en une expérience ludique, collaborative et motivante. Cette méthode est appliquée aux études de cas Marketing dans le monde virtuel de Second Life.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

THESIS ABSTRACT : Stable isotope geochemistry is used to help resolve a large number of geological questions. In order to do this, it is essential to understand the different mechanisms that govern isotopic fractionation processes between different phases and to identify the conditions required to reach equilibrium fractionation. However, at low temperatures, these processes are poorly constrained and many factors can induce differential partitioning of the isotopes between sectors of a mineral species and the fluid during mineral growth. This can result in so-called 'sector zoning' of a mineral species. The aim of this thesis is to evaluate the occurrence of sector zoning of the oxygen isotopes and trace elements in natural α-quartz crystals and to identify the reasons for such zoning. The implications for the fluid-mineral interactions are studied in the context of the Alpine metamorphism. The approach chosen has focused on examining the crystal structure, cathodoluminescence appearance (CL), and on relating elemental (e.g. Li, Na, Al, P, K, Ca, Ge, Ti, Fe) to stable oxygen isotope compositions between and along different growth sectors. Low temperature quartz samples were selected from Alpine veins in different localities, where growth conditions have already been well constrained. The mineralogy as well as the isotopic compositions of the host rocks were also investigated, in order to interpret the variations obtained between the different growth stages in the framework of fluid-rock interaction during Alpine metamorphism. Depending on the growth conditions, most of the studied quartz is strongly zoned in CL, and it reveals corresponding zonations in the trace element content (e.g. growth zoning). Aluminium, substituting for Si in the lattice, was found in concentrations up to 1000's ppma, and its distribution is strongly related to Li and H and to a lesser extent, to Ge. Elemental sector zoning is evident from the distribution of these three elements since they exhibit differences in their respective concentrations between faces for distinct growth zones, with prismatic faces having the lowest Al contents. Quartz from veins in magmatic rocks, for example, tend to have lower Al concentrations and similar concentrations of Li and Ti suggesting also a contribution of these elements from the host rock. The relationship between Al and Li is still correlated. Only Alpine crystals grown at higher temperatures (~400°C) without any CL zoning feature are free of these impurities and do not show such zoning characteristics. Differences in the δ18O values were measured between different faces principally in the AIenriched growth zones or stages. These results were confirmed by the means of two different methods (in situ/non in situ). However, it was determined that the Al concentrations do not affect significantly oxygen isotope fractionations at 300°C. The results altogether suggest that the presence of sector zoning in quartz crystals is real, but not universal, and henceforth should be taken into consideration for any use of these systems. The occurrence of disequilibrium partitioning has been enhanced and is possibly related to kinetic processes as well as structural effects that do not affect similarly trace element incorporation and isotopic fractionation. In situ measurements also revealed fine scale δ18O zonations along growth paths that are useful to constrain fluid-rock interactions during Alpine metamorphism. Variations in the δ18O values present along growth vectors indicate changes in the fluid composition and origin. Association with oxygen isotope composition of the host rock allows for the deduction of interactions between rocks, veins and consequently fluids, as well as fluid regimes. RESUME DE LA THESE : A basses températures, (i.e. <400°C) les différents mécanismes qui régissent le fractionnement isotopique ainsi que les conditions nécessaires pour établir un état d'équilibre sont peu connus et nombre de paramètres peuvent entraîner un partitionnement chimique différentiel entre différents secteurs d'un minéral et le fluide en contact. Ainsi, ce travail de thèse a pour but d'évaluer la possible présence de zonages sectoriels en isotopes de l'oxygène mais aussi en éléments traces dans des cristaux naturels de quartz-α de basses températures, ainsi que les raisons d'un tel phénomène et enfin ses implications sur les interactions fluide-roche, principalement dans le cadre du métamorphisme Alpin. La structure et l'apparence en cathodoluminescence (CL) des échantillons ont été caractérisées avant de retracer en détail les compositions en élément traces (Li, Na, Al, P, K, Ca, Ge, Ti, Fe) et en isotopes de l'oxygène, le long et entre différents secteurs. Les échantillons de quartz sélectionnés proviennent majoritairement de veines Alpine de différentes localités, où les conditions de croissance ont été déjà bien caractérisées. Les compositions minéralogiques et isotopiques de la roche encaissante ont aussi été examinées, pour contraindre les variations obtenues dans un contexte Alpin. Selon leurs conditions de croissance, la plupart des cristaux étudiés sont fortement zonés, ce qui est souligné par un zonage des concentrations en éléments traces (e.g. zonage de croissance). L'Aluminium, qui peut se substituer à la Silice dans le réseau cristallin, a été retrouvé jusqu'en très grandes concentrations dans certaines zones (plusieurs milliers de ppma). De plus, la distribution en Al est fortement liée à celles de Li et H, ainsi que dans une moindre mesure à Ge. La présence de zonage sectoriel est évidente au niveau de ces éléments qui montrent de larges différences de concentrations entre différentes faces pour une même zone de croissance, avec les concentrations les plus basses retrouvées dans les faces prismatiques. Les quartz de veines situées dans des roches magmatiques par exemple possèdent des concentrations en Li et Ti de même ordre de grandeur, confirmant le rôle de la composition de la roche encaissante. La relation Li/Al est toujours fortement présente, mais ce rapport est fonction de la face mesurée. Seuls les cristaux Alpins de plus hautes températures (400°C) ne possédant pas de zones en CL ne présentent aucune de ces caractéristiques. Des différences dans les valeurs de δ18O de zones identiques enrichies en Al ont clairement été mesurées entre les différentes faces r, z, et m, mais aussi au sein d'une même seule zone, indiquant que le fractionnement a probablement eu lieu en déséquilibre. Il a été déterminé que la présence d'Al dans ces teneurs n'avait qu'un faible effet sur le fractionnement isotopique de l'oxygène. L'utilisation de deux méthodes différentes a permis d'obtenir des résultats in situ et non in situ concordants. La comparaison des résultats obtenus permet de démontrer que le zonage sectoriel est bien présent dans certains cristaux de quartz, et dépend des conditions de formation. La présence d'un partitionnement différentiel des éléments traces peut être due à des effets cinétiques aussi bien que structuraux, alors que le zonage sectoriel des isotopes de l'oxygène aurait d'autres origines. Il est alors évident que la possibilité de zonage sectoriel doit être désormais pris en considération avant toute interprétations de données isotopiques de cristaux zonés. Les mesures in situ ont de plus permis de distinguer de fines variations des valeurs δ18O au cours de la croissance, qui peuvent aider à retracer la circulations des fluides dans les Alpes durant cette période. En association avec les compositions des roches encaissantes, ii est possible de déduire les interactions entre roches, veines, et par conséquent fluides, au cours de différentes étapes. RESUME GRAND PUBLIC : La géochimie des isotopes stables a pris beaucoup d'importance depuis ces dernières années pour aider à résoudre nombre de questions géologiques, en se basant sur les caractéristiques du fractionnement isotopiques pour différents systèmes. Il est donc nécessaire d'avoir une connaissance approfondie des mécanismes qui s'appliquent au fractionnement isotopique entre les minéraux et les fluides à partir desquels ils se forment. Ces mécanismes ont été bien approchés par différents types de calibrations pour des systèmes à hautes températures, cependant cela n'est pas aussi évident pour les systèmes à des températures inférieures à 400-500°C. Ce travail de thèse a pour but d'aider à la description et la compréhension des phénomènes qui peuvent affecter le fractionnement isotopique à basses températures, ainsi que leurs implications, à partir de l'étude de cristaux de quartz. Le choix des échantillons s'est porté sur des cristaux naturels formés à des températures inférieures ou égales à 400°C, provenant majoritairement de fissures hydrothermales Alpines dont les conditions de formation ont déjà été déterminées. L'étude des cristaux Alpin permet de plus de replacer les résultats obtenus dans le contexte du métamorphisme Alpin au cours du Miocène (21-13 Ma). Après examen de la structure et de la morphologie des cristaux, et leur caractérisation par cathodoluminescence (CL), des analyses chimiques détaillées sur les éléments en traces pouvant entrer dans le réseau cristallin du quartz comme impuretés (i.e. Li, Na, Al, P, K, Ca, Ge, Ti), et des isotopes stables de l'oxygène, ont été menées. En fonction des conditions de croissance, la plupart des cristaux présentent des zonations, qui peuvent être facilement reliées à la distribution des éléments traces analysés par microsonde électronique, sonde ionique (SIMS) et LA-ICPMS. De fortes concentrations d'Aluminium (plusieurs milliers de parties par million atomique) ont pu être observées dans les zones les plus externes des cristaux. De plus, les concentrations en Al et en Li sont toujours corrélées; la présence d'Hydrogène déduite à partir d'analyses par FTIR suit cette même tendance. Les différentes faces des cristaux présentent des concentrations distinctes d'Al, Li et H pour des mêmes zones de croissance, avec par exemple les concentrations les plus faibles dans les zones des faces prismatiques. Cela implique la présence d'un zonage sectoriel, qui a déjà été observé principalement dans des carbonates mais jamais décrit auparavant pour des quartz. Seuls les cristaux alpins homogènes en CL dont la croissance s'est faite à plus haute température (400°C) ne présentent aucune de ces caractéristiques. Par analogie avec le zonage sectoriel en Al, élément qui se substitue au Si dans le réseau cristallin du quartz, il est possible de penser qu'un zonage sectoriel pourrait aussi s'appliquer aux isotopes de l'oxygène. Des précédentes études avaient en effet émis cette hypothèse. Nos résultats ont été obtenus à partir d'analyses à la fois in- situ par SIMS, et par extraction assistée par laser-CO2 sur des parties de quartz soigneusement séparées, et sont en accord entre les deux méthodes. Un zonage sectoriel est en effet bien présent pour les cristaux alpins, mais principalement au niveau des zones très riches en Aluminium. Cependant, il a été déterminé que la présence d'Al dans ces teneurs avait un effet plus que minimal sur le fractionnement isotopique de l'oxygène. Des différences importantes ont été observées entre les faces r & z mais aussi au sein d'une même et seule zone, indiquant que le fractionnement a pu avoir lieu en déséquilibre, ce qui est aussi visible au niveau des valeurs totalement opposées entre faces pour la dernière phase de croissance de certains cristaux. Ainsi l'association de ces résultats laisse suggérer que la présence d'un zonage sectoriel peut être liée à différents paramètres tels que le taux de croissance ou la structure de surface du cristal, mais qui n'affectent pas de la même façon l'incorporation des éléments traces et le fractionnement isotopique. La possibilité d'un zonage sectoriel est importante à prendre en compte lors de toute interprétation de données isotopiques. Les analyses des isotopes de l'oxygène effectuées par SIMS ont aussi permis de distinguer des variations importantes à petite échelle au cours de la croissance. Des mesures faites par laser CO2 sur certaines roches encaissantes, ont permis distinguer plusieurs étapes dans la croissance des minéraux et de déduire le rôle de l'encaissant et le type de fluide. En association avec de précédentes études, il a été ainsi possible de mieux contraindre la formation de ces cristaux dans le contexte alpin et la circulation de fluide au cours du métamorphisme alpin durant le Miocène.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Résumé sous forme de thèses 1. La présente thèse de doctorat traite de la problématique des licences obligatoires en droit communautaire de la concurrence. Plus précisément, il s'agit d'examiner si et sous quelles conditions le refus de licencier un droit de propriété intellectuelle par une entreprise peut constituer un abus d'une position dominante selon l'article 82 du Traité CE. L'étude fait notamment référence aux marchés de haute technologie et ici à la décision Microsoft, qui a été publiée par la Commission européenne en mars 2004 et qui porte, dans sa deuxième partie, sur la possibilité de rendre interopérables différents composants, via des informations appelées interfaces. 2. La question d'une licence obligatoire ne se pose que si l'information recherchée est protégée par un droit de propriété intellectuelle et si cette information ne peut être obtenue par d'autres moyens. C'est pourquoi la première partie de l'étude examine deux sujets importants concernant l'interopérabilité: d'une part la méthode de décompilation permet-elle d'obtenir des interfaces de logiciel, d'autre part, les interfaces sont-elles protégées par le droit d'auteur. 3. En ce qui concerne la décompilation des programmes d'ordinateur, l'étude démontre que cette méthode ne permet pas de rendre interopérables différents programmes d'ordinateur de manière efficace. Le droit européen a légalisé cette méthode, après des débats publics très vifs, par l'article 6 de la directive concernant la protection juridique des programmes d'ordinateur (91/250/CEE). Il semble néanmoins que la lutte pour un tel droit de décompilation a été vaine :Tout d'abord, l'article 6 est rédigé d'une façon très complexe et autorise une décompilation seulement selon des conditions très restrictives. En plus, la décompilation en elle-même est un travail très complexe qui peut durer des années et qui ne garantit pas de trouver les informations recherchées. 4. En outre, une réglementation de décompilation n'existe jusqu'à présent que dans le domaine du droit d'auteur, tandis qu'une règlementation pour la protection juridique des brevets fait défaut. La question concernant la protection juridique des brevets pour les inventions mises en rouvre par ordinateur restera aussi dans le futur sans réponse, étant donné que le Parlement européen a rejeté une telle proposition de directive en juillet 2005. Ceci est regrettable, parce que la proposition de directive prévoyait explicitement un droit de décompilation. La Commission européenne projette, cependant, de réexaminer les dispositions de décompilation relatives au droit d'auteur. Dans ce contexte, il devrait notamment être examiné si les dispositions de décompilation de l'article 6 de la directive des programmes d'ordinateur sont satisfaisantes afin de garantir une (certaine) interopérabilité. 5. Un réexamen de la directive concernant la protection juridique des programmes d'ordinateur pourrait aussi servir à clarifier l'existence et l'étendue de la protection d'interfaces. L'article 1, paragraphe 2, 2ième phrase se réfère dans ce contexte uniquement à un principe reconnu en droit international du droit d'auteur, dénommé «dichotomie d'idée/d'expression» : seul l'expression individuelle est protégée, mais pas l'idée en tant que telle. La rédaction de l'article devrait ainsi préciser qu'une spécification d'une interface constitue toujours une idée, qui ne peut pas être protégée, alors que l'implémentation de l'interface dans un programme d'ordinateur représente son expression et devrait ainsi bénéficier d'une protection selon le droit d'auteur. Or, dans la plupart des cas, la spécification d'une interface est suffisante pour rendre interopérables différents programmes d'ordinateur. 6. La Commission dans sa décision Microsoft a pourtant supposé que les interfaces recherchées par les concurrents de Microsoft pouvaient être protégées par des droits de propriété intellectuelle. En effet, le seul moyen à disposition pour ceux qui veulent rendre interopérables leur programme d'ordinateur et avec celui d'une entreprise dominante est le recours à l'article 82 CE. Ici, la question qui se pose est celle de savoir si le refus de fournir des interfaces constitue un abus d'une position dominante et donc mène à l'octroi d'une licence obligatoire. 7. Dans le contexte des licences obligatoires selon l'article 82 CE, il est courant d'invoquer la relation de conflit entre la propriété intellectuelle et le droit de la concurrence. Or, l'étude démontre que ces deux institutions de droit poursuivent le même but, à savoir l'encouragement au bien-être des consommateurs en stimulant l'innovation. Les objectifs convergent notamment si on définit la concurrence plutôt en tant que concept dynamique. Par conséquent, des restrictions temporaires à la concurrence peuvent être acceptées, si ceci mène à la création de la concurrence à long terme. Pourtant, des conflits potentiels persistent, étant donné qu'on ne peut pas argumenter que chaque restriction à la concurrence effectuée par le titulaire d'un droit de propriété intellectuelle mène à l'incitation de l'innovation à long terme. 8. En réfutant ce dernier argument, l'étude démontre que les droits de propriété intellectuelle ne peuvent pas être généralement exemptés de l'application du droit de la concurrence. Notamment, selon l'état actuel de la jurisprudence, il ne peut être soutenu qu'il existe un noyau dur spécifique du droit de la propriété intellectuelle, qui ne devrait pas être affecté par le droit de la concurrence. L'ordonnance d'une licence obligatoire peut être justifiée sur la base de l'article 82 CE, dans la mesure où la balance d'intérêts démontre un effet positif au bien-être des consommateurs résultant d'une telle licence. En même temps, les droits individuels du propriétaire d'un droit de propriété intellectuelle sont à respecter, surtout la liberté contractuelle et la protection de la propriété. 9. Le droit de la liberté contractuelle et le droit de la propriété sont atteints, si le propriétaire d'un droit, de nature matérielle ou immatérielle, n'a exercé son droit de propriété que pour lui-même, exclusivement, sans jamais avoir démontré la volonté de s'acquitter de ses droits. C'est donc surtout pour protéger ces deux principes de droit que la présente étude fait une distinction majeure entre le refus de contracter et la rupture d'une relation contractuelle. 10. Le premier cas est traité de manière détaillée sous le chapitre de la doctrine des facilités essentielles (EFD). Selon la position prise ici, cette constellation est caractérisée par l'obligation du propriétaire de contracter et ainsi d'établir des relations d'affaires avec ses concurrents. Or, un principe selon lequel les entreprises en position dominante sont obligées d'encourager la concurrence, n'existe pas en droit communautaire. Il est toutefois nécessaire de pouvoir imposer une telle obligation, notamment dans les cas où la concurrence sur un marché ne peut être mise en oeuvre à long terme par un autre moyen et où cette ouverture du marché n'entraîne pas d'obstacles à l'innovation. 11. La constellation particulière des facilités essentielles exige néanmoins un contrôle plus prudent que dans les cas constituant une rupture de relation d'affaires. Cette exigence a été respectée sur base des conditions que l'arrêt Bronner a établit concernant l'essentialité d'une facilité. Même si l'établissement en question remplit toutes les conditions afin d'être qualifié d'essentiel, l'ordonnance d'un accès obligé doit encore passer l'examen d'une balance d'intérêts. Celle-ci mène encore plus rarement à l'octroi d'une licence dans les cas où la facilité est protégée par un droit de propriété intellectuelle. Des exceptions à cette règle existent si le droit de la propriété intellectuelle n'a pas été obtenu par des moyens basés sur le mérite ou si la fonction d'incitation à l'innovation est en doute. 12. L'affaire IMS Health présente un tel cas exceptionnel. La structure recherchée par les concurrents de IMS remplissait, au moment de l'examen de l'affaire par la Commission européenne, tous les critères d'un standard de facto. En outre, au moment du développement de la structure, celle-ci ne bénéficiait pas d'une protection de droit immatérielle. Une telle protection ne lui a été accordée que depuis la transposition de la directive concernant la protection juridique des bases de données en droit d'auteur allemand. Par conséquent, IMS ne pouvait avoir entrepris des investissements dans la construction de la structure, afin de profiter ultérieurement de la protection du droit d'auteur. Ceci affaiblit la présomption selon laquelle l'utilisation exclusive du droit aurait dû être préservée afin de ne pas faire obstacle à l'innovation. 13. Le cas européen de Microsoft se distingue de cette constellation. Les conditions qui ont mené à la décision de la Commission européenne quant à l'attribution d'interopérabilité et ainsi à une licence obligatoire d'interfaces, ont été présenté de manière détaillée dans cette étude. Elles fournissent les meilleures preuves que les «circonstances exceptionnelles », qui ont été déterminantes dans l'affaire Magill de la Cour de justice, à savoir «l'empêchement de la création d'un nouveau produit », le «manque de justification objective » et «l'empêchement de toute concurrence sur un marché en aval distinct », ne peuvent constituer une énumération exhaustive pour l'ordonnance d'une licence obligatoire. 14. En effet, dans l'affaire Microsoft, l'intersection progressive d'interopérabilité entre les systèmes d'exploitation étrangers à Microsoft et des systèmes d'exploitation de Microsoft n'a pas empêché la création de nouveaux produits. Le marché en question, celui des systèmes d'exploitation pour serveur de groupe de travail, avait été créé par l'entreprise Novell. Par conséquent, quand Microsoft a accédé à ce marché, d'autres entreprises en situation d'offre s'y trouvaient déjà avec leurs produits. Il s'en suit que, en 'exigeant de Microsoft des interfaces correspondantes, il s'agissait d'assurer l'interopérabilité avec les produits de Microsoft, et surtout avec l'omniprésent système d'exploitation pour ordinateur PC, afin de maintenir des produits déjà existants sur le marché, et notamment des produits «pionniers »qui avaient pris le risque d'exploiter le marché des systèmes d'exploitation pour serveur de groupe de travail. 15. Une autre circonstance exceptionnelle que celle d'un nouveau produit empêché donne l'impulsion à la thèse qu'une intersection progressive aux interfaces de Microsoft constitue un abus d'une position dominante selon l'article 82 CE : celle du transfert du pouvoir de marché. L'intégration verticale d'une entreprise en position dominante sur un marché qui n'a jusqu'à ce jour été que fourni par celle-ci, et qui rompt des relations contractuelles avec des entreprises agissant sur ce marché, afin d'évincer de la concurrence, constitue un cas de type connu de l'abus, reconnue pour la première fois dans l'arrêt Commercial Solvents de la CJCE: L'entreprise en position dominante utilise son pouvoir sur un marché initial et stratégiquement important et se sert ainsi des avantages, qui ne peuvent être conciliés avec le concept de concurrence par le mérite. 16. Il doit être de même si le bien en question bénéficie d'un droit immatériel, et qu'il s'agit ainsi d'un arrêt d'une licence. En effet, les fonctions, en principe supposées, d'incitation et de mérite, perdent de leur importance si le bien en question a déjà fait objet d'une licence: Il ne peut pas alors être argumenté que le propriétaire d'un droit immatériel doit l'utiliser exclusivement lui-même, afin de profiter des fruits de son mérite. Cet argument particulier de la prise en compte de l'effet d'incitation et de mérite perd d'autant plus de sa pertinence, si l'entreprise en cause ne fournit pas sur le marché dérivé une innovation, mais ne sert juste qu'à vendre un produit déjà préexistant. 17. Dans le domaine de licence de propriété intellectuelle obligatoire selon l'article 82 CE, les juridictions européennes n'ont jusqu'à présent uniquement eu à décider sur des constellations de cas, dans lesquelles le droit n'avait pas été l'objet d'une licence antérieure. Avec le cas Microsoft, le Tribunal de Première Instance a maintenant la possibilité de décider d'une distinction importante à faire en droit de la concurrence entre, d'une part, les cas dans lesquels un droit de propriété intellectuelle n'a pas encore été l'objet d'une licence et de l'autre, ceux dans lesquels il s'agit d'une rupture de licence.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ce mémoire examine l'adoption des téléphones mobiles et l'utilisation des messages texte (SMS) par les adolescents chinois, selon la théorie des usages et gratifications et de la recherche sur la communication par ordinateur. Certains champs particuliers de l'utilisation des messages textes par les adolescents chinois, comme le contrôle parental, la circulation des chaînes de messages, la popularité des messages de salutations et l'utilisation répandue des émoticônes ont été étudiés. La fonction sociale des SMS, plus particulièrement des pratiques sociales et des relations émotionnelles des adolescents chinois, a également été explorée. Cette étude est basée sur un sondage réalisé sur le terrain auprès de 100 adolescents chinois. Elle révèle que chez les adolescents chinois, les deux principales raisons pour l'adoption du téléphone mobile sont l'influence parentale et le besoin de communication sociale. Quant à l'utilisation des messages texte, elle répond à sept usages et gratifications : la flexibilité, le coût modique, l’intimité, éviter l'embarras, le divertissement, l'engouement et l'évasion. Il a également été observé que les messages texte jouent un rôle positif dans la construction et l'entretien des relations sociales des adolescents chinois.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

De récentes découvertes montrent le rôle important que joue l’acide ribonucléique (ARN) au sein des cellules, que ce soit le contrôle de l’expression génétique, la régulation de plusieurs processus homéostasiques, en plus de la transcription et la traduction de l’acide désoxyribonucléique (ADN) en protéine. Si l’on veut comprendre comment la cellule fonctionne, nous devons d’abords comprendre ses composantes et comment ils interagissent, et en particulier chez l’ARN. La fonction d’une molécule est tributaire de sa structure tridimensionnelle (3D). Or, déterminer expérimentalement la structure 3D d’un ARN s’avère fort coûteux. Les méthodes courantes de prédiction par ordinateur de la structure d’un ARN ne tiennent compte que des appariements classiques ou canoniques, similaires à ceux de la fameuse structure en double-hélice de l’ADN. Ici, nous avons amélioré la prédiction de structures d’ARN en tenant compte de tous les types possibles d’appariements, dont ceux dits non-canoniques. Cela est rendu possible dans le contexte d’un nouveau paradigme pour le repliement des ARN, basé sur les motifs cycliques de nucléotides ; des blocs de bases pour la construction des ARN. De plus, nous avons dévelopées de nouvelles métriques pour quantifier la précision des méthodes de prédiction des structures 3D des ARN, vue l’introduction récente de plusieurs de ces méthodes. Enfin, nous avons évalué le pouvoir prédictif des nouvelles techniques de sondage de basse résolution des structures d’ARN.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ce mémoire s'intéresse à la vision par ordinateur appliquée à des projets d'art technologique. Le sujet traité est la calibration de systèmes de caméras et de projecteurs dans des applications de suivi et de reconstruction 3D en arts visuels et en art performatif. Le mémoire s'articule autour de deux collaborations avec les artistes québécois Daniel Danis et Nicolas Reeves. La géométrie projective et les méthodes de calibration classiques telles que la calibration planaire et la calibration par géométrie épipolaire sont présentées pour introduire les techniques utilisées dans ces deux projets. La collaboration avec Nicolas Reeves consiste à calibrer un système caméra-projecteur sur tête robotisée pour projeter des vidéos en temps réel sur des écrans cubiques mobiles. En plus d'appliquer des méthodes de calibration classiques, nous proposons une nouvelle technique de calibration de la pose d'une caméra sur tête robotisée. Cette technique utilise des plans elliptiques générés par l'observation d'un seul point dans le monde pour déterminer la pose de la caméra par rapport au centre de rotation de la tête robotisée. Le projet avec le metteur en scène Daniel Danis aborde les techniques de calibration de systèmes multi-caméras. Pour son projet de théâtre, nous avons développé un algorithme de calibration d'un réseau de caméras wiimotes. Cette technique basée sur la géométrie épipolaire permet de faire de la reconstruction 3D d'une trajectoire dans un grand volume à un coût minime. Les résultats des techniques de calibration développées sont présentés, de même que leur utilisation dans des contextes réels de performance devant public.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les pays industrialisés comme le Canada doivent faire face au vieillissement de leur population. En particulier, la majorité des personnes âgées, vivant à domicile et souvent seules, font face à des situations à risques telles que des chutes. Dans ce contexte, la vidéosurveillance est une solution innovante qui peut leur permettre de vivre normalement dans un environnement sécurisé. L’idée serait de placer un réseau de caméras dans l’appartement de la personne pour détecter automatiquement une chute. En cas de problème, un message pourrait être envoyé suivant l’urgence aux secours ou à la famille via une connexion internet sécurisée. Pour un système bas coût, nous avons limité le nombre de caméras à une seule par pièce ce qui nous a poussé à explorer les méthodes monoculaires de détection de chutes. Nous avons d’abord exploré le problème d’un point de vue 2D (image) en nous intéressant aux changements importants de la silhouette de la personne lors d’une chute. Les données d’activités normales d’une personne âgée ont été modélisées par un mélange de gaussiennes nous permettant de détecter tout événement anormal. Notre méthode a été validée à l’aide d’une vidéothèque de chutes simulées et d’activités normales réalistes. Cependant, une information 3D telle que la localisation de la personne par rapport à son environnement peut être très intéressante pour un système d’analyse de comportement. Bien qu’il soit préférable d’utiliser un système multi-caméras pour obtenir une information 3D, nous avons prouvé qu’avec une seule caméra calibrée, il était possible de localiser une personne dans son environnement grâce à sa tête. Concrêtement, la tête de la personne, modélisée par une ellipsoide, est suivie dans la séquence d’images à l’aide d’un filtre à particules. La précision de la localisation 3D de la tête a été évaluée avec une bibliothèque de séquence vidéos contenant les vraies localisations 3D obtenues par un système de capture de mouvement (Motion Capture). Un exemple d’application utilisant la trajectoire 3D de la tête est proposée dans le cadre de la détection de chutes. En conclusion, un système de vidéosurveillance pour la détection de chutes avec une seule caméra par pièce est parfaitement envisageable. Pour réduire au maximum les risques de fausses alarmes, une méthode hybride combinant des informations 2D et 3D pourrait être envisagée.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En Argentine, la biotechnologie agricole, spécialement le soya transgénique, a été adoptée de façon fulgurante et elle a provoqué un fort choc dans l’économie nationale et dans la société. Actuellement, dû à la gravité des conséquences de ce phénomène, les médias, et la presse en particulier, ont fait écho du débat. Le but général de cette étude est d’analyser le débat de société sur ce phénomène dans la presse écrite argentine. Pour ce faire, trois objectifs spécifiques ont été retenus : dresser un portrait général du discours; comprendre le contexte politique et économique qui a permis l’insertion de la biotechnologie agricole en Argentine; et analyser les enjeux socioéthiques subjacents au problème des biotechnologies. Pour répondre à ces objectifs, on a effectué une analyse de contenu du discours social circonscrit à la presse écrite argentine entre les années 1999- 2006. La démarche privilégiée inclut la classification des articles de journaux par l’utilisation de mots-clés et l’assignation à des catégories thématiques avec l’assistance des techniques d’analyse de texte par ordinateur. Les résultats de cette étude signalent pour la période étudiée une importante couverture journalistique des biotechnologies agricoles, couverture qui, en général, a été favorable. La quantité d’articles augmente avec les années et montre un virage important des sujets commerciaux à des questions politiques. Le débat autour des conséquences environnementales et sociales de l’application du nouveau modèle agricole sont pauvrement représentées et montrent une apparition plus tardive dans les journaux argentins. Cependant, cela pourrait s’expliquer par un déplacement dans l’axe de la discussion des biotechnologies vers la sojisation qui devient l’enjeu central du débat autour du phénomène agricole.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thése a été réalisée dans le cadre d'une cotutelle avec l'Institut National Polytechnique de Grenoble (France). La recherche a été effectuée au sein des laboratoires de vision 3D (DIRO, UdM) et PERCEPTION-INRIA (Grenoble).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

À ce jour, peu d’études ont été conduites pour mieux comprendre le phénomène de la demande d’aide auprès d’hommes dans le contexte du cancer. Les études consultées suscitaient de nombreuses questions et hypothèses sur la signification que pouvaient accorder ces hommes à la demande d’aide. C’est pourquoi l’étudiante chercheuse a réalisé cette étude phénoménologique auprès d’hommes atteints d’un cancer de la sphère otorhinolaryngologique, afin de mieux comprendre ce phénomène. Huit hommes ont accepté de participer à l’étude. Suite aux entrevues semi-structurées, l’analyse des données, assistée par la méthode proposée par Giorgi (1997), a fait ressortir les thèmes centraux suivants : 1) Se sentir capables de faire face seuls aux diverses adversités; 2) Bénéficier du soutien des proches et de l’équipe de soins; et 3) Utiliser des stratégies cognitives. Les résultats ont révélé que la signification accordée à la demande d’aide est intimement liée à la construction sociale du genre, c’est-à-dire aux normes d’identité masculine acquises culturellement. Les valeurs accordées à l’autonomie, à l’estime de soi et à « l’égo masculin » expliqueraient en partie pourquoi les hommes interviewés demandent peu d’aide. Par ailleurs, la présence constante de la conjointe et le soutien de l’équipe professionnelle de santé semblent avoir grandement modulé les comportements de demande d’aide des participants en anticipant leurs besoins avant même qu’ils puissent les exprimer; ce qui invite à une réflexion sur l’empowerment, stratégie d’intervention fondée sur la responsabilisation individuelle. Des recommandations pour la pratique et la recherche infirmières sont formulées afin d’optimiser le soin et le développement du savoir infirmier dans ce domaine d’intérêt.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’un des aspects les plus percutants des avancées de la technologie des quinze dernières années a trait à la communication médiée par ordinateur : clavardage, messagerie instantanée, courrier électronique, forums de discussion, blogues, sites de réseautage social, etc. En plus d’avoir eu un impact significatif sur la société contemporaine, ces outils de communication ont largement modifié les pratiques d’écriture. Notre objet d’étude est le clavardage en groupe qui offre la possibilité aux scripteurs de communiquer simultanément entre eux. Cet outil de communication présente deux caractéristiques importantes aux plans discursif et communicationnel. Premièrement, on admet de façon générale que le clavardage est une forme de communication hybride : le code utilisé est l’écrit, mais les échanges de messages entrent dans une structure de dialogue qui rappelle l’oral. Deuxièmement, le caractère spontané du clavardage impose la rapidité, tant pour l’encodage que pour le décodage des messages. Dans le cadre d’une étude comparative réalisée sur les pratiques scripturales des clavardeurs francophones (Tatossian et Dagenais 2008), nous avons établi quatre catégories générales pour rendre compte de toutes les variantes scripturales de notre corpus : procédés abréviatifs, substitutions de graphèmes, neutralisations en finale absolue et procédés expressifs. Nous voulons maintenant tester la solidité de notre typologie pour des langues dont le degré de correspondance phonético-graphique diffère. En vertu de l’hypothèse de la profondeur de l’orthographe (orthographic depth hypothesis [ODH]; Katz et Frost 1992) selon laquelle un système orthographique transparent (comme l’italien, l’espagnol ou le serbo-croate) transpose les phonèmes directement dans l’orthographe, nous vérifierons si nos résultats pour le français peuvent être généralisés à des langues dont l’orthographe est dite « transparente » (l’espagnol) comparativement à des langues dont l’orthographe est dite « opaque » (le français et l’anglais). Pour chacune des langues, nous avons voulu répondre à deux question, soit : 1. De quelle manière peut-on classifier les usages scripturaux attestés ? 2. Ces usages graphiques sont-ils les mêmes chez les adolescents et les adultes aux plans qualitatif et quantitatif ? Les phénomènes scripturaux du clavardage impliquent également l’identité générationnelle. L’adolescence est une période caractérisée par la quête d’identité. L’étude de Sebba (2003) sur l’anglais démontre qu’il existe un rapport entre le « détournement de l’orthographe » et la construction identitaire chez les adolescents (par ex. les graffitis, la CMO). De plus, dans ces espaces communicationnels, nous assistons à la formation de communautés d’usagers fondée sur des intérêts communs (Crystal 2006), comme l’est la communauté des adolescents. Pour la collecte des corpus, nous recourrons à des échanges effectués au moyen du protocole Internet Relay Chat (IRC). Aux fins de notre étude, nous délimitons dans chacune des langues deux sous-corpus sociolinguistiquement distincts : le premier constitué à partir de forums de clavardage destinés aux adolescents, le second à partir de forums pour adultes. Pour chacune des langues, nous avons analysé 4 520 énoncés extraits de divers canaux IRC pour adolescents et pour adultes. Nous dressons d’abord un inventaire quantifié des différents phénomènes scripturaux recensés et procédons ensuite à la comparaison des résultats.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ce mémoire présente les recherches et réflexions entourant la conception d’une application à base d’ontologie dédiée au e-recrutement dans le domaine des services de dotation de personnel en technologies de l’information à l’ère du Web Social. Cette application, nommée Combine, vise essentiellement à optimiser et enrichir la Communication Médiée par Ordinateur (CMO) des acteurs du domaine et utilise des concepts issus du paradigme technologique émergent qu’est le Web sémantique. Encore très peu discuté dans une perspective CMO, le présent mémoire se propose donc d’examiner les enjeux communicationnels relatifs à ce nouveau paradigme. Il présente ses principaux concepts, dont la notion d’ontologie qui implique la modélisation formelle de connaissances, et expose le cas de développement de Combine. Il décrit comment cette application fut développée, de l’analyse des besoins à l’évaluation du prototype par les utilisateurs ciblés, tout en révélant les préoccupations, les contraintes et les opportunités rencontrées en cours de route. Au terme de cet examen, le mémoire tend à évaluer de manière critique le potentiel de Combine à optimiser la CMO du domaine d’activité ciblé. Le mémoire dresse au final un portrait plutôt favorable quant à la perception positive des acteurs du domaine d’utiliser un tel type d’application, et aussi quant aux nets bénéfices en frais d’Interactions Humain-Ordinateur (IHO) qu’elle fait miroiter. Il avertit toutefois d’une certaine exacerbation du problème dit « d’engagement ontologique » à considérer lors de la construction d’ontologies modélisant des objets sociaux tels que ceux dont le monde du recrutement est peuplé.