350 resultados para Réseaux sociaux numériques
Resumo:
La paralysie cérébrale représente la plus fréquente cause de handicap physique chez l’enfant. Plus de 50 000 canadiens en sont atteints. Rien ne peut aujourd’hui guérir la paralysie cérébrale; il n’en demeure pas moins que les comorbidités associées, de même que les différents traitements, entraînent des besoins importants pour ces patients en matière de services de santé. Alors que les décisions associées à ces soins de santé sont susceptibles de soulever d’importantes questions éthiques telles que le respect de l’autonomie et l’accès équitable aux soins de santé, peu d’études se sont penchées sur cette question. Ce mémoire de maîtrise présente d’abord un bref portrait des caractéristiques et des principaux aspects médicaux de la paralysie cérébrale. Il est suivi de la description des méthodes de recherche utilisées, notamment le questionnaire et l’entrevue semi-dirigée. Vient ensuite la recension des écrits, où sont abordés des thèmes comme la confidentialité et la transition du système de santé pédiatrique vers le système de santé pour adultes. Une étude qualitative a été réalisée auprès de jeunes adultes atteints de paralysie cérébrale et les résultats, présentés dans ce mémoire, comprennent notamment les perspectives des participants sur les attitudes des professionnels de la santé envers eux et les sentiments d’injustice et d’inégalité parfois ressentis lors de l’utilisation des soins de santé. Finalement, une discussion générale est proposée, où il est question entre autres de la justice, du respect de la personne et de l’autonomie et des conclusions à tirer.
Resumo:
Cette thèse de doctorat a pour objectif d’examiner de quelles manières le rôle parental influence la consommation d’alcool des femmes et des hommes et plus précisément, si les relations dynamiques entre le rôle parental, les circonstances au sein desquelles il est mis en acte et les contextes immédiats de consommation permettent d’expliquer les différentes façons individuelles de consommer de l’alcool. Cette étude repose sur le constat qu’en alcoologie, il existe une tendance à considérer l’acteur et l’action comme étant détachés de leur cadre social immédiat. Conséquemment, il existe des limites importantes aux modèles permettant d’expliquer les mécanismes par lesquels les rôles sociaux influencent la consommation d’alcool. Afin d’avoir une meilleure compréhension sociologique de la consommation d’alcool, cette thèse propose un cadre théorique qui insiste fortement sur la nécessité de tenir compte de la situation. L’acteur agit en fonction de certaines circonstances (perception de conflit de rôles) au sein desquelles son rôle est mis en acte. L’action de boire est dépendante du contexte (caractéristiques spatiales, temporelles, symboliques et relationnelles) au sein duquel l’action se déroule. L’hypothèse générale de recherche stipule que pour comprendre la relation entre les rôles et la consommation d’alcool, il faut situer à la fois l’acteur et l’action. La validité empirique du cadre théorique a été testée à partir d’une analyse quantitative des données de l’enquête GENACIS Canada (GENder Alcohol and Culture: an International Study) ainsi que des données de l’Enquête sur les Toxicomanies au Canada. La présentation des résultats des analyses prend la forme de trois articles soumis pour publication. Les données analysées révèlent le bien-fondé du cadre de théorique proposé. Situer l’action a permis de constater que les contextes de consommation sont un médiateur de la relation entre le rôle parental et la consommation d’alcool et plus spécifiquement, que les parents boivent moins fréquemment de façon excessive que les non-parents parce qu’ils boivent dans des lieux différents. Situer l’action a aussi révélé que les femmes et les hommes ont tendance à adopter des comportements de boire qui s’accordent au contexte immédiat, plutôt qu’à la position qu’ils occupent. Par contre, observer les circonstances individuelles au sein desquelles le rôle parental est mis en acte n’a pas permis d’améliorer notre compréhension de la relation à l’étude. Les évidences scientifiques apportées par cette thèse de doctorat ouvrent la porte au développement de mesures préventives environnementales qui visent le contexte de l’action plutôt que l’acteur, pour limiter la consommation excessive d’alcool des femmes et des hommes.
Resumo:
Le succès commercial des jeux vidéo nous montre qu’ils sont devenus une alternative non négligeable en matière de loisir et de divertissement. En observant les tendances, on constate que les concepteurs de jeux vidéo cherchent à transposer ou adapter les loisirs comme la danse, l’interprétation de la musique ou la pratique d’un sport dans le contexte de jeux vidéo (l’univers virtuel) et ceci est devenu encore plus évident depuis l’apparition des nouvelles technologies intégrant le mouvement comme mode d'interaction. En rapport aux activités dont les jeux vidéo s’inspirent, ces tendances entraînent des changements considérables sur l’aspect formel de l’activité ludique et notamment l’interaction. Dans le cas particulier du tennis de table, ou ping-pong dans le langage courant, il semble y avoir des différences en terme de plaisir lors de la pratique de ce loisir de façon traditionnelle ou en mode virtuel dans ses différentes adaptations. Le but de cette recherche est de mettre en évidence les différences entre l’appréciation de l’interaction avec le contrôleur multifonctionnel Wiimote et une raquette traditionnelle de ping-pong et de découvrir les implications sur l’expérience du plaisir de la transposition du jeu ping-pong traditionnel comparé aux adaptations sur la console Wii. Ainsi, en regard du CLASSIC GAME MODEL de Juul (2005) et du modèle THE FOUR FUN KEYS de Lazzaro (2008) nous comparons les deux modes d’interaction, jeu traditionnel avec le jeu virtuel, sur le plan formel du jeu et sur les dimensions du plaisir que chacun procure. Les résultats obtenus par l’observation des tests de jeu et l’entremise des autres outils permettent de souligner le rôle déterminant des interfaces dans l’engagement des joueurs et de montrer les limites des interfaces digitales par rapport à celle des jeux traditionnels.
Resumo:
La spectroscopie Raman est un outil non destructif fort utile lors de la caractérisation de matériau. Cette technique consiste essentiellement à faire l’analyse de la diffusion inélastique de lumière par un matériau. Les performances d’un système de spectroscopie Raman proviennent en majeure partie de deux filtres ; l’un pour purifier la raie incidente (habituellement un laser) et l’autre pour atténuer la raie élastique du faisceau de signal. En spectroscopie Raman résonante (SRR), l’énergie (la longueur d’onde) d’excitation est accordée de façon à être voisine d’une transition électronique permise dans le matériau à l’étude. La section efficace d’un processus Raman peut alors être augmentée d’un facteur allant jusqu’à 106. La technologie actuelle est limitée au niveau des filtres accordables en longueur d’onde. La SRR est donc une technique complexe et pour l’instant fastidieuse à mettre en œuvre. Ce mémoire présente la conception et la construction d’un système de spectroscopie Raman accordable en longueur d’onde basé sur des filtres à réseaux de Bragg en volume. Ce système vise une utilisation dans le proche infrarouge afin d’étudier les résonances de nanotubes de carbone. Les étapes menant à la mise en fonction du système sont décrites. Elles couvrent les aspects de conceptualisation, de fabrication, de caractérisation ainsi que de l’optimisation du système. Ce projet fut réalisé en étroite collaboration avec une petite entreprise d’ici, Photon etc. De cette coopération sont nés les filtres accordables permettant avec facilité de changer la longueur d’onde d’excitation. Ces filtres ont été combinés à un laser titane : saphir accordable de 700 à 1100 nm, à un microscope «maison» ainsi qu’à un système de détection utilisant une caméra CCD et un spectromètre à réseau. Sont d’abord présentés les aspects théoriques entourant la SRR. Par la suite, les nanotubes de carbone (NTC) sont décrits et utilisés pour montrer la pertinence d’une telle technique. Ensuite, le principe de fonctionnement des filtres est décrit pour être suivi de l’article où sont parus les principaux résultats de ce travail. On y trouvera entre autres la caractérisation optique des filtres. Les limites de basses fréquences du système sont démontrées en effectuant des mesures sur un échantillon de soufre dont la raie à 27 cm-1 est clairement résolue. La simplicité d’accordabilité est quant à elle démontrée par l’utilisation d’un échantillon de NTC en poudre. En variant la longueur d’onde (l’énergie d’excitation), différentes chiralités sont observées et par le fait même, différentes raies sont présentes dans les spectres. Finalement, des précisions sur l’alignement, l’optimisation et l’opération du système sont décrites. La faible acceptance angulaire est l’inconvénient majeur de l’utilisation de ce type de filtre. Elle se répercute en problème d’atténuation ce qui est critique plus particulièrement pour le filtre coupe-bande. Des améliorations possibles face à cette limitation sont étudiées.
Resumo:
Les comparaisons temporelles sont essentielles pour s’évaluer. Plusieurs études se sont intéressées aux conséquences négatives d’être insatisfait à la suite de comparaisons temporelles désavantageuses (c.-à.-d., à la privation relative). Peu d’étude a toutefois examiné l’évolution de ce sentiment d’insatisfaction. Le présent mémoire propose que ressentir différents niveaux d’insatisfaction au fil du temps, soit une trajectoire instable d’insatisfaction, affecte négativement le bien-être psychologique. Trois études expérimentales ont été menées. Les résultats révèlent que percevoir une trajectoire instable d’insatisfaction affecte négativement le bien-être psychologique. Une quatrième étude corrélationnelle a été menée au Kirghizstan afin d’examiner si les perceptions d’insatisfaction et d’instabilité mesurées à fil de l’histoire d’un groupe sont associées au bien-être psychologique lors de changements sociaux. Les résultats suggèrent que percevoir un haut niveau d’instabilité et d’insatisfaction au fil du temps est associé négativement au bien-être. Les implications théoriques et méthodologiques sont discutées.
Resumo:
À l’image des théories de la bande dessinée imprimée, la BD numérique est elle aussi accaparée par les analyses formalistes, dont la plus connue, celle de Scott McCloud, est critiquable, car elle réduit le média à un langage. Or, les mutations provoquées par la remédiation numérique ne sont pas uniquement formelles : l’expérience du lecteur, de l’auteur, et le rapport qu’ils entretiennent ensemble sont modifiés. Ce nouveau rapport influence le contenu des œuvres : on ne raconte pas la même chose dans le livre que sur Internet. L’autobiographie en BD, courant qui a explosé dans l’édition indépendante des années 1990, puis a été largement repris par les blogueurs, permet d’observer les différences de contenus et d’approches véhiculées par le livre et le numérique. Le dispositif du blogue propose un outil de liberté d’expression et de réflexion, mais les paramètres de son exécution (immédiateté, interactivité, désir de popularité, etc.) peuvent détourner cet objectif. Ainsi, beaucoup d’auteurs de blogues n’ont pas produit une autobiographie singulière, mais ont reproduit un courant de pensée existant (en exposant une libido fortement orientée vers la consommation) ainsi qu’un genre codifié, au sein duquel les autobiographies deviennent uniformes. Pour qualifier leurs blogues, on ne peut pas vraiment parler d’autobiographies, car ils ne mettent pas en scène un passé rétrospectif. Il s’agirait davantage de journaux intimes dont l’intimité est communiquée (ou publicisée) plutôt qu’expérimentée. Ce à quoi ces blogues ressemblent finalement le plus, c’est à une sorte de télé-réalité, une « bédé-réalité ».
Resumo:
Face aux pressions continues que subissent les systèmes de santé, de nombreuses réformes sont perpétuellement en cours pour améliorer le processus de soins et par conséquent, offrir des soins de qualité et accroître le niveau de santé des populations. Les réformes que connaissent actuellement les systèmes de santé visent à optimiser l’impact des services sur la santé de la population en introduisant le concept de la responsabilité populationnelle. Par ailleurs, il existe de plus en plus un consensus sur la nécessité d’établir une relation directe et durable entre les prestataires et la population des territoires desservies pour être en mesure de tenir compte des contextes personnels et sociaux des patients et de leurs familles et pour assurer la continuité des soins dans le temps et d’un service à l’autre. Cette thèse porte sur la Programmation régionale de services ambulatoires (PRSA) de Laval. Elle analyse cette programmation comme une solution innovatrice dans la mise en œuvre de la responsabilisation populationnelle des soins. La stratégie de recherche combine à la fois une revue intégrative de la littérature qui vise à analyser le bien-fondé de la PRSA; une étude quasi-expérimentale pour examiner ses effets; et enfin, une recherche synthétique de cas pour comprendre l’évolution de la PRSA et analyser l’institutionnalisation du changement dans les organisations de la santé. Dans le premier article, nous nous sommes employés à analyser le bien fondé c’est-à-dire la plausibilité des mécanismes causaux présumés. La PRSA est un modèle d’intégration régionale basée sur une approche populationnelle. La stratégie de réseaux intégrés de soins et de case management combinée avec une approche populationnelle telle que mise de l’avant par le PRSA sont trois éléments essentiels en faveur d’une responsabilité populationnelle des soins. À l’aide d’une revue intégrative de la littérature, nous avons démontré qu’il s’agit d’une programmation capable de consolider une intégration régionale en mettant de l’avant une approche populationnelle permettant de bien cibler les besoins des populations du territoire à desservir. Le deuxième article examine les effets populationnels de la PRSA en termes de réduction de la durée moyenne de séjour et de l’augmentation de la rétention régionale. Une approche quasi expérimentale a été utilisée. En ce qui concerne la durée moyenne de séjour, on n’observe aucune diminution pour l’asthme ni pour la démence. Par contre, il est plausible que l’implantation de la PRSA ait permis une diminution de la durée moyenne de séjour pour les maladies coronariennes, les MPOC, l’embolie pulmonaire et le cancer du sein. Pour la rétention régionale, aucun effet n’a été observé pour les MPOC, l’embolie pulmonaire et la démence. Une augmentation de la rétention régionale a été observée pour les maladies coronariennes, l’asthme et le cancer du sein. Cette augmentation pourrait être attribuée à la PRSA. Dans le troisième article, nous avons examiné les facteurs susceptibles d’expliquer l’évolution de la PRSA. En partant du point de vue des responsables de la programmation de la PRSA et les gestionnaires actuels de la programmation de services de la région de Laval, nous avons tenté de mieux cerner les facteurs qui ont provoqué la suspension du déploiement de la PRSA. Les résultats indiquent que les changements fréquents dans les structures dirigeantes du réseau de la santé ainsi que l’interférence de plusieurs autres réformes ont été un obstacle dans le maintien de la PRSA. Dans le contexte actuel des réformes en santé où l’approche de réseaux intégrés de soins et de responsabilité populationnelle sont mises de l’avant, les résultats de cette thèse apportent un éclairage certain sur l’opérationnalisation de ces orientations.
Resumo:
La rapide progression des technologies sans fil au cours de ces dernières années a vu naître de nouveaux systèmes de communication dont les réseaux véhiculaires. Ces réseaux visent à intégrer les nouvelles technologies de l’information et de la communication dans le domaine automobile en vue d’améliorer la sécurité et le confort sur le réseau routier. Offrir un accès Internet aux véhicules et à leurs occupants peut sans doute aider à anticiper certains dangers sur la route tout en rendant plus agréables les déplacements à bord des véhicules. Le déploiement de ce service nécessite que des messages soient échangés entre les véhicules. Le routage constitue un élément crucial dans un réseau, car définissant la façon dont les différentes entités échangent des messages. Le routage dans les VANETS constitue un grand défi car ces derniers sont caractérisés par une forte mobilité entraînant une topologie très dynamique. Des protocoles ont été proposés pour étendre Internet aux réseaux véhiculaires. Toutefois, la plupart d’entre eux nécessitent un coût élevé de messages de contrôle pour l’établissement et le maintien des communications. Ceci a pour conséquence la saturation de la bande passante entrainant ainsi une baisse de performance du réseau. Nous proposons dans ce mémoire, un protocole de routage qui s’appuie sur des passerelles mobiles pour étendre Internet aux réseaux véhiculaires. Le protocole prend en compte la mobilité des véhicules et la charge du réseau pour l’établissement et le maintien des routes.
Resumo:
Avec les nouvelles technologies des réseaux optiques, une quantité de données de plus en plus grande peut être transportée par une seule longueur d'onde. Cette quantité peut atteindre jusqu’à 40 gigabits par seconde (Gbps). Les flots de données individuels quant à eux demandent beaucoup moins de bande passante. Le groupage de trafic est une technique qui permet l'utilisation efficace de la bande passante offerte par une longueur d'onde. Elle consiste à assembler plusieurs flots de données de bas débit en une seule entité de données qui peut être transporté sur une longueur d'onde. La technique demultiplexage en longueurs d'onde (Wavelength Division Multiplexing WDM) permet de transporter plusieurs longueurs d'onde sur une même fibre. L'utilisation des deux techniques : WDM et groupage de trafic, permet de transporter une quantité de données de l'ordre de terabits par seconde (Tbps) sur une même fibre optique. La protection du trafic dans les réseaux optiques devient alors une opération très vitale pour ces réseaux, puisqu'une seule panne peut perturber des milliers d'utilisateurs et engendre des pertes importantes jusqu'à plusieurs millions de dollars à l'opérateur et aux utilisateurs du réseau. La technique de protection consiste à réserver une capacité supplémentaire pour acheminer le trafic en cas de panne dans le réseau. Cette thèse porte sur l'étude des techniques de groupage et de protection du trafic en utilisant les p-cycles dans les réseaux optiques dans un contexte de trafic dynamique. La majorité des travaux existants considère un trafic statique où l'état du réseau ainsi que le trafic sont donnés au début et ne changent pas. En plus, la majorité de ces travaux utilise des heuristiques ou des méthodes ayant de la difficulté à résoudre des instances de grande taille. Dans le contexte de trafic dynamique, deux difficultés majeures s'ajoutent aux problèmes étudiés, à cause du changement continuel du trafic dans le réseau. La première est due au fait que la solution proposée à la période précédente, même si elle est optimisée, n'est plus nécessairement optimisée ou optimale pour la période courante, une nouvelle optimisation de la solution au problème est alors nécessaire. La deuxième difficulté est due au fait que la résolution du problème pour une période donnée est différente de sa résolution pour la période initiale à cause des connexions en cours dans le réseau qui ne doivent pas être trop dérangées à chaque période de temps. L'étude faite sur la technique de groupage de trafic dans un contexte de trafic dynamique consiste à proposer différents scénarios pour composer avec ce type de trafic, avec comme objectif la maximisation de la bande passante des connexions acceptées à chaque période de temps. Des formulations mathématiques des différents scénarios considérés pour le problème de groupage sont proposées. Les travaux que nous avons réalisés sur le problème de la protection considèrent deux types de p-cycles, ceux protégeant les liens (p-cycles de base) et les FIPP p-cycles (p-cycles protégeant les chemins). Ces travaux ont consisté d’abord en la proposition de différents scénarios pour gérer les p-cycles de protection dans un contexte de trafic dynamique. Ensuite, une étude sur la stabilité des p-cycles dans un contexte de trafic dynamique a été faite. Des formulations de différents scénarios ont été proposées et les méthodes de résolution utilisées permettent d’aborder des problèmes de plus grande taille que ceux présentés dans la littérature. Nous nous appuyons sur la méthode de génération de colonnes pour énumérer implicitement les cycles les plus prometteurs. Dans l'étude des p-cycles protégeant les chemins ou FIPP p-cycles, nous avons proposé des formulations pour le problème maître et le problème auxiliaire. Nous avons utilisé une méthode de décomposition hiérarchique du problème qui nous permet d'obtenir de meilleurs résultats dans un temps raisonnable. Comme pour les p-cycles de base, nous avons étudié la stabilité des FIPP p-cycles dans un contexte de trafic dynamique. Les travaux montrent que dépendamment du critère d'optimisation, les p-cycles de base (protégeant les liens) et les FIPP p-cycles (protégeant les chemins) peuvent être très stables.
Resumo:
Ces dernières années, les technologies sans fil ont connu un essor fulgurant. Elles ont permis la mise en place de réseaux sans fil à hautes performances. Les réseaux maillées sans fil (RMSF) sont une nouvelle génération de réseaux sans fil qui offrent des débits élevés par rapport aux réseaux Wi-Fi (Wireless Fidelity) classiques et aux réseaux ad-hoc. Ils présentent de nombreux avantages telles que leur forte tolérance aux pannes, leur robustesse, leur faible coût etc. Les routeurs des RMSF peuvent disposer de plusieurs interfaces radio et chaque interface peut opérer sur plusieurs canaux distincts, c’est des RMSF multiples-radios, multiples-canaux. Ce type de réseau peut accroître de manière considérable les performances des RMSF. Cependant plusieurs problèmes subsistent et doivent être résolus notamment celui du routage. Le routage dans les RMSF demeure un défi majeur. Le but des protocoles de routage est de trouver les meilleures routes i.e. des routes qui maximisent les débits et minimisent les délais, lors de l’acheminement du trafic. La qualité des routes dans les RMSF peut être fortement affectée par les interférences, les collisions, les congestions etc. Alors les protocoles doivent être en mesure de détecter ces problèmes pour pouvoir en tenir compte lors de la sélection des routes. Plusieurs études ont été dédiées aux métriques et aux protocoles de routage dans les RMSF afin de maximiser les performances de celles ci. Mais la plupart ne prennent pas en considération toutes les contraintes telles que les interférences, le problème des stations cachées etc. Ce mémoire propose une nouvelle métrique de routage pour RMSF. Nous avons mis en place une nouvelle métrique de routage pour RMSF appelée MBP (Metric Based on Probabilities). Cette métrique est destinée aux RMSF mono-radio ou multiples-radios. Elle permet d’éviter les routes à forte ii interférence. Les résultats des simulations ont montré que MBP présente des améliorations par rapport à certaines métriques : ETT, WCETT et iAWARE qui sont connues dans le domaine.
Resumo:
Rapport d’analyse de pratique présenté à la Faculté des études supérieures en vue de l’obtention du grade de Maîtrise ès sciences (M.Sc) en service social
Resumo:
Pour respecter les droits d’auteur, la version électronique de ce mémoire a été dépouillée de ses documents visuels et audio‐visuels. La version intégrale du mémoire [de la thèse] a été déposée au Service de la gestion des documents et des archives de l'Université de Montréal.
Resumo:
Ce travail de recherche cherche à répondre à deux questions : Quels sont les liens sociaux liant les maîtres et ingénus aux dépendants, sont-ils plus importants entre ingénus et affranchis qu’entre ingénus et esclaves? Ont-ils une influence positive sur l’affranchissement des esclaves dans la Correspondance de Cicéron ? Cette étude évolue par thème, passant des liens amicaux, matrimoniaux, sexuels aux évaluations des maîtres et des patrons sur leurs esclaves et affranchis. Avant la conclusion, quelques pages seront également dévolues aux esclaves et affranchis absents de la Correspondance pour expliquer cette absence et les situer dans le contexte de la fin de la République romaine. L’étude des liens sociaux liant les dépendants aux maîtres, patrons et ingénus, dans une approche soulignant les liens amicaux, affectifs, maritaux et sexuels plutôt que les liens sociaux purement juridiques, a permis de prouver l’existence assez fréquente de liens amicaux et affectifs entre les dépendants (esclaves et affranchis) et les maîtres, les patrons et les ingénus dans la Correspondance. L’étude de la Correspondance démontre également que ses liens amicaux et affectifs étaient plus nombreux et plus soutenus entre affranchis et ingénus qu’entre ingénus et esclave, mettant en lumière l’importance des liens d’amitié et d’affection dans le processus d’affranchissement de certains esclaves.
Resumo:
De nos jours, la voiture est devenue le mode de transport le plus utilisé, mais malheureusement, il est accompagné d’un certain nombre de problèmes (accidents, pollution, embouteillages, etc.), qui vont aller en s’aggravant avec l’augmentation prévue du nombre de voitures particulières, malgré les efforts très importants mis en œuvre pour tenter de les réduire ; le nombre de morts sur les routes demeure très important. Les réseaux sans fil de véhicules, appelés VANET, qui consistent de plusieurs véhicules mobiles sans infrastructure préexistante pour communiquer, font actuellement l’objet d'une attention accrue de la part des constructeurs et des chercheurs, afin d’améliorer la sécurité sur les routes ou encore les aides proposées aux conducteurs. Par exemple, ils peuvent avertir d’autres automobilistes que les routes sont glissantes ou qu’un accident vient de se produire. Dans VANET, les protocoles de diffusion (broadcast) jouent un rôle très important par rapport aux messages unicast, car ils sont conçus pour transmettre des messages de sécurité importants à tous les nœuds. Ces protocoles de diffusion ne sont pas fiables et ils souffrent de plusieurs problèmes, à savoir : (1) Tempête de diffusion (broadcast storm) ; (2) Nœud caché (hidden node) ; (3) Échec de la transmission. Ces problèmes doivent être résolus afin de fournir une diffusion fiable et rapide. L’objectif de notre recherche est de résoudre certains de ces problèmes, tout en assurant le meilleur compromis entre fiabilité, délai garanti, et débit garanti (Qualité de Service : QdS). Le travail de recherche de ce mémoire a porté sur le développement d’une nouvelle technique qui peut être utilisée pour gérer le droit d’accès aux médias (protocole de gestion des émissions), la gestion de grappe (cluster) et la communication. Ce protocole intègre l'approche de gestion centralisée des grappes stables et la transmission des données. Dans cette technique, le temps est divisé en cycles, chaque cycle est partagé entre les canaux de service et de contrôle, et divisé en deux parties. La première partie s’appuie sur TDMA (Time Division Multiple Access). La deuxième partie s’appuie sur CSMA/CA (Carrier Sense Multiple Access / Collision Avoidance) pour gérer l’accès au medium. En outre, notre protocole ajuste d’une manière adaptative le temps consommé dans la diffusion des messages de sécurité, ce qui permettra une amélioration de la capacité des canaux. Il est implanté dans la couche MAC (Medium Access Control), centralisé dans les têtes de grappes (CH, cluster-head) qui s’adaptent continuellement à la dynamique des véhicules. Ainsi, l’utilisation de ce protocole centralisé nous assure une consommation efficace d’intervalles de temps pour le nombre exact de véhicules actifs, y compris les nœuds/véhicules cachés; notre protocole assure également un délai limité pour les applications de sécurité, afin d’accéder au canal de communication, et il permet aussi de réduire le surplus (overhead) à l’aide d’une propagation dirigée de diffusion.
Resumo:
INTRODUCTION: La collaboration interprofessionnelle a émergé comme étant l’un des aspects essentiels à consolider pour améliorer l’organisation de la première ligne de soins et assurer un accès adéquat aux ressources disponibles. Pour favoriser l’accroissement de la collaboration interprofessionnelle, il est suggéré que les professionnels des sciences de la santé soient formés en interdisciplinarité, particulièrement à l’occasion des stages cliniques. OBJECTIFS: Ce projet vise à mesurer le degré d’implantation du programme de formation interprofessionnelle (PFI) du Centre de santé et de services sociaux (CSSS) à l’étude comparativement au modèle proposé initialement. De plus, ce projet vise à comprendre comment les facteurs systémiques, les facteurs organisationnels et les caractéristiques du programme de formation mis en place influencent l’implantation du PFI. MÉTHODOLOGIE : Il s’agit d’une étude de cas unique effectuée au sein d’un CSSS situé dans la grande région de Montréal au Québec, Canada. Les données ont été recueillies à l’aide de 11 entrevues semi-dirigées qui ont été réalisées auprès de professionnels et administrateurs responsables de l’implantation du PFI et d’un étudiant en stage ayant participé au PFI. Une analyse des documents administratifs et cliniques écrits concernant l’implantation du PFI a également été effectuée. RÉSULTATS : L’implantation du PFI est toujours en évolution comme le traduit la présence des différentes composantes définissant la mise en œuvre du PFI qui est de moyenne à élevée et l’intensité des différentes composantes qui est généralement faible. Les facteurs systémiques, les facteurs organisationnels et les caractéristiques du programme de formation mis en place influencent l’implantation du PFI en milieu clinique et il existe des interrelations entre ces différents facteurs. L’analyse des facteurs influençant l’implantation d’un PFI en milieu clinique doit également s'attarder aux différents facteurs influençant le développement des pratiques collaboratives dans ce milieu.