271 resultados para Involution logistique


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La circulation extracorporelle (CEC) est une technique utilisée en chirurgie cardiaque effectuée des milliers de fois chaque jour à travers le monde. L’instabilité hémodynamique associée au sevrage de la CEC difficile constitue la principale cause de mortalité en chirurgie cardiaque et l’hypertension pulmonaire (HP) a été identifiée comme un des facteurs de risque les plus importants. Récemment, une hypothèse a été émise suggérant que l'administration prophylactique (avant la CEC) de la milrinone par inhalation puisse avoir un effet préventif et faciliter le sevrage de la CEC chez les patients atteints d’HP. Toutefois, cette indication et voie d'administration pour la milrinone n'ont pas encore été approuvées par les organismes réglementaires. Jusqu'à présent, la recherche clinique sur la milrinone inhalée s’est principalement concentrée sur l’efficacité hémodynamique et l'innocuité chez les patients cardiaques, bien qu’aucun biomarqueur n’ait encore été établi. La dose la plus appropriée pour l’administration par nébulisation n'a pas été déterminée, de même que la caractérisation des profils pharmacocinétiques (PK) et pharmacodynamiques (PD) suite à l'inhalation. L'objectif de notre recherche consistait à caractériser la relation exposition-réponse de la milrinone inhalée administrée chez les patients subissant une chirurgie cardiaque sous CEC. Une méthode analytique par chromatographie liquide à haute performance couplée à un détecteur ultraviolet (HPLC-UV) a été optimisée et validée pour le dosage de la milrinone plasmatique suite à l’inhalation et s’est avérée sensible et précise. La limite de quantification (LLOQ) était de 1.25 ng/ml avec des valeurs de précision intra- et inter-dosage moyennes (CV%) <8%. Des patients souffrant d’HP pour lesquels une chirurgie cardiaque sous CEC était prévue ont d’abord été recrutés pour une étude pilote (n=12) et, par la suite, pour une étude à plus grande échelle (n=28) où la milrinone (5 mg) était administrée par inhalation pré-CEC. Dans l'étude pilote, nous avons comparé l'exposition systémique de la milrinone peu après son administration avec un nébuliseur pneumatique ou un nébuliseur à tamis vibrant. L’efficacité des nébuliseurs en termes de dose émise et dose inhalée a également été déterminée in vitro. Dans l'étude à plus grande échelle conduite en utilisant exclusivement le nébuliseur à tamis vibrant, la dose inhalée in vivo a été estimée et le profil pharmacocinétique de la milrinone inhalée a été pleinement caractérisé aux niveaux plasmatique et urinaire. Le ratio de la pression artérielle moyenne sur la pression artérielle pulmonaire moyenne (PAm/PAPm) a été choisi comme biomarqueur PD. La relation exposition-réponse de la milrinone a été caractérisée pendant la période d'inhalation en étudiant la relation entre l'aire sous la courbe de l’effet (ASCE) et l’aire sous la courbe des concentrations plasmatiques (ASC) de chacun des patients. Enfin, le ratio PAm/PAPm a été exploré comme un prédicteur potentiel de sortie de CEC difficile dans un modèle de régression logistique. Les expériences in vitro ont démontré que les doses émises étaient similaires pour les nébuliseurs pneumatique (64%) et à tamis vibrant (68%). Cependant, la dose inhalée était 2-3 fois supérieure (46% vs 17%) avec le nébuliseur à tamis vibrant, et ce, en accord avec les concentrations plasmatiques. Chez les patients, en raison des variations au niveau des facteurs liés au circuit et au ventilateur causant une plus grande dose expirée, la dose inhalée a été estimée inférieure (30%) et cela a été confirmé après récupération de la dose de milrinone dans l'urine 24 h (26%). Les concentrations plasmatiques maximales (Cmax: 41-189 ng/ml) et l'ampleur de la réponse maximale ΔRmax-R0 (0-65%) ont été observées à la fin de l'inhalation (10-30 min). Les données obtenues suite aux analyses PK sont en accord avec les données publiées pour la milrinone intraveineuse. Après la période d'inhalation, les ASCE individuelles étaient directement reliées aux ASC (P=0.045). Enfin, notre biomarqueur PD ainsi que la durée de CEC ont été identifiés comme des prédicteurs significatifs de la sortie de CEC difficile. La comparaison des ASC et ASCE correspondantes a fourni des données préliminaires supportant une preuve de concept pour l'utilisation du ratio PAm/PAPm comme biomarqueur PD prometteur et justifie de futures études PK/PD. Nous avons pu démontrer que la variation du ratio PAm/PAPm en réponse à la milrinone inhalée contribue à la prévention de la sortie de CEC difficile.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse a comme objectif de démontrer combien Alaric et ses Goths étaient Romains dans pratiquement toutes les catégories connues sur leur compte. Pour ce faire, l’auteur a puisé dans les sciences sociales et a emprunté le champ conceptuel de l’éminent sociologue Pierre Bourdieu. À l’aide du concept d’habitus, entre autres choses, l’auteur a tenté de faire valoir à quel point les actions d’Alaric s’apparentaient à celles des généraux romains de son époque. Naturellement, il a fallu étaler le raisonnement au long de plusieurs chapitres et sur de nombreux niveaux. C’est-à-dire qu’il a fallu d’abord définir les concepts populaires en ce moment pour « faire » l’histoire des barbares durant l’Antiquité tardive. Pensons ici à des termes tels que l’ethnicité et l’ethnogenèse. L’auteur s’est distancé de ces concepts qu’il croyait mal adaptés à la réalité des Goths et d’Alaric. C’est qu’il fallait comprendre ces hommes dans une structure romaine, au lieu de leur octroyer une histoire et des traditions barbares. Il a ensuite fallu montrer que la thèse explorait des avenues restées peu empruntées jusqu’à aujourd’hui. Il a été question de remonter jusqu’à Gibbon pour ensuite promouvoir le fait que quelques érudits avaient autrefois effleuré la question d’Alaric comme étant un homme beaucoup moins barbare que ce que la tradition véhiculait à son sujet, tel que Fustel de Coulanges, Amédée Thierry ou encore Marcel Brion. Il s’agissait donc de valider l’angle de recherche en prenant appui d’abord sur ces anciens luminaires de la discipline. Vint ensuite l’apport majeur de cette thèse, c’est-à-dire essentiellement les sections B, C et D. La section B a analysé la logistique durant la carrière d’Alaric. Cette section a permis avant tout de démontrer clairement qu’on n’a pas affaire à une troupe de brigands révoltés; le voyage de 401-402 en Italie prouve à lui seul ce fait. L’analyse approfondie de l’itinéraire d’Alaric durant ses nombreux voyages a démontré que cette armée n’aurait pas pu effectuer tous ces déplacements sans l’appui de la cour orientale. En l’occurrence, Alaric et son armée étaient véritablement des soldats romains à ce moment précis, et non pas simplement les fédérés barbares de la tradition. La section C s’est concentrée sur les Goths d’Alaric, où on peut trouver deux chapitres qui analysent deux sujets distincts : origine/migration et comparaison. C’est dans cette section que l’auteur tente de valider l’hypothèse que les Goths d’Alaric n’étaient pas vraiment Goths, d’abord, et qu’ils étaient plutôt Romains, ensuite. Le chapitre sur la migration n’a comme but que de faire tomber les nombreuses présomptions sur la tradition gothe que des érudits comme Wolfram et Heather s’efforcent de défendre encore aujourd’hui. L’auteur argumente pour voir les Goths d’Alaric comme un groupe formé à partir d’éléments romains; qu’ils eurent été d’une origine barbare quelconque dans les faits n’a aucun impact sur le résultat final : ces hommes avaient vécu dans l’Empire durant toute leur vie (Alaric inclus) et leurs habitus ne pouvaient pas être autre chose que romain. Le dernier chapitre de la section C a aussi démontré que le groupe d’Alaric était d’abord profondément différent des Goths de 376-382, puis d’autres groupes que l’on dit barbares au tournant du 5e siècle, comme l’étaient les Vandales et les Alamans par exemple. Ensemble, ces trois chapitres couvrent la totalité de ce que l’on connait du groupe d’Alaric et en offre une nouvelle interprétation à la lumière des dernières tendances sociologiques. La section D analyse quant à elle en profondeur Alaric et sa place dans l’Empire romain. L’auteur a avant tout lancé l’idée, en s’appuyant sur les sources, qu’Alaric n’était pas un Goth ni un roi. Il a ensuite analysé le rôle d’Alaric dans la structure du pouvoir de l’Empire et en est venu à la conclusion qu’il était l’un des plus importants personnages de l’Empire d’Orient entre 397 et 408, tout en étant soumis irrémédiablement à cette structure. Sa carrière militaire était des plus normale et s’inscrivait dans l’habitus militaire romain de l’époque. Il a d’ailleurs montré que, par ses actions, Alaric était tout aussi Romain qu’un Stilicon. À dire le vrai, mis à part Claudien, rien ne pourrait nous indiquer qu’Alaric était un barbare et qu’il essayait d’anéantir l’Empire. La mauvaise image d’Alaric n’est en effet redevable qu’à Claudien : aucun auteur contemporain n’en a dressé un portrait aussi sombre. En découle que les auteurs subséquents qui firent d’Alaric le roi des Goths et le ravageur de la Grèce avaient sans doute été fortement influencés eux aussi par les textes de Claudien.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les modèles incrémentaux sont des modèles statistiques qui ont été développés initialement dans le domaine du marketing. Ils sont composés de deux groupes, un groupe contrôle et un groupe traitement, tous deux comparés par rapport à une variable réponse binaire (le choix de réponses est « oui » ou « non »). Ces modèles ont pour but de détecter l’effet du traitement sur les individus à l’étude. Ces individus n’étant pas tous des clients, nous les appellerons : « prospects ». Cet effet peut être négatif, nul ou positif selon les caractéristiques des individus composants les différents groupes. Ce mémoire a pour objectif de comparer des modèles incrémentaux d’un point de vue bayésien et d’un point de vue fréquentiste. Les modèles incrémentaux utilisés en pratique sont ceux de Lo (2002) et de Lai (2004). Ils sont initialement réalisés d’un point de vue fréquentiste. Ainsi, dans ce mémoire, l’approche bayésienne est utilisée et comparée à l’approche fréquentiste. Les simulations sont e ectuées sur des données générées avec des régressions logistiques. Puis, les paramètres de ces régressions sont estimés avec des simulations Monte-Carlo dans l’approche bayésienne et comparés à ceux obtenus dans l’approche fréquentiste. L’estimation des paramètres a une influence directe sur la capacité du modèle à bien prédire l’effet du traitement sur les individus. Nous considérons l’utilisation de trois lois a priori pour l’estimation des paramètres de façon bayésienne. Elles sont choisies de manière à ce que les lois a priori soient non informatives. Les trois lois utilisées sont les suivantes : la loi bêta transformée, la loi Cauchy et la loi normale. Au cours de l’étude, nous remarquerons que les méthodes bayésiennes ont un réel impact positif sur le ciblage des individus composant les échantillons de petite taille.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

De nombreux problèmes liés aux domaines du transport, des télécommunications et de la logistique peuvent être modélisés comme des problèmes de conception de réseaux. Le problème classique consiste à transporter un flot (données, personnes, produits, etc.) sur un réseau sous un certain nombre de contraintes dans le but de satisfaire la demande, tout en minimisant les coûts. Dans ce mémoire, on se propose d'étudier le problème de conception de réseaux avec coûts fixes, capacités et un seul produit, qu'on transforme en un problème équivalent à plusieurs produits de façon à améliorer la valeur de la borne inférieure provenant de la relaxation continue du modèle. La méthode que nous présentons pour la résolution de ce problème est une méthode exacte de branch-and-price-and-cut avec une condition d'arrêt, dans laquelle nous exploitons à la fois la méthode de génération de colonnes, la méthode de génération de coupes et l'algorithme de branch-and-bound. Ces méthodes figurent parmi les techniques les plus utilisées en programmation linéaire en nombres entiers. Nous testons notre méthode sur deux groupes d'instances de tailles différentes (gran-des et très grandes), et nous la comparons avec les résultats donnés par CPLEX, un des meilleurs logiciels permettant de résoudre des problèmes d'optimisation mathématique, ainsi qu’avec une méthode de branch-and-cut. Il s'est avéré que notre méthode est prometteuse et peut donner de bons résultats, en particulier pour les instances de très grandes tailles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte: La douleur chronique non cancéreuse (DCNC) génère des retombées économiques et sociétales importantes. L’identification des patients à risque élevé d’être de grands utilisateurs de soins de santé pourrait être d’une grande utilité; en améliorant leur prise en charge, il serait éventuellement possible de réduire leurs coûts de soins de santé. Objectif: Identifier les facteurs prédictifs bio-psycho-sociaux des grands utilisateurs de soins de santé chez les patients souffrant de DCNC et suivis en soins de première ligne. Méthodologie: Des patients souffrant d’une DCNC modérée à sévère depuis au moins six mois et bénéficiant une ordonnance valide d’un analgésique par un médecin de famille ont été recrutés dans des pharmacies communautaires du territoire du Réseau universitaire intégré de santé (RUIS), de l’Université de Montréal entre Mai 2009 et Janvier 2010. Ce dernier est composé des six régions suivantes : Mauricie et centre du Québec, Laval, Montréal, Laurentides, Lanaudière et Montérégie. Les caractéristiques bio-psycho-sociales des participants ont été documentées à l’aide d’un questionnaire écrit et d’une entrevue téléphonique au moment du recrutement. Les coûts directs de santé ont été estimés à partir des soins et des services de santé reçus au cours de l’année précédant et suivant le recrutement et identifiés à partir de la base de données de la Régie d’Assurance maladie du Québec, RAMQ (assureur publique de la province du Québec). Ces coûts incluaient ceux des hospitalisations reliées à la douleur, des visites à l’urgence, des soins ambulatoires et de la médication prescrite pour le traitement de la douleur et la gestion des effets secondaires des analgésiques. Les grands utilisateurs des soins de santé ont été définis comme étant ceux faisant partie du quartile le plus élevé de coûts directs annuels en soins de santé dans l’année suivant le recrutement. Des modèles de régression logistique multivariés et le critère d’information d’Akaike ont permis d’identifier les facteurs prédictifs des coûts directs élevés en soins de santé. Résultats: Le coût direct annuel médian en soins de santé chez les grands utilisateurs de soins de santé (63 patients) était de 7 627 CAD et de 1 554 CAD pour les utilisateurs réguliers (188 patients). Le modèle prédictif final du risque d’être un grand utilisateur de soins de santé incluait la douleur localisée au niveau des membres inférieurs (OR = 3,03; 95% CI: 1,20 - 7,65), la réduction de la capacité fonctionnelle liée à la douleur (OR = 1,24; 95% CI: 1,03 - 1,48) et les coûts directs en soins de santé dans l’année précédente (OR = 17,67; 95% CI: 7,90 - 39,48). Les variables «sexe», «comorbidité», «dépression» et «attitude envers la guérison médicale» étaient également retenues dans le modèle prédictif final. Conclusion: Les patients souffrant d’une DCNC au niveau des membres inférieurs et présentant une détérioration de la capacité fonctionnelle liée à la douleur comptent parmi ceux les plus susceptibles d’être de grands utilisateurs de soins et de services. Le coût direct en soins de santé dans l’année précédente était également un facteur prédictif important. Améliorer la prise en charge chez cette catégorie de patients pourrait influencer favorablement leur état de santé et par conséquent les coûts assumés par le système de santé.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This dissertation is an exploration of how a small but important group of Romantic critics, finding fault in the ideal of three unities developed by neoclassical Academicians and wrongly attributed to Aristotle, turned to the terminology and practices of the fine arts to emphasize their conception of organic unity in literature. The Romantic analogy to painting in particular enables a philosophical criticism of literature to present the aesthetic semblance of painting, the comprehension of a multitude of details in a harmonious whole that is a natural unity to its medium, as a paradigm of modern-romantic poetry and its aspirations to similar complexity, particularity, and imaginative colour. Further, in extension of the French Querelle des anciens et des modernes of the seventeenth century, the division of ancient and romantic art by Romantic critics like August Schlegel, Samuel Taylor Coleridge, and William Hazlitt not only establishes an ethnological and historical difference between the artistic productions of these two cultural periods but also allows, unlike the neoclassical unities, a non-anachronistic philosophical vocabulary of whole and parts or of the general and particular in the criticism of poetry, which involution provides a “rule” more consonant with the laws of the imagination rather than with the rhetorical and absolutist dicta that were thither available in the literary canon.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lors du transport du bois de la forêt vers les usines, de nombreux événements imprévus peuvent se produire, événements qui perturbent les trajets prévus (par exemple, en raison des conditions météo, des feux de forêt, de la présence de nouveaux chargements, etc.). Lorsque de tels événements ne sont connus que durant un trajet, le camion qui accomplit ce trajet doit être détourné vers un chemin alternatif. En l’absence d’informations sur un tel chemin, le chauffeur du camion est susceptible de choisir un chemin alternatif inutilement long ou pire, qui est lui-même "fermé" suite à un événement imprévu. Il est donc essentiel de fournir aux chauffeurs des informations en temps réel, en particulier des suggestions de chemins alternatifs lorsqu’une route prévue s’avère impraticable. Les possibilités de recours en cas d’imprévus dépendent des caractéristiques de la chaîne logistique étudiée comme la présence de camions auto-chargeurs et la politique de gestion du transport. Nous présentons trois articles traitant de contextes d’application différents ainsi que des modèles et des méthodes de résolution adaptés à chacun des contextes. Dans le premier article, les chauffeurs de camion disposent de l’ensemble du plan hebdomadaire de la semaine en cours. Dans ce contexte, tous les efforts doivent être faits pour minimiser les changements apportés au plan initial. Bien que la flotte de camions soit homogène, il y a un ordre de priorité des chauffeurs. Les plus prioritaires obtiennent les volumes de travail les plus importants. Minimiser les changements dans leurs plans est également une priorité. Étant donné que les conséquences des événements imprévus sur le plan de transport sont essentiellement des annulations et/ou des retards de certains voyages, l’approche proposée traite d’abord l’annulation et le retard d’un seul voyage, puis elle est généralisée pour traiter des événements plus complexes. Dans cette ap- proche, nous essayons de re-planifier les voyages impactés durant la même semaine de telle sorte qu’une chargeuse soit libre au moment de l’arrivée du camion à la fois au site forestier et à l’usine. De cette façon, les voyages des autres camions ne seront pas mo- difiés. Cette approche fournit aux répartiteurs des plans alternatifs en quelques secondes. De meilleures solutions pourraient être obtenues si le répartiteur était autorisé à apporter plus de modifications au plan initial. Dans le second article, nous considérons un contexte où un seul voyage à la fois est communiqué aux chauffeurs. Le répartiteur attend jusqu’à ce que le chauffeur termine son voyage avant de lui révéler le prochain voyage. Ce contexte est plus souple et offre plus de possibilités de recours en cas d’imprévus. En plus, le problème hebdomadaire peut être divisé en des problèmes quotidiens, puisque la demande est quotidienne et les usines sont ouvertes pendant des périodes limitées durant la journée. Nous utilisons un modèle de programmation mathématique basé sur un réseau espace-temps pour réagir aux perturbations. Bien que ces dernières puissent avoir des effets différents sur le plan de transport initial, une caractéristique clé du modèle proposé est qu’il reste valable pour traiter tous les imprévus, quelle que soit leur nature. En effet, l’impact de ces événements est capturé dans le réseau espace-temps et dans les paramètres d’entrée plutôt que dans le modèle lui-même. Le modèle est résolu pour la journée en cours chaque fois qu’un événement imprévu est révélé. Dans le dernier article, la flotte de camions est hétérogène, comprenant des camions avec des chargeuses à bord. La configuration des routes de ces camions est différente de celle des camions réguliers, car ils ne doivent pas être synchronisés avec les chargeuses. Nous utilisons un modèle mathématique où les colonnes peuvent être facilement et naturellement interprétées comme des itinéraires de camions. Nous résolvons ce modèle en utilisant la génération de colonnes. Dans un premier temps, nous relaxons l’intégralité des variables de décision et nous considérons seulement un sous-ensemble des itinéraires réalisables. Les itinéraires avec un potentiel d’amélioration de la solution courante sont ajoutés au modèle de manière itérative. Un réseau espace-temps est utilisé à la fois pour représenter les impacts des événements imprévus et pour générer ces itinéraires. La solution obtenue est généralement fractionnaire et un algorithme de branch-and-price est utilisé pour trouver des solutions entières. Plusieurs scénarios de perturbation ont été développés pour tester l’approche proposée sur des études de cas provenant de l’industrie forestière canadienne et les résultats numériques sont présentés pour les trois contextes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’Internet Physique (IP) est une initiative qui identifie plusieurs symptômes d’inefficacité et non-durabilité des systèmes logistiques et les traite en proposant un nouveau paradigme appelé logistique hyperconnectée. Semblable à l’Internet Digital, qui relie des milliers de réseaux d’ordinateurs personnels et locaux, IP permettra de relier les systèmes logistiques fragmentés actuels. Le but principal étant d’améliorer la performance des systèmes logistiques des points de vue économique, environnemental et social. Se concentrant spécifiquement sur les systèmes de distribution, cette thèse remet en question l’ordre de magnitude du gain de performances en exploitant la distribution hyperconnectée habilitée par IP. Elle concerne également la caractérisation de la planification de la distribution hyperconnectée. Pour répondre à la première question, une approche de la recherche exploratoire basée sur la modélisation de l’optimisation est appliquée, où les systèmes de distribution actuels et potentiels sont modélisés. Ensuite, un ensemble d’échantillons d’affaires réalistes sont créé, et leurs performances économique et environnementale sont évaluées en ciblant de multiples performances sociales. Un cadre conceptuel de planification, incluant la modélisation mathématique est proposé pour l’aide à la prise de décision dans des systèmes de distribution hyperconnectée. Partant des résultats obtenus par notre étude, nous avons démontré qu’un gain substantiel peut être obtenu en migrant vers la distribution hyperconnectée. Nous avons également démontré que l’ampleur du gain varie en fonction des caractéristiques des activités et des performances sociales ciblées. Puisque l’Internet physique est un sujet nouveau, le Chapitre 1 présente brièvement l’IP et hyper connectivité. Le Chapitre 2 discute les fondements, l’objectif et la méthodologie de la recherche. Les défis relevés au cours de cette recherche sont décrits et le type de contributions visés est mis en évidence. Le Chapitre 3 présente les modèles d’optimisation. Influencés par les caractéristiques des systèmes de distribution actuels et potentiels, trois modèles fondés sur le système de distribution sont développés. Chapitre 4 traite la caractérisation des échantillons d’affaires ainsi que la modélisation et le calibrage des paramètres employés dans les modèles. Les résultats de la recherche exploratoire sont présentés au Chapitre 5. Le Chapitre 6 décrit le cadre conceptuel de planification de la distribution hyperconnectée. Le chapitre 7 résume le contenu de la thèse et met en évidence les contributions principales. En outre, il identifie les limites de la recherche et les avenues potentielles de recherches futures.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En l’absence de mesure précise et unique de l’efficience pour les joueurs de hockey, la présente étude a pour objectifs d’évaluer l’efficience des joueurs dans la Ligue Nationale de Hockey (LNH) et de montrer comment celle-ci peut affecter la décision de racheter le contrat d’un joueur. Pour ce faire, les statistiques individuelles des joueurs de la LNH pour les saisons 2007-2008 à 2010-2011 sont utilisées. Pour estimer l’efficience, la méthode de l’enveloppement de données (DEA) avec bootstrap est utilisée. Les inputs incluent le salaire et le nombre de minutes de jeu, alors que les outputs incluent la contribution défensive et offensive de chaque joueur. Pour estimer l’association entre l’efficience individuelle et la probabilité d’un rachat de contrat, une régression logistique est utilisée. L’analyse des données montre que parmi 3 159 observations, l’efficience moyenne est de 0,635. L’efficience moyenne est similaire pour toutes les positions et toutes les saisons. Un lien positif et fort est trouvé entre le nombre de points au classement général d’une équipe et l’efficience moyenne des joueurs qui la compose (coefficient de corrélation=0,43, valeur-p<0,01). Les joueurs avec une efficience plus élevée ont une probabilité plus faible de voir leur contrat racheté (rapport des chances=0,01, valeur-p<0,01). La présente étude conclut donc que la plupart des joueurs de hockey dans la LNH ont un degré d’inefficience non négligeable, qu’une efficience plus élevée est associée à une meilleure performance au niveau de l’équipe et que les joueurs efficients ont une probabilité plus faible de voir leur contrat racheté.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse par articles s’intéresse au cycle intergénérationnel de la victimisation sexuelle dans l’enfance. Un premier article a pour objectif de faire état des connaissances scientifiques actuelles sur le cycle intergénérationnel de la victimisation sexuelle dans l’enfance et propose un premier modèle explicatif basé sur la théorie du trauma. L’objectif du deuxième article est d’identifier, sur la base de ce modèle, les facteurs maternels qui sont associés à la continuité intergénérationnelle de la victimisation sexuelle dans l’enfance auprès de mères la population générale. Un groupe de 45 mères victimes d’ASE et ayant au moins un enfant agressé sexuellement est comparé à un groupe de 116 mères victimes d’ASE, mais pour lesquelles aucun de leur enfant n’a été agressé sexuellement avant l’âge de 18 ans. L'analyse de régression logistique montre que la présence des symptômes de l’état de stress posttraumatique, le fait d’avoir subi de la violence conjugale dans la dernière année et le fait d’avoir été agressée sexuellement pour la première fois avant l’âge de six ans ou à l’adolescence prédisent l’appartenance des mères au groupe de continuité intergénérationnelle. Le troisième article vise à comparer le profil psychosocial d’enfants agressés sexuellement et de leur mère, selon que celle-ci rapporte ou non une ASE, et ce, auprès de 87 dyades mère-enfant recevant des services sociaux québécois. Les 44 mères (51 %) rapportant avoir été victimes d’ASE sont comparées aux 43 mères d’enfants agressés sexuellement qui ne rapportent pas d’antécédent d’ASE. Les résultats des analyses de régression logistique montrent que les mères ayant elles-mêmes été victimes d’ASE rapportent un score plus élevé d’autres formes de mauvais traitements dans leur enfance, une plus grande prévalence à vie de troubles d’abus d’alcool, de dysthymie et de trouble panique. Comparés aux enfants pour qui leur mère n’a pas été agressée sexuellement, ceux dont la mère rapporte aussi une ASE sont plus susceptibles de présenter des problèmes de comportement d’intensité clinique et d’avoir été agressés par une personne de confiance. La discussion met en lumière les apports scientifiques des résultats de cette thèse et aborde les enjeux méthodologiques que soulève l’étude du cycle intergénérationnel de la victimisation sexuelle dans l’enfance. Les avenues de recherche que suggèrent les résultats de cette thèse sont aussi discutées et des recommandations sont formulées concernant l’intervention auprès des victimes d’ASE.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif de cet essai est de démystifier la tarification incitative et de présenter un outil pratique pour l’implantation réussie d’un système de tarification incitative de la collecte municipale des matières résiduelles au Québec. Cinq sous-objectifs mènent à cette réponse : les raisons du non-emploi de la tarification incitative au Québec, l’analyse des cas à succès en Amérique du Nord et en Europe, l’identification des préalables nécessaires à l’implantation, les étapes opérationnelles de la mise en œuvre et la communication adéquate du processus. L’importance du sujet de cet essai découle des coûts de la gestion des matières résiduelles. Ils voient une augmentation constante due aux redevances à l’élimination et aux nouvelles méthodes de valorisation pour les matières organiques. Une mise à jour de la tarification municipale est donc indispensable. La tarification incitative est un outil efficace pour la réduction des matières résiduelles produites et enfouies ainsi que pour améliorer le taux de récupération résidentiel. De nombreux cas réussis existent en Amérique du Nord. Néanmoins, seulement deux municipalités québécoises utilisent ce système à présent. Des résultats trouvés indiquent qu’une tarification incitative fonctionnelle dépend de l’adaptation du système aux particularités de chaque municipalité. Ceci s’applique au choix du contenant de collecte, des modalités de la facturation et à l’élaboration de la grille tarifaire. En préparation du projet, il est important d’offrir le plus de services complémentaires que possibles afin d’inciter un taux de récupération maximal. Ces services comportent des outils pour le compostage maison, un écocentre pour apport de matières additionnelles ainsi que des collectes spéciales pour les matières organiques, les encombrants et les résidus de construction. Neuf étapes d’une implantation réussie ont été identifiées. La base de chaque projet de tarification incitative est une étude économique et logistique préalable qui permet l’élaboration du scénario choisi. Un projet pilote lancé dans un échantillon de la population aide ensuite à peaufiner la méthode. La préparation de l’appel d’offres et le vote du projet s'en suivent. La mise en œuvre présente un contact avec les citoyens lors de la distribution et mise à jour des contenants de collecte. Par la suite, la municipalité à l’option de commencer par un test à blanc avant d’introduire la tarification complète lors du lancement. Enfin, un suivi par bilans annuels publiés s’impose. Une communication adéquate avant, pendant et après l’implantation est indispensable. La réussite du projet est fortement améliorée par l’allocation d’un chargé de projet responsable dès le début et la portée du projet par les élus.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse est une contribution à la modélisation, la planification et l’optimisation du transport pour l’approvisionnement en bois de forêt des industries de première transformation. Dans ce domaine, les aléas climatiques (mise au sol des bois par les tempêtes), sanitaires (attaques bactériologiques et fongiques des bois) et commerciaux (variabilité et exigence croissante des marchés) poussent les divers acteurs du secteur (entrepreneurs et exploitants forestiers, transporteurs) à revoir l’organisation de la filière logistique d’approvisionnement, afin d’améliorer la qualité de service (adéquation offre-demande) et de diminuer les coûts. L’objectif principal de cette thèse était de proposer un modèle de pilotage améliorant la performance du transport forestier, en respectant les contraintes et les pratiques du secteur. Les résultats établissent une démarche de planification hiérarchique des activités de transport à deux niveaux de décision, tactique et opérationnel. Au niveau tactique, une optimisation multi-périodes permet de répondre aux commandes en minimisant l’activité globale de transport, sous contrainte de capacité agrégée des moyens de transport accessibles. Ce niveau permet de mettre en œuvre des politiques de lissage de charge et d’organisation de sous-traitance ou de partenariats entre acteurs de transport. Au niveau opérationnel, les plans tactiques alloués à chaque transporteur sont désagrégés, pour permettre une optimisation des tournées des flottes, sous contrainte des capacités physiques de ces flottes. Les modèles d’optimisation de chaque niveau sont formalisés en programmation linéaire mixte avec variables binaires. L’applicabilité des modèles a été testée en utilisant un jeu de données industrielles en région Aquitaine et a montré des améliorations significatives d’exploitation des capacités de transport par rapport aux pratiques actuelles. Les modèles de décision ont été conçus pour s’adapter à tout contexte organisationnel, partenarial ou non : la production du plan tactique possède un caractère générique sans présomption de l’organisation, celle-ci étant prise en compte, dans un deuxième temps, au niveau de l’optimisation opérationnelle du plan de transport de chaque acteur.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le laboratoire DOMUS développe des applications pour assister les personnes en perte d'autonomie et les personnes avec des troubles cognitifs. Chaque application est ou a déjà été le sujet de plusieurs études d'utilisabilité qui permettent de les améliorer. Ces études prennent beaucoup de temps à mettre en place, car l'on rencontre souvent des problèmes de logistique (format et sensibilité des données, chercheurs répartis sur une grande aire géographique). C'est pourquoi un outil appelé GEDOPAL a été développé. Il permet de partager entre chercheurs de différents centres les données créées et utilisées lors de la mise en place des études d'utilisabilité. La conception et la réalisation de cet outil ont nécessité une réflexion en amont sur la nature et la sensibilité de ces données. Cette réflexion est l'objet du Chapitre 3. Ces études prennent aussi beaucoup de temps lors de l'analyse des résultats. De plus, certaines données créées lors de ces études, telles que les traces d'utilisation ont des volumétries trop importantes pour être analysées manuellement. C'est pourquoi nous avons créé un processus permettant d'analyser ces traces d'utilisation pour y détecter les erreurs utilisateurs dans l'espoir de les relier à des problèmes d'utilisabilité. Ce processus se compose de deux parties : la première est une analyse formelle de l'application, qui sera présentée au Chapitre 4, et la seconde l'application d'un outil d'apprentissage automatique aux traces d'utilisation pour y détecter les erreurs utilisateurs. Cet outil est présenté au Chapitre 5.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis discusses subgroups of mapping class groups of particular surfaces. First, we study the Torelli group, that is, the subgroup of the mapping class group that acts trivially on the first homology. We investigate generators of the Torelli group, and we give an algorithm that factorizes elements of the Torelli group into products of particular generators. Furthermore, we investigate normal closures of powers of standard generators of the mapping class group of a punctured sphere. By using the Jones representation, we prove that in most cases these normal closures have infinite index in the mapping class group. We prove a similar result for the hyperelliptic mapping class group, that is, the group that consists of mapping classes that commute with a fixed hyperelliptic involution. As a corollary, we recover an older theorem of Coxeter (with 2 exceptional cases), which states that the normal closure of the m-th power of standard generators of the braid group has infinite index in the braid group. Finally, we study finite index subgroups of braid groups, namely, congruence subgroups of braid groups. We discuss presentations of these groups and we provide a topological interpretation of their generating sets.