267 resultados para Résolution de superpositions
Resumo:
Analyser le code permet de vérifier ses fonctionnalités, détecter des bogues ou améliorer sa performance. L’analyse du code peut être statique ou dynamique. Des approches combinants les deux analyses sont plus appropriées pour les applications de taille industrielle où l’utilisation individuelle de chaque approche ne peut fournir les résultats souhaités. Les approches combinées appliquent l’analyse dynamique pour déterminer les portions à problèmes dans le code et effectuent par la suite une analyse statique concentrée sur les parties identifiées. Toutefois les outils d’analyse dynamique existants génèrent des données imprécises ou incomplètes, ou aboutissent en un ralentissement inacceptable du temps d’exécution. Lors de ce travail, nous nous intéressons à la génération de graphes d’appels dynamiques complets ainsi que d’autres informations nécessaires à la détection des portions à problèmes dans le code. Pour ceci, nous faisons usage de la technique d’instrumentation dynamique du bytecode Java pour extraire l’information sur les sites d’appels, les sites de création d’objets et construire le graphe d’appel dynamique du programme. Nous démontrons qu’il est possible de profiler dynamiquement une exécution complète d’une application à temps d’exécution non triviale, et d’extraire la totalité de l’information à un coup raisonnable. Des mesures de performance de notre profileur sur trois séries de benchmarks à charges de travail diverses nous ont permis de constater que la moyenne du coût de profilage se situe entre 2.01 et 6.42. Notre outil de génération de graphes dynamiques complets, nommé dyko, constitue également une plateforme extensible pour l’ajout de nouvelles approches d’instrumentation. Nous avons testé une nouvelle technique d’instrumentation des sites de création d’objets qui consiste à adapter les modifications apportées par l’instrumentation au bytecode de chaque méthode. Nous avons aussi testé l’impact de la résolution des sites d’appels sur la performance générale du profileur.
Resumo:
Les cellules sont capables de détecter les distributions spatiales de protéines et ainsi de migrer ou s’étendre dans la direction appropriée. Une compréhension de la réponse cellulaire aux modifications de ces distributions spatiales de protéines est essentielle pour l’avancement des connaissances dans plusieurs domaines de recherches tels que le développement, l’immunologie ou l’oncologie. Un exemple particulièrement complexe est le guidage d’axones se déroulant pendant le développement du système nerveux. Ce dernier nécessite la présence de plusieurs distributions de molécules de guidages étant attractives ou répulsives pour connecter correctement ce réseau complexe qu’est le système nerveux. Puisque plusieurs indices de guidage collaborent, il est particulièrement difficile d’identifier la contribution individuelle ou la voie de signalisation qui est déclenchée in vivo, il est donc nécessaire d’utiliser des méthodes pour reproduire ces distributions de protéines in vitro. Plusieurs méthodes existent pour produire des gradients de protéines solubles ou liées aux substrats. Quelques méthodes pour produire des gradients solubles sont déjà couramment utilisées dans plusieurs laboratoires, mais elles limitent l’étude aux distributions de protéines qui sont normalement sécrétées in vivo. Les méthodes permettant de produire des distributions liées au substrat sont particulièrement complexes, ce qui restreint leur utilisation à quelques laboratoires. Premièrement, nous présentons une méthode simple qui exploite le photoblanchiment de molécules fluorescentes pour créer des motifs de protéines liées au substrat : Laser-assisted protein adsorption by photobleaching (LAPAP). Cette méthode permet de produire des motifs de protéines complexes d’une résolution micrométrique et d’une grande portée dynamique. Une caractérisation de la technique a été faite et en tant que preuve de fonctionnalité, des axones de neurones du ganglion spinal ont été guidés sur des gradients d’un peptide provenant de la laminine. Deuxièmement, LAPAP a été amélioré de manière à pouvoir fabriquer des motifs avec plusieurs composantes grâce à l’utilisation de lasers à différentes longueurs d’onde et d’anticorps conjugués à des fluorophores correspondants à ces longueurs d’onde. De plus, pour accélérer et simplifier le processus de fabrication, nous avons développé LAPAP à illumination à champ large qui utilise un modulateur spatial de lumière, une diode électroluminescente et un microscope standard pour imprimer directement un motif de protéines. Cette méthode est particulièrement simple comparativement à la version originale de LAPAP puisqu’elle n’implique pas le contrôle de la puissance laser et de platines motorisées, mais seulement d’envoyer l’image du motif désiré au modulateur spatial. Finalement, nous avons utilisé LAPAP pour démontrer que notre technique peut être utilisée dans des analyses de haut contenu pour quantifier les changements morphologiques résultant de la croissance neuronale sur des gradients de protéines de guidage. Nous avons produit des milliers de gradients de laminin-1 ayant différentes pentes et analysé les variations au niveau du guidage de neurites provenant d’une lignée cellulaire neuronale (RGC-5). Un algorithme pour analyser les images des cellules sur les gradients a été développé pour détecter chaque cellule et quantifier la position du centroïde du soma ainsi que les angles d’initiation, final et de braquage de chaque neurite. Ces données ont démontré que les gradients de laminine influencent l’angle d’initiation des neurites des RGC-5, mais n’influencent pas leur braquage. Nous croyons que les résultats présentés dans cette thèse faciliteront l’utilisation de motifs de protéines liées au substrat dans les laboratoires des sciences de la vie, puisque LAPAP peut être effectué à l’aide d’un microscope confocal ou d’un microscope standard légèrement modifié. Cela pourrait contribuer à l’augmentation du nombre de laboratoires travaillant sur le guidage avec des gradients liés au substrat afin d’atteindre la masse critique nécessaire à des percées majeures en neuroscience.
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
L'insuffisance cardiaque est une maladie à grande incidence dont le traitement définitif est difficile. Les pompes d'assistance ventriculaire ont été proposées comme thérapie alternative à long terme, mais la technologie est relativement jeune et selon son design, axial ou centrifuge, le dispositif favorise soit l'hémolyse, soit la stagnation de l'écoulement sanguin. Les pompes à écoulement mixte, combinant certaines propriétés des deux types, ont été proposées comme solution intermédiaire. Pour évaluer leurs performances, nous avons effectué des comparaisons numériques entre huit pompes, deux axiales, deux centrifuges, et quatre mixtes, en employant un modèle Windkessel du système cardiovasculaire avec paramètres optimisés pour l'insuffisance cardiaque résolu avec une méthode Radau IIA3, une méthode de résolution de système d'équations différentielles ordinaires L-stable appartenant à la famille des méthodes Runge-Kutta implicites. Nos résultats semblent suggérer que les pompes d'assistance mixtes ne démontrent qu'un léger avantage comparativement aux autres types en terme de performance optimale dans le cas de l'insuffisance cardiaque, mais il faudrait effectuer plus d'essais numériques avec un modèle plus complet, entre autres avec contrôles nerveux implémentés.
Resumo:
Le problème de tarification qui nous intéresse ici consiste à maximiser le revenu généré par les usagers d'un réseau de transport. Pour se rendre à leurs destinations, les usagers font un choix de route et utilisent des arcs sur lesquels nous imposons des tarifs. Chaque route est caractérisée (aux yeux de l'usager) par sa "désutilité", une mesure de longueur généralisée tenant compte à la fois des tarifs et des autres coûts associés à son utilisation. Ce problème a surtout été abordé sous une modélisation déterministe de la demande selon laquelle seules des routes de désutilité minimale se voient attribuer une mesure positive de flot. Le modèle déterministe se prête bien à une résolution globale, mais pèche par manque de réalisme. Nous considérons ici une extension probabiliste de ce modèle, selon laquelle les usagers d'un réseau sont alloués aux routes d'après un modèle de choix discret logit. Bien que le problème de tarification qui en résulte est non linéaire et non convexe, il conserve néanmoins une forte composante combinatoire que nous exploitons à des fins algorithmiques. Notre contribution se répartit en trois articles. Dans le premier, nous abordons le problème d'un point de vue théorique pour le cas avec une paire origine-destination. Nous développons une analyse de premier ordre qui exploite les propriétés analytiques de l'affectation logit et démontrons la validité de règles de simplification de la topologie du réseau qui permettent de réduire la dimension du problème sans en modifier la solution. Nous établissons ensuite l'unimodalité du problème pour une vaste gamme de topologies et nous généralisons certains de nos résultats au problème de la tarification d'une ligne de produits. Dans le deuxième article, nous abordons le problème d'un point de vue numérique pour le cas avec plusieurs paires origine-destination. Nous développons des algorithmes qui exploitent l'information locale et la parenté des formulations probabilistes et déterministes. Un des résultats de notre analyse est l'obtention de bornes sur l'erreur commise par les modèles combinatoires dans l'approximation du revenu logit. Nos essais numériques montrent qu'une approximation combinatoire rudimentaire permet souvent d'identifier des solutions quasi-optimales. Dans le troisième article, nous considérons l'extension du problème à une demande hétérogène. L'affectation de la demande y est donnée par un modèle de choix discret logit mixte où la sensibilité au prix d'un usager est aléatoire. Sous cette modélisation, l'expression du revenu n'est pas analytique et ne peut être évaluée de façon exacte. Cependant, nous démontrons que l'utilisation d'approximations non linéaires et combinatoires permet d'identifier des solutions quasi-optimales. Finalement, nous en profitons pour illustrer la richesse du modèle, par le biais d'une interprétation économique, et examinons plus particulièrement la contribution au revenu des différents groupes d'usagers.
Resumo:
Cette dissertation traite des (re)configurations postcoloniales de la résistance et de la négociation comme concepts permettant d’aborder les représentations des conflits nationaux dans les littératures Africaines contemporaines. Ensemble, ces concepts ouvrent de nouvelles voix et possibilités de se remémorer, de raconter, et de lire la violence en problématisant non seulement les discours sur la guerre civile en Afrique, mais aussi les conceptions d’histoire nationale, de la mémoire, et de leur représentation. Si cette étude cherche à reconfigurer la négociation et la résistance au-delà des définitions qui tendent à les opposer, elle se consacre surtout à développer la notion de négociation comme stratégie de dépassement, de lecture, et d’écriture, qui, néanmoins, ne vise pas de résolution. La négociation implique ainsi une conception pluraliste d’un pouvoir d’action sociale, politique, et culturelle. Cette dissertation avance que la négociation est un concept d’écriture et de lecture qui intervient dans les événements, discours, et pratiques de remémoration en prenant compte de leurs multiplicités et définitions instables. Cette étude explore les manières selon lesquelles Nuruddin Farah, Chenjerai Hove, Yvonne Vera, Chimamanda Adichie, et Sefi Atta déploient la négociation et la résistance comme outils d’engagement esthétique et sociopolitique dans la narration de la violence en Somalie, au Zimbabwe, et au Nigeria. En outre, la négociation marque mon analyse de l’intervention des textes dans les discours d’historiographie et de représentation. Si ces romans mettent en exergue la généalogie complexe du conflit postcolonial, ils négocient aussi les implications multiples, incluant la leur, dans les questions problématiques de la responsabilité et de la représentation. La vii négociation représente un acte conscient à travers lequel nous reconnaissons l’instabilité de toute bataille politique, morale, ou éthique sans pour autant céder à un cynisme paralysant. De par son approche négociée et interdisciplinaire, cette dissertation ne fait pas qu’entrer en débat avec des discours multiples des études postcoloniales, Africaines, et littéraires. Elle intervient aussi dans les conceptions de la nation, la violence, la mémoire, la responsabilité, et la justice selon les études philosophiques, politiques, et culturelles. Outre les critiques littéraires, les chapitres interrogent les théories de penseurs tels Ngugi wa Thiong’o, David Jefferess, Pheng Cheah, et Wole Soyinka. Cette approche éclectique reflète l’attention des romans à la complexité irréductible des responsabilités individuelles et collectives dans les récits d’histoire et d’appartenance nationales. Cet engagement négocié avec les questions entourant la postcolonialité, malgré la dominance actuelle des discours de la globalisation, permet de reconceptualiser l’approche postcoloniale pour contrer les analyses déhistorisées et décontextualisées des conflits sociopolitiques en Afrique. Le chapitre 1 élabore les concepts clés de la dissertation. Le chapitre 2 explore la résistance et la négociation dans le langage figuré métonymique dans les représentations de la guerre en Somalie. Le chapitre 3 se consacre à l’analyse de la figure de la spectralité dans la narration de l’histoire et de la violence nationales au Zimbabwe. Finalement, le chapitre 4 négocie les concepts de représentation et de responsabilité dans les récits du trauma postcolonial au Nigeria. viii Mots-clés : négociation, résistance, littératures africaines, violence, responsabilité, nation, représentation
Resumo:
La phosphorylation est une modification post-traductionnelle omniprésente des protéines Cette modification est ajoutée et enlevée par l’activité enzymatique respective des protéines kinases et phosphatases. Les kinases Erk1/2 sont au cœur d’une voie de signalisation importante qui régule l’activité de protéines impliquées dans la traduction, le cycle cellulaire, le réarrangement du cytosquelette et la transcription. Ces kinases sont aussi impliquées dans le développement de l’organisme, le métabolisme du glucose, la réponse immunitaire et la mémoire. Différentes pathologies humaines comme le diabète, les maladies cardiovasculaires et principalement le cancer, sont associées à une perturbation de la phosphorylation sur les différents acteurs de cette voie. Considérant l’importance biologique et clinique de ces deux kinases, connaître l’étendue de leur activité enzymatique pourrait mener au développement de nouvelles thérapies pharmacologiques. Dans ce contexte, l’objectif principal de cette thèse était de mesurer l’influence de cette voie sur le phosphoprotéome et de découvrir de nouveaux substrats des kinases Erk1/2. Une étude phosphoprotéomique de cinétique d’inhibition pharmacologique de la voie de signalisation Erk1/2 a alors été entreprise. Le succès de cette étude était basé sur trois technologies clés, soit l’enrichissement des phosphopeptides avec le dioxyde de titane, la spectrométrie de masse haut débit et haute résolution, et le développement d’une plateforme bio-informatique nommée ProteoConnections. Cette plateforme permet d’organiser les données de protéomique, évaluer leur qualité, indiquer les changements d’abondance et accélérer l’interprétation des données. Une fonctionnalité distinctive de ProteoConnections est l’annotation des sites phosphorylés identifiés (kinases, domaines, structures, conservation, interactions protéiques phospho-dépendantes). Ces informations ont été essentielles à l’analyse des 9615 sites phosphorylés sur les 2108 protéines identifiées dans cette étude, soit le plus large ensemble rapporté chez le rat jusqu’à ce jour. L’analyse des domaines protéiques a révélé que les domaines impliqués dans les interactions avec les protéines, les acides nucléiques et les autres molécules sont les plus fréquemment phosphorylés et que les sites sont stratégiquement localisés pour affecter les interactions. Un algorithme a été implémenté pour trouver les substrats potentiels des kinases Erk1/2 à partir des sites identifiés selon leur motif de phosphorylation, leur cinétique de stimulation au sérum et l’inhibition pharmacologique de Mek1/2. Une liste de 157 substrats potentiels des kinases Erk1/2 a ainsi été obtenue. Parmi les substrats identifiés, douze ont déjà été rapportés et plusieurs autres ont des fonctions associées aux substrats déjà connus. Six substrats (Ddx47, Hmg20a, Junb, Map2k2, Numa1, Rras2) ont été confirmés par un essai kinase in vitro avec Erk1. Nos expériences d’immunofluorescence ont démontré que la phosphorylation de Hmg20a sur la sérine 105 par Erk1/2 affecte la localisation nucléocytoplasmique de cette protéine. Finalement, les phosphopeptides isomériques positionnels, soit des peptides avec la même séquence d’acides aminés mais phosphorylés à différentes positions, ont été étudiés avec deux nouveaux algorithmes. Cette étude a permis de déterminer leur fréquence dans un extrait enrichi en phosphopeptides et d’évaluer leur séparation par chromatographie liquide en phase inverse. Une stratégie analytique employant un des algorithmes a été développée pour réaliser une analyse de spectrométrie de masse ciblée afin de découvrir les isomères ayant été manqués par la méthode d’analyse conventionnelle.
Resumo:
L’érosion éolienne est un problème environnemental parmi les plus sévères dans les régions arides, semi-arides et les régions sèches sub-humides de la planète. L’érosion des sols accélérée par le vent provoque des dommages à la fois localement et régionalement. Sur le plan local, elle cause la baisse des nutriments par la mobilisation des particules les plus fines et de la matière organique. Cette mobilisation est une des causes de perte de fertilité des sols avec comme conséquence, une chute de la productivité agricole et une réduction de la profondeur de la partie arable. Sur le plan régional, les tempêtes de poussières soulevées par le vent ont un impact non négligeable sur la santé des populations, et la déposition des particules affecte les équipements hydrauliques tels que les canaux à ciel ouvert ainsi que les infrastructures notamment de transport. Dans les régions où les sols sont fréquemment soumis à l’érosion éolienne, les besoins pour des études qui visent à caractériser spatialement les sols selon leur degré de vulnérabilité sont grands. On n’a qu’à penser aux autorités administratives qui doivent décider des mesures à prendre pour préserver et conserver les potentialités agropédologiques des sols, souvent avec des ressources financières modestes mises à leur disposition. Or, dans certaines de ces régions, comme notre territoire d’étude, la région de Thiès au Sénégal, ces études font défaut. En effet, les quelques études effectuées dans cette région ou dans des contextes géographiques similaires ont un caractère plutôt local et les approches suivies (modèles de pertes des sols) nécessitent un nombre substantiel de données pour saisir la variabilité spatiale de la dynamique des facteurs qui interviennent dans le processus de l’érosion éolienne. La disponibilité de ces données est particulièrement problématique dans les pays en voie de développement, à cause de la pauvreté en infrastructures et des problèmes de ressources pour le monitoring continu des variables environnementales. L’approche mise de l’avant dans cette recherche vise à combler cette lacune en recourant principalement à l’imagerie satellitale, et plus particulièrement celle provenant des satellites Landsat-5 et Landsat-7. Les images Landsat couvrent la presque totalité de la zone optique du spectre exploitable par télédétection (visible, proche infrarouge, infrarouge moyen et thermique) à des résolutions relativement fines (quelques dizaines de mètres). Elles permettant ainsi d’étudier la distribution spatiale des niveaux de vulnérabilité des sols avec un niveau de détails beaucoup plus fin que celui obtenu avec des images souvent utilisées dans des études environnementales telles que AVHRR de la série de satellites NOAA (résolution kilométrique). De plus, l’archive complet des images Landsat-5 et Landsat-7 couvrant une période de plus de 20 ans est aujourd’hui facilement accessible. Parmi les paramètres utilisés dans les modèles d’érosion éolienne, nous avons identifiés ceux qui sont estimables par l’imagerie satellitale soit directement (exemple, fraction du couvert végétal) soit indirectement (exemple, caractérisation des sols par leur niveau d’érodabilité). En exploitant aussi le peu de données disponibles dans la région (données climatiques, carte morphopédologique) nous avons élaboré une base de données décrivant l’état des lieux dans la période de 1988 à 2002 et ce, selon les deux saisons caractéristiques de la région : la saison des pluies et la saison sèche. Ces données par date d’acquisition des images Landsat utilisées ont été considérées comme des intrants (critères) dans un modèle empirique que nous avons élaboré en modulant l’impact de chacun des critères (poids et scores). À l’aide de ce modèle, nous avons créé des cartes montrant les degrés de vulnérabilité dans la région à l’étude, et ce par date d’acquisition des images Landsat. Suite à une série de tests pour valider la cohérence interne du modèle, nous avons analysé nos cartes afin de conclure sur la dynamique du processus pendant la période d’étude. Nos principales conclusions sont les suivantes : 1) le modèle élaboré montre une bonne cohérence interne et est sensible aux variations spatiotemporelles des facteurs pris en considération 2); tel qu’attendu, parmi les facteurs utilisés pour expliquer la vulnérabilité des sols, la végétation vivante et l’érodabilité sont les plus importants ; 3) ces deux facteurs présentent une variation importante intra et inter-saisonnière de sorte qu’il est difficile de dégager des tendances à long terme bien que certaines parties du territoire (Nord et Est) aient des indices de vulnérabilité forts, peu importe la saison ; 4) l’analyse diachronique des cartes des indices de vulnérabilité confirme le caractère saisonnier des niveaux de vulnérabilité dans la mesure où les superficies occupées par les faibles niveaux de vulnérabilité augmentent en saison des pluies, donc lorsque l’humidité surfacique et la végétation active notamment sont importantes, et décroissent en saison sèche ; 5) la susceptibilité, c’est-à-dire l’impact du vent sur la vulnérabilité est d’autant plus forte que la vitesse du vent est élevée et que la vulnérabilité est forte. Sur les zones où la vulnérabilité est faible, les vitesses de vent élevées ont moins d’impact. Dans notre étude, nous avons aussi inclus une analyse comparative entre les facteurs extraits des images Landsat et celles des images hyperspectrales du satellite expérimental HYPERION. Bien que la résolution spatiale de ces images soit similaire à celle de Landsat, les résultats obtenus à partir des images HYPERION révèlent un niveau de détail supérieur grâce à la résolution spectrale de ce capteur permettant de mieux choisir les bandes spectrales qui réagissent le plus avec le facteur étudié. Cette étude comparative démontre que dans un futur rapproché, l’amélioration de l’accessibilité à ce type d’images permettra de raffiner davantage le calcul de l’indice de vulnérabilité par notre modèle. En attendant cette possibilité, on peut de contenter de l’imagerie Landsat qui offre un support d’informations permettant tout de même d’évaluer le niveau de fragilisation des sols par l’action du vent et par la dynamique des caractéristiques des facteurs telles que la couverture végétale aussi bien vivante que sénescente.
Resumo:
Un phénomène de résistance au traitement pharmacologique chez les personnes souffrant de maladies psychiatriques graves et persistantes comme la schizophrénie, tel que révélé par la pratique des soins psychiatriques communautaires de première ligne, sert de point de départ pour poser une distinction fondamentale entre les notions de traitement et de soins. Conséquemment, la question du consentement selon qu’il est attribué au traitement ou aux soins suggère des formes de consentement distinctes susceptible d’affecter la façon de faire face à des problèmes particuliers sur le plan de l’éthique. L’analyse conceptuelle d’un certain modèle d’interventions psychiatriques de crise, qui regroupe des travailleurs de la santé et des policiers au sein d’une même équipe de travail, permet de circonscrire des catégories de problèmes éthiques qui conduiront éventuellement à la formalisation d’une approche de résolution de problème. Trois façons d’approcher un problème d’éthique clinique sont proposées sous la forme d’enjeux, de dilemmes, puis de défis éthiques. L’intervention de crise y est catégorisée selon quatre niveaux d’intensité de crise, donnant lieu à une appréciation subjective par le soignant de la capacité de la personne soignée d’établir et de maintenir une relation de soins en situation de crise. Des parallèles entre les soins psychiatriques et les soins palliatifs permettent d’approfondir la question de la souffrance en lien avec la douleur et de distinguer à nouveau les notions de soins et de traitement. La relation de soins est présentée comme une occasion de normaliser les rapports entre soignants et soignés, de valoriser un état de souffrance à l’origine de la rencontre de soins, tout en mettant à profit la dimension relationnelle d’une condition qui appelle à être non pas traitée mais soignée. Ces considérations permettent de dégager une responsabilité nouvelle pour le soignant : celle de se faire le gardien de la relation de soins. Une transition du primum non nocere au primum non excludere : d’abord ne pas exclure est suggérée comme une maxime pour guider la relation de soins vers un consentement aux soins plus authentique.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
De nombreux problèmes en transport et en logistique peuvent être formulés comme des modèles de conception de réseau. Ils requièrent généralement de transporter des produits, des passagers ou encore des données dans un réseau afin de satisfaire une certaine demande tout en minimisant les coûts. Dans ce mémoire, nous nous intéressons au problème de conception de réseau avec coûts fixes et capacités. Ce problème consiste à ouvrir un sous-ensemble des liens dans un réseau afin de satisfaire la demande, tout en respectant les contraintes de capacités sur les liens. L'objectif est de minimiser les coûts fixes associés à l'ouverture des liens et les coûts de transport des produits. Nous présentons une méthode exacte pour résoudre ce problème basée sur des techniques utilisées en programmation linéaire en nombres entiers. Notre méthode est une variante de l'algorithme de branch-and-bound, appelée branch-and-price-and-cut, dans laquelle nous exploitons à la fois la génération de colonnes et de coupes pour la résolution d'instances de grande taille, en particulier, celles ayant un grand nombre de produits. En nous comparant à CPLEX, actuellement l'un des meilleurs logiciels d'optimisation mathématique, notre méthode est compétitive sur les instances de taille moyenne et supérieure sur les instances de grande taille ayant un grand nombre de produits, et ce, même si elle n'utilise qu'un seul type d'inégalités valides.
Resumo:
Comment fonder théoriquement des indicateurs culturels? Issue de problèmes méthodologiques reliés à l’étude des rapports entre le temps de travail et le temps libre, cette question émerge à la suite du constat du déficit théorique de la statistique culturelle. En effet, l’étude du temps libre, comme du temps de travail, nécessite de questionner les fondements de cette répartition, en même temps qu’elle exige d’analyser concrètement les pratiques sociales reliées à ces catégories. Or, les ana-lyses sur l’emploi du temps libre sont souvent fondées sur des statistiques à propos des activités culturelles, statistiques dont la portée explicative est singulièrement limitée. Bien que des statistiques sur certaines de ces activités existent au moins depuis le début du XXe siècle, c’est à partir des années 1970 que les besoins de connaissance reliés à la mise en œuvre des politiques culturelles stimulent la production de statistiques plus nombreuses et plus détaillées. Afin de donner des significations à cette masse de statistiques, il est nécessaire de délimiter les frontières de ce qui est culture et communication parmi toutes les autres activités sociales. L’élaboration de cadres conceptuels de la culture par l’UNESCO et d’autres agences statistiques tente de répondre à cette exigence, tandis que les projets d’indicateurs avancés cherchent à donner un sens à l’information statistique. Ces tentatives se caractérisent toutefois par la faiblesse de leur assise théorique, problème qui se manifeste de manière aiguë dans la définition d’indicateurs qui ont nécessairement une portée normative. La résolution de cette impasse de la statistique culturelle passe au moins par une clarification des concepts reliés à la notion de culture. À cette fin, la méthodologie de la recherche repose sur une analyse critique de certains documents fondamentaux qui ont conduit à la création du cadre conceptuel pour la statistique culturelle de l’UNESCO, ainsi que sur des textes phares de Fernand Dumont, Pierre Bourdieu et Jürgen Habermas, choisis pour leur capacité à penser les activités culturelles dans l’ensemble social selon leur temporalité. La notion de temporalité est elle-même examinée sous l’angle de plusieurs approches théoriques. Il ressort de cet examen que la différenciation du temps en temps abstrait et temps concret permet d’entrevoir que les pratiques culturelles pourraient être mesurées non seulement selon la quantité de temps social qui leur est dévolue, mais aussi comme un temps qui a une valeur marchande. Les acquis de l’analyse critique des cadres conceptuels de la statistique culturelle et des textes de Dumont, Bourdieu et Habermas servent de points d’appui pour l’élaboration d’un projet d’indicateurs culturels pour le compte de l’Observatoire de la culture et des communications du Québec (OCCQ). Ce système d’indicateurs a été élaboré selon une grille qui définit ce qu’est un indicateur culturel, son objectif et sa signification. Les indicateurs ont été choisis au cours d’un processus de consultation mené par l’OCCQ auprès des agents gouvernementaux concernés et des représentants des associations professionnelles des secteurs de la culture et des communications du Québec.
Resumo:
Deux catégories de compétences influenceraient toute pratique professionnelle, les compétences disciplinaires et relationnelles. Selon le cadre théorique de ce projet, la pratique réflexive (PR) aiderait le professionnel à développer les compétences relationnelles, grâce à l’approfondissement de sa conscience et de son autocritique des composantes tacites de sa pratique, telles que ses valeurs et principes, ses perceptions et ses stratégies d’action, afin de les rendre plus efficaces et satisfaisantes lors de la résolution de problèmes. Dans cette étude, la PR souhaitait aider un groupe d’infirmières pivots en oncologie (IPO) à réfléchir et agir sur les composantes de leur pratique qui contribuaient à certaines difficultés relationnelles persistantes vécues auprès de gestionnaires, collègues et familles et qui, selon les IPO, avaient un impact sur l’expérience de santé de familles touchées par le cancer. Toutefois, la recension des écrits effectuée dans cette recherche soutient qu’il y a un nombre insuffisant d’études qui a trait à l’influence d’une PR sur la pratique infirmière et, plus encore, sur le développement des compétences relationnelles des infirmières. Les écueils théoriques et méthodologiques suivants ont entre autres été rapportés: la PR étudiée ne reposait pas toujours sur un modèle théorique clair et le but poursuivi par la PR n’était pas toujours énoncé; aucune recherche n’a documenté de quelle manière la PR s’était développée et, une fois acquise, de quelle façon elle avait contribué aux résultats; et, enfin, aucune étude recensée n’a exploré l’influence d’une PR intégrée par l’infirmière, en tenant compte de la perspective de familles qui bénéficiaient de leurs soins. Considérant ces principaux écueils, cette étude a privilégié la recherche-action participative afin de documenter la facilitation d’une PR et son influence sur les compétences relationnelles d’IPO et sur d’autres dimensions à la fois personnelles, organisationnelles et cliniques. Six IPO ont pris part à l’intervention de l’étude d’une durée d’un an. Cinq collègues des équipes de soins et douze membres de familles touchées par le cancer ont participé à l’évaluation de son influence. Les résultats de cette recherche portent à croire que les IPO qui développent une PR plus profonde, c’est-à-dire jusqu’à leurs sentiments et besoins internes, parviennent à établir des relations plus mutuelles auprès de collègues et de familles, grâce à des changements importants réalisés sur le plan de leurs valeurs et principes, de leurs perceptions et de leurs stratégies d’action. Les résultats de l’étude soutiennent aussi que ces changements au sein de la pratique infirmière génèrent des effets positifs. Les IPO ont parlé d’une plus grande satisfaction liée à leur travail et de bienfaits sur leur santé. La majorité des IPO et des participantes-collègues de l’étude ont rapporté un climat de travail plus calme et des processus d’équipe plus satisfaisants lors, par exemple, de la résolution de problèmes. Enfin, lorsque les IPO intégraient une approche plus mutuelle, des familles rapportaient une atténuation de leur inquiétude ou de leur détresse psychologique, une plus grande capacité de donner du sens à leur expérience de cancer, une qualité accrue de leur communication intrafamiliale ou avec l’équipe soignante.