1000 resultados para Coûts d’ajout de capacité
Resumo:
Les problèmes de conception de réseaux ont reçu un intérêt particulier et ont été largement étudiés de par leurs nombreuses applications dans différents domaines, tels que les transports et les télécommunications. Nous nous intéressons dans ce mémoire au problème de conception de réseaux avec coûts d’ajout de capacité. Il s’agit d’installer un ensemble d’équipements sur un réseau en vue de satisfaire la demande, tout en respectant les contraintes de capacité, chaque arc pouvant admettre plusieurs équipements. L’objectif est de minimiser les coûts variables de transport des produits et les coûts fixes d’installation ou d’augmentation de capacité des équipements. La méthode que nous envisageons pour résoudre ce problème est basée sur les techniques utilisées en programmation linéaire en nombres entiers, notamment celles de génération de colonnes et de coupes. Ces méthodes sont introduites dans un algorithme général de branch-and-bound basé sur la relaxation linéaire. Nous avons testé notre méthode sur quatre groupes d’instances de tailles différentes, et nous l’avons comparée à CPLEX, qui constitue un des meilleurs solveurs permettant de résoudre des problèmes d’optimisation, ainsi qu’à une méthode existante dans la littérature combinant des méthodes exactes et heuristiques. Notre méthode a été plus performante que ces deux méthodes, notamment pour les instances de très grandes tailles.
Resumo:
Méthodologie: Simulation; Analyse discriminante linéaire et logistique; Arbres de classification; Réseaux de neurones en base radiale
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Le problème de conception de réseaux est un problème qui a été beaucoup étudié dans le domaine de la recherche opérationnelle pour ses caractéristiques, et ses applications dans des nombreux domaines tels que le transport, les communications, et la logistique. Nous nous intéressons en particulier dans ce mémoire à résoudre le problème de conception de réseaux avec coûts fixes et sans capacité, en satisfaisant les demandes de tous les produits tout en minimisant la somme des coûts de transport de ces produits et des coûts fixes de conception du réseau. Ce problème se modélise généralement sous la forme d’un programme linéaire en nombres entiers incluant des variables continues. Pour le résoudre, nous avons appliqué la méthode exacte de Branch-and-Bound basée sur une relaxation linéaire du problème avec un critère d’arrêt, tout en exploitant les méthodes de génération de colonnes et de génération de coupes. Nous avons testé la méthode de Branch-and-Price-and-Cut sur 156 instances divisées en cinq groupes de différentes tailles, et nous l’avons comparée à Cplex, l’un des meilleurs solveurs d’optimisation mathématique, ainsi qu’à la méthode de Branch-and- Cut. Notre méthode est compétitive et plus performante sur les instances de grande taille ayant un grand nombre de produits.
Resumo:
Introduction. - La lombalgie chronique reste une pathologie chère incluant les coûts directs et indirects. Les patients coûtant le plus sont ceux ayant un arrêt de travail de plus de 6 mois. Avec le temps, il devient de plus en plus difficile à remettre ces personnes au travail. Devant cette situation de nombreuses possibilités de traitement existent, mais plus que le temps court un programme de réhabilitation interdisciplinaire a les meilleures chances de fonctionner. Le but étant en traitant la personne déconditionnée, à la ramener au travail. Le but de cette étude a été d'étudier le retour au travail, en considérant les changements sur le plan psychologique et l'état de travail avant. Patients et Méthodes. - Nous avons étudié les résultats de 300 de nos patients ayant accompli un programme interdisciplinaire et qui ont été suivis sur 24 mois. Le programme consistait en entraînement physique, de work hardening le tout dans un contexte cognitivecomportemental. Nous avons analysé la relation entre la capacité de travail et sa corrélation avec différents questionnaires de la douleur (VAS, Oswestry ; Roland - Morris, Dallas pain questionnaire ; SF-36, HADS and FABQ). Résultats. - Le 1er facteur a été la capacité de travail, en le comparant avant le travail et à 24 mois après avoir accompli le programme. Il y avait une claire augmentation la faisant passer de 48 % à 80,4 % (p < 0,01). Associé à cette constatation, nous avons observé une réelle diminution dans les appréhensions et dans la douleur sur le plan fonctionnel. IL y avait aussi une relation entre une augmentation de la capacité de travail et une diminution dans les questionnaires fonctionnels, avec p. ex. Un Oswestry passant de 36 % à 14 % à 24 mois. Le retour au travail n'était pas lié à une amélioration des capacités physiques, mais dans une diminution de l'appréhension. Conclusion. - Dans le cadre de la lombalgie chronique, avec des absentéismes répétés, un programme de réhabilitation interdisciplinaire amenant un retour au travail de 72 % des patients avec un taux moyen à 80,4 %, doit être vu comme un moyen positif à traiter ses patients. La corrélation se retrouvait dans la partie psychologique, avec moins d'appréhension et une augmentation des valeurs de la SF 36. En fait, une amélioration de la confidence corporelle reste primordial dans les programmes de restauration fonctionnel, nettement mieux qu'en ciblant que la douleur.
Resumo:
L'article «Capacité de travail et assurance invalidité » [1] décrit le malaise actuel concernant la réhabilitation à la place de travail. Cette problématique n'est toutefois pas uniquement valable pour des incapacités de travail liées à des raisons psychiques, mais aussi pour des incapacités de travail dues à des troubles musculo-squelettiques. De plus, les difficultés de réhabilitation à la place de travail ne doivent pas être imputées uniquement à l'assurance invalidité. En effet, elles sont dues d'une part à des données structurelles de la Suisse (comme une faible implantation de la médecine du travail dans les entreprises et un accès peu développé à la médecine de réhabilitation) et d'autre part, à un manque de définition claire de répartition des coûts ou des responsabilités. Dans son article R. Conne décrit de façon pertinente le malaise existant en Suisse en ce qui concerne la question de la réhabilitation à la place de travail ou de la récupération de sa capacité de travail. Toutefois, cet article se base principalement sur des incapacités de travail dues à des causes psychiques. En temps que médecin du travail et médecin en réhabilitation, nous souhaitons nous emparer de la discussion et l'élargir. Cet élargissement comprend d'une part la prise en compte d'incapacités de travail pour des causes non psychiques et d'autre part, la situation générale des assurances en Suisse. En effet, plutôt que de se focaliser uniquement sur le problème de l'assurance invalidité, il nous semble utile d'étendre le débat à la situation générale des assurances. [Auteurs]
Resumo:
L’augmentation de la dépense énergétique (DE) par une augmentation de l'activité physique (AP) participe au maintien et à l’amélioration de la santé. La mesure à grande échelle de la DE totale (DET) en général et AP en particulier se heurte à des difficultés pratiques de recueil de données, de validité et aux coûts. Bien que dans la littérature de nombreux accéléromètres permettent d’estimer la DET, il y a encore des limites quant à la mesure de l’intensité de l’AP, élément qui influence l’état de la balance énergétique et le bénéfice pour la santé de l’AP. De plus, peu de comparaisons entre les différents accéléromètres sont disponibles. La présente étude avait pour but d’évaluer la capacité de deux accéléromètres (Actical et Sensewear Armband) pour estimer la DET en comparaison avec la technique de l’eau doublement marquée (EDM) ; d’évaluer la concordance entre les accéléromètres dans la mesure de la DE au repos (DER) en comparaison avec la technique de la calorimétrie indirecte (CI) et d’évaluer la DE liée à l’AP en comparaison avec la technique de la CI. Les résultats montrent qu’il y a une très bonne corrélation entre la CI et les accéléromètres dans la mesure de la DER(r > 0.80, p<0.001) et une bonne corrélation entre les accéléromètres et l’EDM dans la mesure de la DET(r>0.75, p<0.001). Pour la mesure de l’intensité de l’AP, l’ACT est plus précis (r=0.80, p<0.001)) que le SWA à la marche, le SWA est meilleur(r=0.80, p<0.001) au vélo. Cette étude permet d’affirmer que le SWA et l’ACT sont des alternatives valables pour mesurer la DE.
Resumo:
Plus d???une vingtaine d???ann??es d???existence d??di??es ?? la mission de d??velopper les comp??tences des fonctionnaires pour augmenter la capacit?? de l?????tat dans la gestion des politiques publiques fait de l???ENAP un mod??le dans le domaine de la formation. Rattach??e au Minist??re du Plan, du Budget et de la Gestion, l?????cole, d??s sa cr??ation en 1986, a re??ue 245 mille fonctionnaires de tout le pays. En 2007, 26 mille fonctionnaires de l???administration f??d??rale ont attendu un de nos 60 stages offerts.
Resumo:
In this report, the Hard Real-Time Subsystem of DEAR-COTS is described, and the services it must provide are identified. This report is an input of ISEP/IPP and FEUP for the specification of the DEAR-COTS architecture (deliverable to the FCT).
Resumo:
This paper proposes a new architecture targeting real-time and reliable Distributed Computer-Controlled Systems (DCCS). This architecture provides a structured approach for the integration of soft and/or hard real-time applications with Commercial O -The-Shelf (COTS) components. The Timely Computing Base model is used as the reference model to deal with the heterogeneity of system components with respect to guaranteeing the timeliness of applications. The reliability and availability requirements of hard real-time applications are guaranteed by a software-based fault-tolerance approach.
CIDER - envisaging a COTS communication infrastructure for evolutionary dependable real-time systems
Resumo:
It is foreseen that future dependable real-time systems will also have to meet flexibility, adaptability and reconfigurability requirements. Considering the distributed nature of these computing systems, a communication infrastructure that permits to fulfil all those requirements is thus of major importance. Although Ethernet has been used primarily as an information network, there is a strong belief that some very recent technological advances will enable its use in dependable applications with real-time requirements. Indeed, several recently standardised mechanisms associated with Switched-Ethernet seem to be promising to enable communication infrastructures to support hard real-time, reliability and flexible distributed applications. This paper describes the motivation and the work being developed within the CIDER (Communication Infrastructure for Dependable Evolvable Real-Time Systems) project, which envisages the use of COTS Ethernet as an enabling technology for future dependable real-time systems. It is foreseen that the CIDER approach will constitute a relevant stream of research since it will bring together cutting edge research in the field of real-time and dependable distributed systems and the industrial eagerness to expand Ethernet responsabilities to support dependable real-time applications.
Resumo:
In the past few years, a significant amount of work has been devoted to the timing analysis of Ethernet-based technologies. However, none of these address the problem of timeliness evaluation at a holistic level. This paper describes a research framework embracing this objective. It is advocated that, simulation models can be a powerful tool, not only for timeliness evaluation, but also to enable the introduction of less pessimistic assumptions in an analytical response time approach, which, most often, are afflicted with simplifications leading to pessimistic assumptions and, therefore, delusive results. To this end, we address a few inter-linked research topics with the purpose of setting a framework for developing tools suitable to extract temporal properties of commercial-off-the-shelf (COTS) factory-floor communication systems.
Resumo:
The usage of COTS-based multicores is becoming widespread in the field of embedded systems. Providing realtime guarantees at design-time is a pre-requisite to deploy real-time systems on these multicores. This necessitates the consideration of the impact of the contention due to shared low-level hardware resources on the Worst-Case Execution Time (WCET) of the tasks. As a step towards this aim, this paper first identifies the different factors that make the WCET analysis a challenging problem in a typical COTS-based multicore system. Then, we propose and prove, a mathematically correct method to determine tight upper bounds on the WCET of the tasks, when they are co-scheduled on different cores.
Resumo:
The current industry trend is towards using Commercially available Off-The-Shelf (COTS) based multicores for developing real time embedded systems, as opposed to the usage of custom-made hardware. In typical implementation of such COTS-based multicores, multiple cores access the main memory via a shared bus. This often leads to contention on this shared channel, which results in an increase of the response time of the tasks. Analyzing this increased response time, considering the contention on the shared bus, is challenging on COTS-based systems mainly because bus arbitration protocols are often undocumented and the exact instants at which the shared bus is accessed by tasks are not explicitly controlled by the operating system scheduler; they are instead a result of cache misses. This paper makes three contributions towards analyzing tasks scheduled on COTS-based multicores. Firstly, we describe a method to model the memory access patterns of a task. Secondly, we apply this model to analyze the worst case response time for a set of tasks. Although the required parameters to obtain the request profile can be obtained by static analysis, we provide an alternative method to experimentally obtain them by using performance monitoring counters (PMCs). We also compare our work against an existing approach and show that our approach outperforms it by providing tighter upper-bound on the number of bus requests generated by a task.