972 resultados para Méthode de partage des coûts
Resumo:
Les courriels Spams (courriels indésirables ou pourriels) imposent des coûts annuels extrêmement lourds en termes de temps, d’espace de stockage et d’argent aux utilisateurs privés et aux entreprises. Afin de lutter efficacement contre le problème des spams, il ne suffit pas d’arrêter les messages de spam qui sont livrés à la boîte de réception de l’utilisateur. Il est obligatoire, soit d’essayer de trouver et de persécuter les spammeurs qui, généralement, se cachent derrière des réseaux complexes de dispositifs infectés, ou d’analyser le comportement des spammeurs afin de trouver des stratégies de défense appropriées. Cependant, une telle tâche est difficile en raison des techniques de camouflage, ce qui nécessite une analyse manuelle des spams corrélés pour trouver les spammeurs. Pour faciliter une telle analyse, qui doit être effectuée sur de grandes quantités des courriels non classés, nous proposons une méthodologie de regroupement catégorique, nommé CCTree, permettant de diviser un grand volume de spams en des campagnes, et ce, en se basant sur leur similarité structurale. Nous montrons l’efficacité et l’efficience de notre algorithme de clustering proposé par plusieurs expériences. Ensuite, une approche d’auto-apprentissage est proposée pour étiqueter les campagnes de spam en se basant sur le but des spammeur, par exemple, phishing. Les campagnes de spam marquées sont utilisées afin de former un classificateur, qui peut être appliqué dans la classification des nouveaux courriels de spam. En outre, les campagnes marquées, avec un ensemble de quatre autres critères de classement, sont ordonnées selon les priorités des enquêteurs. Finalement, une structure basée sur le semiring est proposée pour la représentation abstraite de CCTree. Le schéma abstrait de CCTree, nommé CCTree terme, est appliqué pour formaliser la parallélisation du CCTree. Grâce à un certain nombre d’analyses mathématiques et de résultats expérimentaux, nous montrons l’efficience et l’efficacité du cadre proposé.
Resumo:
Au cours des années une variété des compositions de verre chalcogénure a été étudiée en tant qu’une matrice hôte pour les ions Terres Rares (TR). Pourtant, l’obtention d’une matrice de verre avec une haute solubilité des ions TR et la fabrication d’une fibre chalcogénure dopée au TR avec une bonne qualité optique reste toujours un grand défi. La présente thèse de doctorat se concentre sur l’étude de nouveaux systèmes vitreux comme des matrices hôtes pour le dopage des ions TR, ce qui a permis d’obtenir des fibres optiques dopées au TR qui sont transparents dans l’IR proche et moyenne. Les systèmes vitreux étudiés ont été basés sur le verre de sulfure d’arsenic (As2S3) co-dopé aux ions de Tm3+ et aux différents modificateurs du verre. Premièrement, l’addition de Gallium (Ga), comme un co-dopant, a été examinée et son influence sur les propriétés d’émission des ions de Tm a été explorée. Avec l’incorporation de Ga, la matrice d’As2S3 dopée au Tm a montré trois bandes d’émission à 1.2 μm (1H5→3H6), 1.4 μm (3H4→3F4) et 1.8 μm (3F4→3H6), sous l’excitation des longueurs d’onde de 698 nm et 800 nm. Les concentrations de Tm et de Ga ont été optimisées afin d’obtenir le meilleur rendement possible de photoluminescence. À partir de la composition optimale, la fibre Ga-As-S dopée au Tm3+ a été étirée et ses propriétés de luminescence ont été étudiées. Un mécanisme de formation structurale a été proposé pour ce système vitreux par la caractérisation structurale des verres Ga-As-S dopés au Tm3+, en utilisant la spectroscopie Raman et l’analyse de spectrométrie d’absorption des rayons X (EXAFS) à seuil K d’As, seuil K de Ga et seuil L3 de Tm et il a été corrélé avec les caractéristiques de luminescence de Tm. Dans la deuxième partie, la modification des verres As2S3 dopés au Tm3+, avec l’incorporation d’halogénures (Iode (I2)), a été étudiée en tant qu’une méthode pour l’adaptation des paramètres du procédé de purification afin d’obtenir une matrice de verre de haute pureté par distillation chimique. Les trois bandes d’émission susmentionnées ont été aussi bien observées pour ce système sous l’excitation à 800 nm. Les propriétés optiques, thermiques et structurelles de ces systèmes vitreux ont été caractérisées expérimentalement en fonction de la concentration d’I2 et de Tm dans le verre, où l’attention a été concentrée sur deux aspects principaux: l’influence de la concentration d’I2 sur l’intensité d’émission de Tm et les mécanismes responsables pour l’augmentation de la solubilité des ions de Tm dans la matrice d’As2S3 avec l’addition I2.
Resumo:
Nous voilà rendus à l'aube du troisième millénaire. Que de changements se sont produits depuis la révolution industrielle. Selon plusieurs auteurs cités par Defrenne et Delvaux (1990), nous sommes maintenant arrivés à la société postindustrielle que certains appellent la société super-industrielle, la post-civilisation, la société technétronique, la société technicisée et, pour Defrenne et Delvaux (1990), il s'agit de la société de l'incertitude. Pour eux, elle est une réplique du chaos planétaire où l'organisation se fait, se défait et se refait, jamais tout à fait semblable. Il nous apparaît important de définir ce que nous entendons par "organisation". Il s'agit d'un «groupement, association en général d'une certaine ampleur, qui se propose des buts déterminés» (Dictionnaire Petit Larousse, 1993) comme les organisations privées, publiques et para-publiques. Dans les organisations, ce véritable chaos se traduit par des processus de restructuration où l'on accorde souvent davantage d'importance à l'organisation et ses structures, et ce au détriment des individus qui y travaillent. Il en résulte une perte du potentiel des travailleurs, ce qui occasionne un déficit au plan des ressources humaines dont on ne soupçonne pas les conséquences pour l'organisation et les individus. Les propos qu'entretiennent les deux auteurs sont assez éloquents à ce sujet: «Les points de repères disparaissent sans être remplacés par d'autres, imprévus et imprévisibles, ils s'avèrent impuissants à faire face au changement, dont les composantes non gérées deviennent synonymes de facteurs de désordre. C'est pourquoi l'univers professionnel et la vulnérabilité des travailleurs reproduisent la fragilité de l'organisation. Ce désordre se traduit à l'intérieur des entreprises par des vécus désadaptatifs et des conduites dysfonctionnelles, de tous genres au travail. Ils entraînent des coûts psychologiques, sociaux, financiers et économiques importants. Ils peuvent aller jusqu'à ruiner les politiques, les stratégies et détruire l'image de l'organisation. À l'extérieur, les faits divers rapportent des incidents qui témoignent de fautes de gestion ou de spéculations douteuses, dévoilent les carences en matière d'intervention efficace, placent l'ensemble des entreprises dans un environnement mouvant et mutant par rapport auquel elles sont sommées de se réajuster perpétuellement.» (Defrenne et Delvaux 1990, p. 23) Cette société de l'incertitude, que nous décrivent ces deux auteurs, n'est pas sans conséquences pour les différents acteurs des organisations face à de futurs scénarios multiples, irréversibles et imprévisibles, engendrant des coûts dont on ne peut soupçonner l'ampleur. Devant de tels changements, la plupart des travailleurs vivront des transitions au cours de leur vie personnelle et professionnelle. Le conseiller d'orientation, un travailleur faisant partie de ce monde en mutation, est lui aussi touché. Il voit sa pratique se modifier, ses champs d'intervention traditionnelle se transforment peu à peu et d'autres commencent à s'ouvrir. À la différence de bien des travailleurs, le conseiller d'orientation possède des compétences et des connaissances qui lui seront très utiles dans un tel contexte de changement. En outre, il pourra les mettre au service des organisations aux prises avec de nouveaux besoins organisationnels engendrés par la société postindustrielle. Comme il devient impératif de tenir compte de plus en plus des besoins de l'individu dans une nouvelle gestion des ressources humaines, on ne doit pas seulement gérer les effectifs mais l'on doit également les développer et les mobiliser autour d'objectifs communs que sont ceux de l'organisation et des individus. Pour en arriver à mobiliser les travailleurs et les gestionnaires autour d'une même vision de l'organisation, certaines pratiques dans la gestion des ressources humaines doivent être renouvelées et appuyées par des programmes de développement de carrière, de formation de la main-d'oeuvre, d'aide aux transitions personnelles et professionnelles et par le développement des politiques de gestion des ressources humaines. Un grand défi demeure pour les organisations: comment faire face à de tels changements qui affectent à la fois la culture de l'organisation, les politiques, les méthodes de travail, les relations entre les travailleurs et le personnel cadre. Tout se bouscule pour eux à une vitesse qui est hors de contrôle, d'où l'importance pour les dirigeants de s'ouvrir à de nouvelles formes de gestion et de s'entourer de professionnels spécialisés dans les problématiques de l'individu au travail. La présente étude vise à tracer le portrait de la situation actuelle au Québec concernant la pratique des conseillers d'orientation dans les organisations. Ce document se divise en trois parties. Dans un premier temps, vous prendrez connaissance au chapitre 1 de la problématique dans laquelle vous retrouverez des informations concernant l'historique et l'évolution de la profession de conseiller d'orientation au coeur des transformations du marché du travail. Au chapitre 2, nous abordons la méthodologie utilisée pour la réalisation de cette enquête. Au chapitre 3, nous terminons enfin par l'analyse des résultats et l'interprétation. Cette consultation menée auprès des conseillers pratiquant dans les organisations, à titre soit d'employé, soit de consultant, nous a permis de recueillir plusieurs données concernant leurs caractéristiques, leurs pratiques et leurs besoins. Pour terminer, nous vous faisons part de nos conclusions.
Resumo:
Le contenu de ce mémoire traite du problème de gestion des stocks dans un réseau constitué de plusieurs sites de stockage de produits. Chaque site i gère son stock de manière autonome pour satisfaire une demande déterministe sur un horizon donné. Un stock maximum Si est tenu à chaque site i. Lorsque le point de commande si est atteint, une commande de taille Qi est placée au centre de distribution qui alimente tous les sites. Qi est telle que Qi = Si - si. La quantité Qi est livrée dans un délai connu Li. Si, à un instant donné, la demande Di au site i excède la quantité en main, le site i fait appel à un ou à plusieurs autres sites du réseau pour le transfert d’une quantité Xji (j = 1, 2, …, n). Ce transfert s’effectue selon un certain nombre de règles de jeu qui tiennent compte des coûts de transfert, de stockage, d’approvisionnement et de pénurie. Ce mémoire examine six principales contributions publiées dans la littérature pour évaluer les contributions d’un modèle collaboratif aux performances, en termes de coûts et de niveau de service, de chaque site du réseau. Cette investigation se limite à une configuration du réseau à deux échelons : un entrepôt central et n (n > 2) sites de stockage. Le cas des pièces de rechange, caractérisé par une demande aléatoire, est examiné dans trois chapitres de ce mémoire. Une autre application de ces stratégies à la collaboration entre n centres hospitaliers (n > 2) est également examinée dans ce travail.
Resumo:
De plus en plus de partenaires socio-économiques de l'éducation reconnaissent que les besoins d'orientation sont flagrants, en particulier au niveau secondaire, et que les problèmes conséquents d'une orientation inadéquate engendrent des coûts sociaux aussi élevés que déplorables. Face au décrochage scolaire par exemple, Emploi et Immigration Canada (1990) dans son Projet national d'Incitation à la poursuite des études résume assez bien cette pensée générale en affirmant que: "Le taux actuel d'abandon scolaire entraîne une perte inacceptable de potentiel humain, un coût social élevé et une pénurie importante de travailleurs possédant les compétences nécessaires pour qu'augmentent les revenus de tous les Canadiens" ( E.I.C., 1990, p.7). […]Enfin, c'est la pertinence même de la formation prodiguée au secondaire en regard du projet d'avenir des jeunes qui serait remise en question par quelques-uns et quelques-unes, tel qu'en rend compte l'étude Quand les choix débutent menée par le Ministère de l'Éducation du Québec en 1992 auprès d'élèves de cinquième secondaire: "Un ou une élève sur cinq ne voit pas en quoi lui servira la formation reçue par rapport à ce qu'il veut faire plus tard" (M.E.Q, 1992a, p. 57). Cet état de fait témoigne d'une lacune certaine dans la cohérence du système éducatif dont les objectifs terminaux ne semblent pas se traduire dans le cheminement vocationnel des élèves. On reconnaît donc d'emblée le caractère alarmant des problèmes qui découlent de la crise en orientation. Mais qu'en est-il exactement de la situation actuelle de l'orientation dans les écoles secondaires du Québec?
Resumo:
À travers leurs premiers écrits des années 50 et 60, Frei Otto, architecte et ingénieur allemand (1925-2015), et René Sarger (1917-1988), architecte français, n’expriment pas seulement une passion partagée des toitures suspendues. Partant du même souci d’une forme structurale « juste », leurs convictions radicales révèlent aussi les premiers questionnements des nouveaux rôles de l’ingénieur et de l’architecte de l’époque, mais aussi des idéaux opposés concernant leur position comme concepteurs et auteurs du monde bâti, ainsi que l’importance sociétale de leurs disciplines.
Le financement du pensionnat Sainte-Marie : une institution indépendante et sous-contrôle, 1930-1960
Resumo:
[…] Dans la seconde moitié du XIXe siècle, on voit l'État québécois abdiquer ses responsabilités en matière d'éducation au profit de l'Église catholique. Durant près d'un siècle, l'État se confinera à un rôle marginal alors que l'Église exercera un monopole quasi-absolu sur le système d'éducation. Du côté des filles, les congrégations religieuses féminines se feront le moteur du développement de l'instruction. Dans ce contexte, la question du financement de l'éducation constitue une variable de première importance. En effet, la faiblesse du développement du système scolaire public a suscité une dynamique particulière dans les rapports entre le réseau d'écoles privées massivement développé par les congrégations enseignantes féminines et le réseau d'écoles publiques. Dans son étude de l'Académie Marie-Rose entre 1876 et 1911, Malouin avance que ce sont les revenus générés par l'école privée qui ont permis à des congrégations religieuses d'assurer, à des coûts dérisoires, l'instruction au secteur public. Est-il possible de reprendre cette hypothèse pour les décennies précédant la réforme scolaire des années 1960? C'est ce à quoi on tentera de répondre par l'examen des mécanismes de financement du pensionnat de Yamaskaville et l'analyse des rapports entre l'école privée et l'école publique.
Resumo:
À l'ère actuelle, bon nombre d'entreprises capitalistes et coopératives recourent aux systèmes informatisés pour améliorer leur gestion de l'environnement interne et externe. Ces technologies tellement changeantes, affectent ces entreprises de façon plus ou moins différente. Ce qui nous intéresse dans cette recherche, ce sont les organisations coopératives. L'objet d'une organisation coopérative étant différent de celui d'une entreprise capitaliste, dans le sens que la première recherche la satisfaction des besoins des membres réunis en collectivité et le partage des bénéfices au prorata de l'usage de chaque membre; alors que pour la seconde les bénéfices constituent son but principal et ceux-ci se partagent entre les investisseurs au prorata de leur mise de fonds . Nous allons voir la gestion stratégique de l'organisation coopérative face aux contraintes et aux opportunités occasionnées par l'évolution technologique. Les moyens dont nous disposons pour mettre à terme cette étude étant limités, nous traiterons un cas parmi les types d'organisations coopératives, et nous nous référerons particulièrement aux "caisses populaires Desjardins".
Resumo:
Le béton conventionnel (BC) a de nombreux problèmes tels que la corrosion de l’acier d'armature et les faibles résistances des constructions en béton. Par conséquent, la plupart des structures fabriquées avec du BC exigent une maintenance fréquent. Le béton fibré à ultra-hautes performances (BFUP) peut être conçu pour éliminer certaines des faiblesses caractéristiques du BC. Le BFUP est défini à travers le monde comme un béton ayant des propriétés mécaniques, de ductilité et de durabilité supérieures. Le BFUP classique comprend entre 800 kg/m³ et 1000 kg/m³ de ciment, de 25 à 35% massique (%m) de fumée de silice (FS), de 0 à 40%m de poudre de quartz (PQ) et 110-140%m de sable de quartz (SQ) (les pourcentages massiques sont basés sur la masse totale en ciment des mélanges). Le BFUP contient des fibres d'acier pour améliorer sa ductilité et sa résistance aux efforts de traction. Les quantités importantes de ciment utilisées pour produire un BFUP affectent non seulement les coûts de production et la consommation de ressources naturelles comme le calcaire, l'argile, le charbon et l'énergie électrique, mais affectent également négativement les dommages sur l'environnement en raison de la production substantielle de gaz à effet de serre dont le gas carbonique (CO[indice inférieur 2]). Par ailleurs, la distribution granulométrique du ciment présente des vides microscopiques qui peuvent être remplis avec des matières plus fines telles que la FS. Par contre, une grande quantité de FS est nécessaire pour combler ces vides uniquement avec de la FS (25 à 30%m du ciment) ce qui engendre des coûts élevés puisqu’il s’agit d’une ressource limitée. Aussi, la FS diminue de manière significative l’ouvrabilité des BFUP en raison de sa surface spécifique Blaine élevée. L’utilisation du PQ et du SQ est également coûteuse et consomme des ressources naturelles importantes. D’ailleurs, les PQ et SQ sont considérés comme des obstacles pour l’utilisation des BFUP à grande échelle dans le marché du béton, car ils ne parviennent pas à satisfaire les exigences environnementales. D’ailleurs, un rapport d'Environnement Canada stipule que le quartz provoque des dommages environnementaux immédiats et à long terme en raison de son effet biologique. Le BFUP est généralement vendu sur le marché comme un produit préemballé, ce qui limite les modifications de conception par l'utilisateur. Il est normalement transporté sur de longues distances, contrairement aux composantes des BC. Ceci contribue également à la génération de gaz à effet de serre et conduit à un coût plus élevé du produit final. Par conséquent, il existe le besoin de développer d’autres matériaux disponibles localement ayant des fonctions similaires pour remplacer partiellement ou totalement la fumée de silice, le sable de quartz ou la poudre de quartz, et donc de réduire la teneur en ciment dans BFUP, tout en ayant des propriétés comparables ou meilleures. De grandes quantités de déchets verre ne peuvent pas être recyclées en raison de leur fragilité, de leur couleur, ou des coûts élevés de recyclage. La plupart des déchets de verre vont dans les sites d'enfouissement, ce qui est indésirable puisqu’il s’agit d’un matériau non biodégradable et donc moins respectueux de l'environnement. Au cours des dernières années, des études ont été réalisées afin d’utiliser des déchets de verre comme ajout cimentaire alternatif (ACA) ou comme granulats ultrafins dans le béton, en fonction de la distribution granulométrique et de la composition chimique de ceux-ci. Cette thèse présente un nouveau type de béton écologique à base de déchets de verre à ultra-hautes performances (BEVUP) développé à l'Université de Sherbrooke. Les bétons ont été conçus à l’aide de déchets verre de particules de tailles variées et de l’optimisation granulaire de la des matrices granulaires et cimentaires. Les BEVUP peuvent être conçus avec une quantité réduite de ciment (400 à 800 kg/m³), de FS (50 à 220 kg/m³), de PQ (0 à 400 kg/m³), et de SQ (0-1200 kg/m³), tout en intégrant divers produits de déchets de verre: du sable de verre (SV) (0-1200 kg/m³) ayant un diamètre moyen (d[indice inférieur 50]) de 275 µm, une grande quantité de poudre de verre (PV) (200-700 kg/m³) ayant un d50 de 11 µm, une teneur modérée de poudre de verre fine (PVF) (50-200 kg/m³) avec d[indice inférieur] 50 de 3,8 µm. Le BEVUP contient également des fibres d'acier (pour augmenter la résistance à la traction et améliorer la ductilité), du superplastifiants (10-60 kg/m³) ainsi qu’un rapport eau-liant (E/L) aussi bas que celui de BFUP. Le remplacement du ciment et des particules de FS avec des particules de verre non-absorbantes et lisse améliore la rhéologie des BEVUP. De plus, l’utilisation de la PVF en remplacement de la FS réduit la surface spécifique totale nette d’un mélange de FS et de PVF. Puisque la surface spécifique nette des particules diminue, la quantité d’eau nécessaire pour lubrifier les surfaces des particules est moindre, ce qui permet d’obtenir un affaissement supérieur pour un même E/L. Aussi, l'utilisation de déchets de verre dans le béton abaisse la chaleur cumulative d'hydratation, ce qui contribue à minimiser le retrait de fissuration potentiel. En fonction de la composition des BEVUP et de la température de cure, ce type de béton peut atteindre des résistances à la compression allant de 130 à 230 MPa, des résistances à la flexion supérieures à 20 MPa, des résistances à la traction supérieure à 10 MPa et un module d'élasticité supérieur à 40 GPa. Les performances mécaniques de BEVUP sont améliorées grâce à la réactivité du verre amorphe, à l'optimisation granulométrique et la densification des mélanges. Les produits de déchets de verre dans les BEVUP ont un comportement pouzzolanique et réagissent avec la portlandite générée par l'hydratation du ciment. Cependant, ceci n’est pas le cas avec le sable de quartz ni la poudre de quartz dans le BFUP classique, qui réagissent à la température élevée de 400 °C. L'addition des déchets de verre améliore la densification de l'interface entre les particules. Les particules de déchets de verre ont une grande rigidité, ce qui augmente le module d'élasticité du béton. Le BEVUP a également une très bonne durabilité. Sa porosité capillaire est très faible, et le matériau est extrêmement résistant à la pénétration d’ions chlorure (≈ 8 coulombs). Sa résistance à l'abrasion (indice de pertes volumiques) est inférieure à 1,3. Le BEVUP ne subit pratiquement aucune détérioration aux cycles de gel-dégel, même après 1000 cycles. Après une évaluation des BEVUP en laboratoire, une mise à l'échelle a été réalisée avec un malaxeur de béton industriel et une validation en chantier avec de la construction de deux passerelles. Les propriétés mécaniques supérieures des BEVUP a permis de concevoir les passerelles avec des sections réduites d’environ de 60% par rapport aux sections faites de BC. Le BEVUP offre plusieurs avantages économiques et environnementaux. Il réduit le coût de production et l’empreinte carbone des structures construites de béton fibré à ultra-hautes performances (BFUP) classique, en utilisant des matériaux disponibles localement. Il réduit les émissions de CO[indice inférieur 2] associées à la production de clinkers de ciment (50% de remplacement du ciment) et utilise efficacement les ressources naturelles. De plus, la production de BEVUP permet de réduire les quantités de déchets de verre stockés ou mis en décharge qui causent des problèmes environnementaux et pourrait permettre de sauver des millions de dollars qui pourraient être dépensés dans le traitement de ces déchets. Enfin, il offre une solution alternative aux entreprises de construction dans la production de BFUP à moindre coût.
Resumo:
La violence conjugale est un problème social qui engendre des coûts sérieux (Statistique Canada, 2016). Son traitement est important. Les taux d’abandon thérapeutique observés dans les programmes de traitement en groupe pour les hommes auteurs de comportements violents en contexte conjugal se situent entre 15 et 58 % (Jewell & Wormith, 2010). Ces hauts taux d’abandon réduisent l’efficacité réelle des suivis pour violence conjugale (Bowen & Gilchrist, 2006). Des études montrent que l’âge, l’occupation, le statut conjugal, le faible revenu, l’expérience de violence physique à l’enfance, la consommation de drogue et d’alcool, ainsi que la personnalité colérique et la fréquence des comportements de violence sont des variables qui permettent de prédire l’abandon d’un programme de traitement de la violence conjugale en format de groupe et de type fermé (Jewell & Wormith, 2010). Aucune étude recensée n’a étudié les prédicteurs liés à l’abandon thérapeutique d’un traitement en format individuel de type ouvert. Cette étude visait à identifier quels sont les moments-clés où il y a cessation du suivi pour violence conjugale et à vérifier quelles variables sont associées à une cessation plus ou moins précoce du traitement individuel des hommes auteurs de violence conjugale. Une batterie de questionnaires auto-rapportés a été soumise à 206 hommes francophones qui amorcent une consultation individuelle pour un problème de violence conjugale dans un centre communautaire de la province de Québec. Parmi ceux-ci se trouvaient des questionnaires évaluant l’expérience de la colère, les comportements de violence conjugale, les insécurités d’attachement amoureux et la désirabilité sociable. Le nombre de séances complétées par chaque participant a également été obtenu par le biais de l’organisme. Une première analyse de survie a permis de produire une table de survie et d’identifier trois moments où la cessation du suivi est la plus fréquente, soient une cessation précoce (1 ou 2 séances), une cessation à court terme (3 à 5 séances) et une cessation à moyen terme (après la 11e séance). L’analyse de survie par régression de Cox a ensuite permis de montrer que l’âge, le fait d’avoir complété ou non des études post-secondaires, le fait d’avoir une occupation stable (emploi ou études à temps plein) ou non, le fait de consulter sous ordonnance légale, le niveau de violence psychologique émise, ainsi que les insécurités d’attachement (évitement de l’intimité, anxiété d’abandon) sont tous des prédicteurs significatifs du moment de cessation d’un suivi individuel de type ouvert pour violence conjugale. Plus précisément, les participants qui n’ont pas complété d’études post-secondaires, qui sont sans occupation stable, qui consultent sous ordonnance de la Cour ou de la DPJ et qui présentent peu d’évitement de l’intimité ont davantage tendance à cesser leur suivi de façon précoce; les participants qui ont complété des études post-secondaires et qui présentent peu d’anxiété d’abandon ont davantage tendance à cesser leur suivi à court terme; les clients qui posent moins d’actes de violence psychologique ont davantage tendance à mettre fin à leur suivi à moyen terme. Les implications cliniques de ces résultats sont discutées
Resumo:
La vérification de la résistance aux attaques des implémentations embarquées des vérifieurs de code intermédiaire Java Card est une tâche complexe. Les méthodes actuelles n'étant pas suffisamment efficaces, seule la génération de tests manuelle est possible. Pour automatiser ce processus, nous proposons une méthode appelée VTG (Vulnerability Test Generation, génération de tests de vulnérabilité). En se basant sur une représentation formelle des comportements fonctionnels du système sous test, un ensemble de tests d'intrusions est généré. Cette méthode s'inspire des techniques de mutation et de test à base de modèle. Dans un premier temps, le modèle est muté selon des règles que nous avons définies afin de représenter les potentielles attaques. Les tests sont ensuite extraits à partir des modèles mutants. Deux modèles Event-B ont été proposés. Le premier représente les contraintes structurelles des fichiers d'application Java Card. Le VTG permet en quelques secondes de générer des centaines de tests abstraits. Le second modèle est composé de 66 événements permettant de représenter 61 instructions Java Card. La mutation est effectuée en quelques secondes. L'extraction des tests permet de générer 223 tests en 45 min. Chaque test permet de vérifier une précondition ou une combinaison de préconditions d'une instruction. Cette méthode nous a permis de tester différents mécanismes d'implémentations de vérifieur de code intermédiaire Java Card. Bien que développée pour notre cas d'étude, la méthode proposée est générique et a été appliquée à d'autres cas d'études.
Resumo:
Ce congrès était organisé conjointement par les deux grandes associations de développement de l'aquaculture dans le monde: la World Aquaculture Society (WAS, 2300 membres) et la European Aquaculture Society (EAS, 550 membres). Le précédent s'était tenu à Nice, en mai 2000. Il a rassemblé pendant 5 jours plus de 3000 chercheurs et responsables institutionnels de 95 nationalités. Environ 600 communications orales étaient réparties sur 67 sessions suivant un système de 11 salles en parallèle. Entre les salles de conférence étaient présentés les panneaux des 460 posters. Sur le site, l'exposition commerciale accueillait 135 entreprises et organismes; elle a reçu la visite d'environ 2000 visiteurs dont la moitié d'Italiens (source: EAS). Le thème général du congrès était le lien entre la tradition et la technologie. L'objectif était de montrer que les technologies, dont l'image est ambivalente, constituent un outil remarquable de développement de l'aquaculture, y compris en tenant compte des contraintes de durabilité. En effet, les attentes du citoyen, comme du consommateur, restent centrées autour des notions de qualité, sécurité alimentaire, bien-être et santé animale. Les travaux portaient sur les disciplines classiques de l'aquaculture (nutrition, physiologie, génétique, etc) et leur relation avec les biotechnologies. Il faut souligner l'émergence de thèmes de plus en plus liés la démonstration que l'aquaculture peut s'intégrer dans détruire (capacité de charge d'un écosystème, animaux échappés, etc) et à la perception de la société (perception du consommateur, aquaculture et société, position des ONG écologistes, etc). L'U.E. était très présente avec 5 représentants et une implication marquée dans de plusieurs sessions. Sous différentes formes, ses représentants ont rappelé la volonté de l'UE de continuer à soutenir l'aquaculture, avec l'objectif de poursuivre le développement de ce secteur (4 % de croissance moyenne par an). L'aquaculture devrait générer 8 à 10 000 emplois nouveaux sur les 15 prochaines années, notamment dans la conchyliculture et la pisciculture marine au large avec comme mot clef l'intégration dans l'environnement, dans le tissu socio-économique côtier et dans l'imaginaire des gens, touristes, consommateurs, élus, etc. Ce congrès à vocation mondiale a attiré des représentants de régions habituellement peu représentées comme le Moyen Orient et la Chine, présente à de nombreuses sessions. Il a été aussi le lieu de multiples réunions satellites impliquant presque toujours des chercheurs français: grands programmes européens en cours comme SeaFood+, ASEM (coop. Europe - Asie) ou Consensus, assemblée générale de l'EAS, groupe de travail de l'UICN, etc. Ce type de réunion confirme l'importance des contacts personnels directs pour 1. Evaluer les grandes tendances mondiales du secteur 2. Etablir des contacts directs avec des chercheurs seniors des grandes équipes de recherche et des décideurs au niveau européen et extra-européen 3. Tester des idées et des projets de collaboration et de partenariat Il constitue un forum exceptionnel de diffusion de connaissances, d'informations et de messages. Il offre un espace de perception et de reconnaissance d'Ifremer par de nombreux acteurs de la communauté de recherche en aquaculture. Grâce à la variété thématique des sessions où des chercheurs d'Ifremer sont actifs, l'institut renforce sa notoriété notamment dans la dimension pluridisciplinaire. Cette capacité d'ensemblier est la qualité la plus demandée dans les conclusions d'ateliers et la plus rare dans les instituts présents. Le congrès révèle bien l'évolution de l'aquaculture mondiale: il y a 10 ans, la production de masse était au Sud et la technologie et les marchés au Nord (USA, Europe, Japon). Aujourd'hui, la progression économique et scientifique rapide des pays du Sud, surtout en Asie, crée des marchés locaux .solvables pour l'aquaculture (Chine, Inde) et fait émerger une capacité de recherche « de masse». Cette situation exige que la recherche occidentale évolue pour rester compétitive. Pour préserver un secteur important, qui concourt à la sécurité alimentaire en protéines de manière croissante (4% par an, record de toutes les productions alimentaires), la recherche européenne en aquaculture doit maintenir son effort afin de garder une longueur d'avance, surtout dans les secteurs qui seront vitaux dans la décennie: relations avec l'environnement naturel (durabilité dont la maîtrise des coûts énergétiques), qualité des produits, sécurité alimentaire, intégration socio-économique dans des espaces de plus en plus convoités, maîtrise de l'image de l'espèce « cultivée» (industrielle mais contrôlée) par rapport à l'image de l'espèce « sauvage» (naturelle mais polluée et surexploitée). En conséquence, l'UE conserve tout son potentiel de développement car l'essentiel de la valeur ajoutée sera de moins en moins dans la production en quantité mais dans sa maîtrise de la qualité. Cette évolution donne toute sa valeur à la recherche menée par Ifremer et ce d'autant plus que l'institut sera capable d'anticiper les besoins et les attentes des entreprises, des consommateurs, des associations comme des organisations internationales. Dans cette vision, réactivité, capacité d'ensemblier et réflexion prospective sont les qualités à développer pour que l'lfremer puisse donner toute sa mesure notamment dans la recherche en aquaculture. Ces enjeux sont à l'échelle internationale et Ifremer fait partie du petit nombre d'instituts capables de les traiter en large partenariat, en accord complet avec la politique souhaitée par l'UE
Resumo:
Cette thèse se compose de trois articles sur les politiques budgétaires et monétaires optimales. Dans le premier article, J'étudie la détermination conjointe de la politique budgétaire et monétaire optimale dans un cadre néo-keynésien avec les marchés du travail frictionnels, de la monnaie et avec distortion des taux d'imposition du revenu du travail. Dans le premier article, je trouve que lorsque le pouvoir de négociation des travailleurs est faible, la politique Ramsey-optimale appelle à un taux optimal d'inflation annuel significativement plus élevé, au-delà de 9.5%, qui est aussi très volatile, au-delà de 7.4%. Le gouvernement Ramsey utilise l'inflation pour induire des fluctuations efficaces dans les marchés du travail, malgré le fait que l'évolution des prix est coûteuse et malgré la présence de la fiscalité du travail variant dans le temps. Les résultats quantitatifs montrent clairement que le planificateur s'appuie plus fortement sur l'inflation, pas sur l'impôts, pour lisser les distorsions dans l'économie au cours du cycle économique. En effet, il ya un compromis tout à fait clair entre le taux optimal de l'inflation et sa volatilité et le taux d'impôt sur le revenu optimal et sa variabilité. Le plus faible est le degré de rigidité des prix, le plus élevé sont le taux d'inflation optimal et la volatilité de l'inflation et le plus faible sont le taux d'impôt optimal sur le revenu et la volatilité de l'impôt sur le revenu. Pour dix fois plus petit degré de rigidité des prix, le taux d'inflation optimal et sa volatilité augmentent remarquablement, plus de 58% et 10%, respectivement, et le taux d'impôt optimal sur le revenu et sa volatilité déclinent de façon spectaculaire. Ces résultats sont d'une grande importance étant donné que dans les modèles frictionnels du marché du travail sans politique budgétaire et monnaie, ou dans les Nouveaux cadres keynésien même avec un riche éventail de rigidités réelles et nominales et un minuscule degré de rigidité des prix, la stabilité des prix semble être l'objectif central de la politique monétaire optimale. En l'absence de politique budgétaire et la demande de monnaie, le taux d'inflation optimal tombe très proche de zéro, avec une volatilité environ 97 pour cent moins, compatible avec la littérature. Dans le deuxième article, je montre comment les résultats quantitatifs impliquent que le pouvoir de négociation des travailleurs et les coûts de l'aide sociale de règles monétaires sont liées négativement. Autrement dit, le plus faible est le pouvoir de négociation des travailleurs, le plus grand sont les coûts sociaux des règles de politique monétaire. Toutefois, dans un contraste saisissant par rapport à la littérature, les règles qui régissent à la production et à l'étroitesse du marché du travail entraînent des coûts de bien-être considérablement plus faible que la règle de ciblage de l'inflation. C'est en particulier le cas pour la règle qui répond à l'étroitesse du marché du travail. Les coûts de l'aide sociale aussi baisse remarquablement en augmentant la taille du coefficient de production dans les règles monétaires. Mes résultats indiquent qu'en augmentant le pouvoir de négociation du travailleur au niveau Hosios ou plus, les coûts de l'aide sociale des trois règles monétaires diminuent significativement et la réponse à la production ou à la étroitesse du marché du travail n'entraîne plus une baisse des coûts de bien-être moindre que la règle de ciblage de l'inflation, qui est en ligne avec la littérature existante. Dans le troisième article, je montre d'abord que la règle Friedman dans un modèle monétaire avec une contrainte de type cash-in-advance pour les entreprises n’est pas optimale lorsque le gouvernement pour financer ses dépenses a accès à des taxes à distorsion sur la consommation. Je soutiens donc que, la règle Friedman en présence de ces taxes à distorsion est optimale si nous supposons un modèle avec travaie raw-efficace où seule le travaie raw est soumis à la contrainte de type cash-in-advance et la fonction d'utilité est homothétique dans deux types de main-d'oeuvre et séparable dans la consommation. Lorsque la fonction de production présente des rendements constants à l'échelle, contrairement au modèle des produits de trésorerie de crédit que les prix de ces deux produits sont les mêmes, la règle Friedman est optimal même lorsque les taux de salaire sont différents. Si la fonction de production des rendements d'échelle croissant ou decroissant, pour avoir l'optimalité de la règle Friedman, les taux de salaire doivent être égales.
Resumo:
L’insuffisance cardiaque (IC) est un problème d’importance grandissante lié à des perturbations des systèmes nerveux autonome, immunitaire, et cardiovasculaire. Ces perturbations contribuent à plusieurs symptômes physiques et psychologiques invalidants. La recherche faite jusqu’ici sur des programmes d’exercice basés sur le yoga a démontré des résultats préliminaires assez prometteurs en IC. Néanmoins, il reste des lacunes à combler dans la littérature face aux populations testées, à la combinaison des mesures physiques et psychologiques, au suivi du traitement à la maison et à la perception des symptômes au quotidien. Ce projet pilote a donc pour objectif de développer un programme d’exercice complémentaire basé sur le yoga adapté aux patients souffrant d’IC, d’en mesurer la faisabilité et l’acceptabilité en plus d’obtenir des données préliminaires quant à l’impact de cette intervention à réduire la symptomatologie physique et psychologique et d’améliorer la qualité de vie (QV) de ces patients. Les deux premiers participants recrutés dans le cadre de l’étude pilote font l’objet de ce mémoire. Ils ont pris part à huit séances hebdomadaires de yoga Bali, couplé de psychoéducation et méditation tous données à l’Institut de Cardiologie de Montréal par une instructrice certifiée dans la méthode BALI. L’élaboration des outils nécessaires au déroulement du programme, y compris le manuel d’enseignement et le DVD, la faisabilité d’une collaboration avec le personnel médical et évidement l’évaluation des effets du programme en soit sur les symptômes physiques et psychologique s sont parmi les sujets abordés. Les résultats, quoique préliminaires, semblent tendre vers une amélioration des corrélats physiologiques liés à l’insuffisance cardiaque, notamment l’activité du système nerveux autonome tel que témoigné par la variabilité de la fréquence cardiaque, et l’inflammation indiqué par le niveau de CRP sanguin.
Resumo:
Le partage des données de façon confidentielle préoccupe un bon nombre d’acteurs, peu importe le domaine. La recherche évolue rapidement, mais le manque de solutions adaptées à la réalité d’une entreprise freine l’adoption de bonnes pratiques d’affaires quant à la protection des renseignements sensibles. Nous proposons dans ce mémoire une solution modulaire, évolutive et complète nommée PEPS, paramétrée pour une utilisation dans le domaine de l’assurance. Nous évaluons le cycle entier d’un partage confidentiel, de la gestion des données à la divulgation, en passant par la gestion des forces externes et l’anonymisation. PEPS se démarque du fait qu’il utilise la contextualisation du problème rencontré et l’information propre au domaine afin de s’ajuster et de maximiser l’utilisation de l’ensemble anonymisé. À cette fin, nous présentons un algorithme d’anonymat fortement contextualisé ainsi que des mesures de performances ajustées aux analyses d’expérience.