991 resultados para Analyse coût-bénéfice


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Ce mémoire évalue l’efficacité de Housing First (HF) sur la stabilité résidentielle de personnes itinérantes ayant des troubles mentaux et son rapport coût-efficacité différentiel (RCED) sous une perspective sociétale. Une étude à répartition aléatoire (n=469) comparant HF avec les services usuels (SU) a été réalisée à Montréal, Canada. Des questionnaires ont été distribués à intervalles de 3- et 6- mois pendant 24 mois. Le temps passé en logement stable est passé de 6,44% à 62,21% pour les HF ayant des besoins élevés vs. 6,64% à 23,34% chez leurs homologues SU. Les pourcentages correspondants des participants ayant des besoins modérés sont de 12,13% à 79,58% pour HF vs. 6,45% à 34,01% pour SU. Le coût total des participants ayant des besoins élevés est de 73 301$/an pour HF vs. 64 715$/an pour SU (RCED=49,85$/jour); celui des participants ayant des besoins modérés est de 47 746$/an pour HF vs. 46 437$/an pour SU (RCED=3,65$/jour). Les diminutions de coûts associées à HF ont compensé une partie importante des coûts de l’intervention.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’objectif de cette étude est de réaliser une analyse comparative de la pauvreté et de la structure de consommation des ménages des capitales des Etats membres de l’Union Economique et Monétaire Ouest Africaine (UEMOA) à partir des données des enquêtes dépenses des ménages (EDM) réalisées en 2008 dans ces agglomérations. En s’appuyant sur l’approche monétaire de la pauvreté mise en oeuvre par la méthode du coût des besoins essentiels, il ressort que plus d’un ménage sur 10, soit 10,5% de l’ensemble de la population étudiée vit sous le seuil de pauvreté estimé à 277450 F CFA de dépenses annuelles par unité de consommation. Le test de dominance stochastique de 1er ordre confirme que l’ampleur du phénomène est en moyenne plus importante dans les villes sahéliennes (Bamako, Niamey, Ouagadougou) que dans les grandes villes côtières (Abidjan, Dakar, Lomé). Par ailleurs, l’analyse économétrique révèle que la taille du ménage et le capital humain du chef de ménage sont des déterminants importants du niveau de vie monétaire des ménages. En effet, tandis que le risque de pauvreté est plus élevé chez les ménages de grande taille, le niveau de vie d’un ménage est d’autant plus élevé que le niveau d’instruction du chef est important. En outre, on observe que dans les agglomérations où le taux de pauvreté est le plus élevé, les ménages accordent un poids plus élevé aux dépenses alimentaires. Enfin, l’estimation des élasticités dépenses totales de la demande à l’aide d’une régression linéaire suggère qu’en moyenne, les besoins de consommation insatisfaits par les ménages portent sur les services (les transports, la communication, la santé, l’éducation et les loisirs).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Inclut la bibliographie

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette étude examine l'effet de la révision du chapitre 3480 du Manuel de l'I.C.C.A. relatif aux éléments extraordinaires sur la valeur prédictive du bénéfice avant éléments extraordinaires. Le choix du critère de la valeur prédictive repose sur le fait que l'I.C.C.A. reconnaît qu'il s'agit ici d'une caractéristique essentielle à l'obtention d'une information comptable utile. Ainsi, le resserrement de la définition des éléments extraordinaires par l'ajout d'un troisième critère a contribué à une réduction du nombre de ces éléments dans les états financiers des entreprises canadiennes. En effet, la description de l'échantillon a montré que plusieurs catégories d'éléments extraordinaires considérées avant la révision de la norme canadienne dans la partie non courante de l'état des résultats sont déplacées, par l'effet de la révision, à la partie courante de cet état. L'examen des éléments inhabituels après la révision a permis de retrouver la majorité des éléments qui auraient pus être qualifiés d'extraordinaires si on avait appliqué l'ancienne définition. Les éléments qui ne satisfont pas les trois critères sont, en fait, considérés dans le calcul du bénéfice mais sont maintenant présentés dans la partie courante de l'état des résultats. Le bénéfice avant éléments extraordinaires incluera dorénavant un plus grand nombre d'éléments non récurrents. Par conséquent, il est possible que l'ajout du troisième critère à la définition des éléments extraordinaires entraine une diminution de la valeur prédictive du bénéfice avant éléments extraordinaires. La période d'analyse s'étale sur les six années qui entourent la révision, soit trois ans avant la révision (1987, 1988 et 1989) et trois ans après la révision (1990, 1991 et 1992). Le modèle auto régressif de premier ordre a été retenu pour la prédiction des bénéfices par action avant éléments extraordinaires de chaque période. Les résultats obtenus suggèrent que la valeur prédictive du bénéfice par action avant éléments extraordinaires a diminué à la suite de la révision du chapitre 3480 du Manuel. Il ressort de cette étude que les débats sur la manière dont les éléments extraordinaires devraient être définis et présentés dans les états des résultats des entreprises canadiennes ne sont pas résolus par cette révision.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L'analyse de la situation financière de l'entreprise sert à la prise de décision pour les parties intéressées à l'intérieur de l'entreprise, soit le gestionnaire et parfois le propriétaire et les autres qui se trouvent à l'extérieur, tels l'investisseur, le ministère du revenu, le banquier et le consultant. Dépendamment de l'utilisateur, l'information disponible n'est pas la même. L'investisseur, le banquier et le ministère du revenu doivent analyser l'entreprise à partir des données comptables publiées. Mais, les états financiers cachent parfois certaines réalités, tel un exercice financier ne représentant pas la saisonnalité des activités. De même les stocks de fin d'exercice ne représentent pas nécessairement le niveau du stock moyen. Les échéances de paiement surviennent peut-être au début plutôt qu'uniformément au cours de l'exercice. La signature de contrats importants pourra avoir des répercussions qu'au cours de l'exercice suivant. L'information interne seule peut répondre à ces questions. De plus, le résultat net publié dans les états financiers renferme certaines lacunes dont l'analyste doit tenir compte : 1- L'amortissement et l'évaluation des comptes-clients comportent une bonne part de subjectivité; 2- L'existence de plusieurs méthodes d'évaluation des stocks amène des problèmes de comparabilité, surtout lorsque ces postes ont une relative importance; 3- La dépréciation monétaire non prise en compte dans les états financiers diminue la comparabilité d'un exercice à l'autre et n'assure pas la préservation du patrimoine. Ainsi, les dividendes peuvent être versés au-delà de ce qu'il serait prudent de verser pour assurer la capacité de fonctionnement; 4- En période de prospérité, l'entreprise tentera de minimiser son bénéfice comptable afin de diminuer sa charge fiscale alors qu'en période de déficit, elle tentera de maximiser son bénéfice comptable pour rassurer les propriétaires et les prêteurs; 5- L'inflation accentue les difficultés de comparaison. Il faudra donc tenir compte de l'inflation pour apprécier l'évolution réelle du résultat; 6- La comparaison avec plusieurs entreprises est quelque peu biaisée dû au choix des pratiques comptables exercées sur plusieurs postes. Les critères de comparaison devront donc être le moins possible dépendants de choix de pratiques comptables. Malgré l'existence de ces déformations comptables, les états financiers demeurent une source importante d'informations. Mais les forces et les faiblesses de l'entreprise s'en trouvent plus ou moins cachées. Comme le gestionnaire et le consultant ont accès aux données non publiées par l'entreprise, les résultats des activités et les données sur la qualité de la gestion interne peuvent donc être plus détaillés, et plus proches de la réalité. L'information publique, ne permet que de détecter les grandes lignes de la situation financière de l'entreprise. Les ouvrages en finance ne traitent que très peu de ces facteurs internes et du lien entre l'information interne et l'information externe. Le but de notre étude a été de créer un modèle de diagnostic de la situation financière, dans un premier temps, issu de la théorie et reposant sur les données externes et internes à l'entreprise. Dans un deuxième temps, nous avons construit un modèle plus complet qui tienne compte des interrelations des postes des états financiers et de l'interprétation faite par les praticiens, et dont la théorie ne fait pas état. L'intégration des connaissances des praticiens au modèle théorique initial et l'utilisation des données internes à l'entreprise, devraient permettre de porter un diagnostic plus éclairé de la situation financière de l'entreprise.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les applications de réfrigération sont aujourd’hui majoritairement réalisées par des machines à compression alimentées en électricité. Animées à partir d’une source chaude, l’utilisation de machines à absorption permet d’utiliser très peu d’électricité comparée à une machine à compression et d’utiliser des réfrigérants écologiques. Le faible coefficient de performance et le coût élevé de ces machines est compensé par l’utilisation de rejets thermiques industriels destinés à être rejeté dans l’environnement et donc considérés comme gratuits. Le but de cette étude est de modéliser une machine à absorption hybride, utilisant le couple de fluide eau et ammoniac, en y ajoutant un compresseur ou booster dans la zone haute pression du circuit et d’évaluer ses performances. Cette modification crée une pression intermédiaire au désorbeur permettant de diminuer la température des rejets thermiques exploitables. Une température de rejets réutilisable de 50°C, contre 80°C actuellement, ouvrirait alors la voie à de nouvelles sources communes d’énergie. Le logiciel ASPEN Plus de simulation des procédés a été choisi afin de modéliser en régime permanent le système. Le modèle est en partie validé par l’étude expérimentale d’une machine à absorption commerciale de 10kW pour des applications de climatisation. Cette machine est située au Laboratoire des Technologies de l’Énergie d’Hydro-Québec. Ensuite, une étude de design permet de montrer, à puissance de réfrigération constante, les impacts bénéfiques de la technologie hybride sur le rendement exergétique, mais également sur la taille globale des échangeurs nécessaires. La technologie hybride est alors analysée économiquement face à une machine à absorption chauffée au gaz pour montrer sa rentabilité.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Des techniques adaptées aux contextes routiers sont nécessaires pour maintenir et réhabiliter des chaussées construites sur pergélisol ou en contexte de gel saisonnier. Plusieurs problématiques peuvent engendrer une augmentation des coûts de réparation et entretien, une diminution de la durée de vie des chaussées et des problèmes reliés à la sécurité des usagers de la route. L’objectif du projet consiste donc à élaborer un outil d’aide à la décision, qui contribuerait à localiser les zones sensibles au gel saisonnier et à la dégradation du pergélisol, à discerner les causes de dégradation des chaussées dues au gel saisonnier et à sélectionner les meilleures stratégies d’atténuation et de réfection à moindre coût. Le projet de recherche est divisé en deux volets distincts. Le premier volet traite des problématiques de gel de chaussées en contexte de gel saisonnier. Actuellement, il existe des méthodes de diagnostic qui permettent de détecter les endroits où un problème de gélivité est susceptible d’être présent. Par contre, ces méthodes ne permettent pas de discerner si le problème de gel est en profondeur ou en surface de la chaussée; en d’autres mots si le problème est lié à un soulèvement différentiel du sol ou à un soulèvement de fissures. De plus, les méthodes utilisées ne sont pas adaptées aux chaussées en contexte municipal. Selon les problématiques connues de certains sites, il a été possible de développer un abaque permettant de différencier si la problématique de gel se situe en surface ou en profondeur dans une chaussée. Puis, une analyse d’imagerie 3D a été réalisée pour complémenter l’abaque créé. À l’aide de cette technologie, une nouvelle méthode sera mise au point pour détecter des problématiques de gel grâce aux profils transversaux. Le deuxième volet porte sur les chaussées construites sur pergélisol. Les méthodes actuelles de détection de la dégradation du pergélisol sous les chaussées manquent de précision et ont besoin d’être raffinées, surtout dans le contexte actuel de réchauffement climatique. Pour ce faire, trois sites d’essais ont été étudiés sur l’Alaska Highway au Yukon. En fonction de différentes analyses telles que des analyses de profils longitudinaux, de la densité spectrale et de longueurs d’onde, des tendances ont été décelées pour caractériser l’instabilité du pergélisol.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This is an important book that ought to launch a debate about how we research our understanding of the world, it is an innovative intervention in a vital public issue, and it is an elegant and scholarly hard look at what is actually happening. Jean Seaton, Prof of Media History, U of Westminster, UK & Official Historian of the BBC -- Summary: This book investigates the question of how comparative studies of international TV news (here: on violence presentation) can best be conceptualized in a way that allows for crossnational, comparative conclusions on an empirically validated basis. This book shows that such a conceptualization is necessary in order to overcome existing restrictions in the comparability of international analysis on violence presentation. Investigated examples include the most watched news bulletins in Great Britain (10o'clock news on the BBC), Germany (Tagesschau on ARD) and Russia (Vremja on Channel 1). This book highlights a substantial cross-national violence news flow as well as a cross-national visual violence flow (key visuals) as distinct transnational components. In addition, event-related textual analysis reveals how the historical rootedness of nations and its symbols of power are still manifested in televisual mediations of violence. In conclusion, this study lobbies for a conscientious use of comparative data/analysis both in journalism research and practice in order to understand what it may convey in the different arenas of today’s newsmaking.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This paper deals with the analysis of the parameters which are effective in shaft voltage generation of induction generators. It focuses on different parasitic capacitive couplings by mathematical equations, finite element simulations and experiments. The effects of different design parameters have been studied on proposed capacitances and resultant shaft voltage. Some parameters can change proposed capacitive coupling such as: stator slot tooth, the gap between slot tooth and winding, and the height of the slot tooth, as well as the air gap between the rotor and the stator. This analysis can be used in a primary stage of a generator design to reduce motor shaft voltage and avoid additional costs of resultant bearing current mitigation.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Monitoring Internet traffic is critical in order to acquire a good understanding of threats to computer and network security and in designing efficient computer security systems. Researchers and network administrators have applied several approaches to monitoring traffic for malicious content. These techniques include monitoring network components, aggregating IDS alerts, and monitoring unused IP address spaces. Another method for monitoring and analyzing malicious traffic, which has been widely tried and accepted, is the use of honeypots. Honeypots are very valuable security resources for gathering artefacts associated with a variety of Internet attack activities. As honeypots run no production services, any contact with them is considered potentially malicious or suspicious by definition. This unique characteristic of the honeypot reduces the amount of collected traffic and makes it a more valuable source of information than other existing techniques. Currently, there is insufficient research in the honeypot data analysis field. To date, most of the work on honeypots has been devoted to the design of new honeypots or optimizing the current ones. Approaches for analyzing data collected from honeypots, especially low-interaction honeypots, are presently immature, while analysis techniques are manual and focus mainly on identifying existing attacks. This research addresses the need for developing more advanced techniques for analyzing Internet traffic data collected from low-interaction honeypots. We believe that characterizing honeypot traffic will improve the security of networks and, if the honeypot data is handled in time, give early signs of new vulnerabilities or breakouts of new automated malicious codes, such as worms. The outcomes of this research include: • Identification of repeated use of attack tools and attack processes through grouping activities that exhibit similar packet inter-arrival time distributions using the cliquing algorithm; • Application of principal component analysis to detect the structure of attackers’ activities present in low-interaction honeypots and to visualize attackers’ behaviors; • Detection of new attacks in low-interaction honeypot traffic through the use of the principal component’s residual space and the square prediction error statistic; • Real-time detection of new attacks using recursive principal component analysis; • A proof of concept implementation for honeypot traffic analysis and real time monitoring.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Prostate cancer metastasis is reliant on the reciprocal interactions between cancer cells and the bone niche/micro-environment. The production of suitable matrices to study metastasis, carcinogenesis and in particular prostate cancer/bone micro-environment interaction has been limited to specific protein matrices or matrix secreted by immortalised cell lines that may have undergone transformation processes altering signaling pathways and modifying gene or receptor expression. We hypothesize that matrices produced by primary human osteoblasts are a suitable means to develop an in vitro model system for bone metastasis research mimicking in vivo conditions. We have used a decellularized matrix secreted from primary human osteoblasts as a model for prostate cancer function in the bone micro-environment. We show that this collagen I rich matrix is of fibrillar appearance, highly mineralized, and contains proteins, such as osteocalcin, osteonectin and osteopontin, and growth factors characteristic of bone extracellular matrix (ECM). LNCaP and PC3 cells grown on this matrix, adhere strongly, proliferate, and express markers consistent with a loss of epithelial phenotype. Moreover, growth of these cells on the matrix is accompanied by the induction of genes associated with attachment, migration, increased invasive potential, Ca2+ signaling and osteolysis. In summary, we show that growth of prostate cancer cells on matrices produced by primary human osteoblasts mimics key features of prostate cancer bone metastases and thus is a suitable model system to study the tumor/bone micro-environment interaction in this disease.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Concerns regarding groundwater contamination with nitrate and the long-term sustainability of groundwater resources have prompted the development of a multi-layered three dimensional (3D) geological model to characterise the aquifer geometry of the Wairau Plain, Marlborough District, New Zealand. The 3D geological model which consists of eight litho-stratigraphic units has been subsequently used to synthesise hydrogeological and hydrogeochemical data for different aquifers in an approach that aims to demonstrate how integration of water chemistry data within the physical framework of a 3D geological model can help to better understand and conceptualise groundwater systems in complex geological settings. Multivariate statistical techniques(e.g. Principal Component Analysis and Hierarchical Cluster Analysis) were applied to groundwater chemistry data to identify hydrochemical facies which are characteristic of distinct evolutionary pathways and a common hydrologic history of groundwaters. Principal Component Analysis on hydrochemical data demonstrated that natural water-rock interactions, redox potential and human agricultural impact are the key controls of groundwater quality in the Wairau Plain. Hierarchical Cluster Analysis revealed distinct hydrochemical water quality groups in the Wairau Plain groundwater system. Visualisation of the results of the multivariate statistical analyses and distribution of groundwater nitrate concentrations in the context of aquifer lithology highlighted the link between groundwater chemistry and the lithology of host aquifers. The methodology followed in this study can be applied in a variety of hydrogeological settings to synthesise geological, hydrogeological and hydrochemical data and present them in a format readily understood by a wide range of stakeholders. This enables a more efficient communication of the results of scientific studies to the wider community.