835 resultados para common and mixed costs


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Contexte : La fibrillation auriculaire est commune chez les insuffisants cardiaques. L’efficacité des stratégies de contrôle de la fréquence et du rythme s’équivalent. Nous avons comparé l’impact économique des deux stratégies de traitement chez les patients avec fibrillation auriculaire et insuffisance cardiaque. Méthode : Dans cette sous-étude de l’essai Atrial Fibrillation and Congestive Heart Failure, la consommation de soins de santé des patients Québécois ainsi que leurs coûts ont été quantifiés grâce aux banques de données de la Régie de l’assurance-maladie du Québec et de l’Ontario Case Costing Initiative. Résultats : Trois cent quatre patients ont été inclus, âgés de 68±9 ans, fraction d’éjection de 26±6%. Les caractéristiques de base étaient bien réparties entre le contrôle du rythme (N=149) et de la fréquence (N=155). Les patients soumis au contrôle de la fréquence ont eu moins de procédures cardiovasculaires (146 versus 238, P<0.001) en raison du plus faible nombre de cardioversions et de moindres coûts reliés aux antiarythmiques (48 $±203 versus 1319 $±1058 par patient, P<0.001). Ces différences ont été compensées par un surplus de dépenses dues aux hospitalisations non-cardiovasculaires, aux dispositifs cardiaques implantables et aux médicaments non-cardiovasculaires dans le groupe du contrôle de la fréquence. Au total, les coûts par patient avec les stratégies du contrôle de la fréquence et du rythme s’élèvent à 78 767 $±79 568 et 72 764 $±72 800 (P=0.49). Interprétation : Chez les patients avec fibrillation auriculaire et insuffisance cardiaque, le contrôle de la fréquence est associé avec moins de procédures cardiovasculaires et une pharmacothérapie cardiovasculaire moins coûteuse. Toutefois, les coûts associés aux arythmies représentent moins de la moitié des dépenses de santé et le total des coûts s’équilibre entre les 2 stratégies.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Introduction: Bien que l'importance de transférer les données de la recherche à la pratique a été largement démontrée, ce processus est toujours lent et fait face à plusieurs défis tels que la conceptualisation des évidences, la validité interne et externe de la recherche scientifique et les coûts élevés de la collecte de grandes quantités de données axées sur le patient. Les dossiers dentaires des patients contiennent des renseignements valables qui donneraient aux chercheurs cliniques une opportunité d'utiliser un large éventail d'informations quantitatives ou qualitatives. La standardisation du dossier clinique permettrait d’échanger et de réutiliser des données dans différents domaines de recherche. Objectifs: Le but de cette étude était de concevoir un dossier patient axé sur la recherche dans le domaine de la prosthodontie amovible à la clinique de premier cycle de l’Université de Montréal. Méthodes: Cette étude a utilisé des méthodes de recherche-action avec 4 étapes séquentielles : l'identification des problèmes, la collecte et l'interprétation des données, la planification et l’évaluation de l'action. Les participants de l'étude (n=14) incluaient des professeurs, des chercheurs cliniques et des instructeurs cliniques dans le domaine de la prosthodontie amovible. La collecte des données a été menée à l’aide d’une revue de littérature ciblée et complète sur les résultats en prosthodontie ainsi que par le biais de discussions de groupes et d’entrevues. Les données qualitatives ont été analysées en utilisant QDA Miner 3.2.3. Résultats: Les participants de l'étude ont soulevé plusieurs points absents au formulaire actuel de prosthodontie à la clinique de premier cycle. Ils ont partagé leurs idées pour la conception d'un nouveau dossier-patient basé sur 3 objectifs principaux: les objectifs cliniques, éducatifs et de recherche. Les principaux sujets d’intérêt en prosthodontie amovibles, les instruments appropriés ainsi que les paramètres cliniques ont été sélectionnés par le groupe de recherche. Ces résultats ont été intégrés dans un nouveau formulaire basé sur cette consultation. La pertinence du nouveau formulaire a été évaluée par le même groupe d'experts et les modifications requises ont été effectuées. Les participants de l'étude ont convenu que le cycle de recherche-action doit être poursuivi afin d'évaluer la faisabilité d’implémentation de ce dossier modifié dans un cadre universitaire. Conclusion: Cette étude est une première étape pour développer une base de données dans le domaine de la prothodontie amovible. La recherche-action est une méthode de recherche utile dans ce processus, et les éducateurs académiques sont bien placés pour mener ce type de recherche.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les logiciels sont en constante évolution, nécessitant une maintenance et un développement continus. Ils subissent des changements tout au long de leur vie, que ce soit pendant l'ajout de nouvelles fonctionnalités ou la correction de bogues dans le code. Lorsque ces logiciels évoluent, leurs architectures ont tendance à se dégrader avec le temps et deviennent moins adaptables aux nouvelles spécifications des utilisateurs. Elles deviennent plus complexes et plus difficiles à maintenir. Dans certains cas, les développeurs préfèrent refaire la conception de ces architectures à partir du zéro plutôt que de prolonger la durée de leurs vies, ce qui engendre une augmentation importante des coûts de développement et de maintenance. Par conséquent, les développeurs doivent comprendre les facteurs qui conduisent à la dégradation des architectures, pour prendre des mesures proactives qui facilitent les futurs changements et ralentissent leur dégradation. La dégradation des architectures se produit lorsque des développeurs qui ne comprennent pas la conception originale du logiciel apportent des changements au logiciel. D'une part, faire des changements sans comprendre leurs impacts peut conduire à l'introduction de bogues et à la retraite prématurée du logiciel. D'autre part, les développeurs qui manquent de connaissances et–ou d'expérience dans la résolution d'un problème de conception peuvent introduire des défauts de conception. Ces défauts ont pour conséquence de rendre les logiciels plus difficiles à maintenir et évoluer. Par conséquent, les développeurs ont besoin de mécanismes pour comprendre l'impact d'un changement sur le reste du logiciel et d'outils pour détecter les défauts de conception afin de les corriger. Dans le cadre de cette thèse, nous proposons trois principales contributions. La première contribution concerne l'évaluation de la dégradation des architectures logicielles. Cette évaluation consiste à utiliser une technique d’appariement de diagrammes, tels que les diagrammes de classes, pour identifier les changements structurels entre plusieurs versions d'une architecture logicielle. Cette étape nécessite l'identification des renommages de classes. Par conséquent, la première étape de notre approche consiste à identifier les renommages de classes durant l'évolution de l'architecture logicielle. Ensuite, la deuxième étape consiste à faire l'appariement de plusieurs versions d'une architecture pour identifier ses parties stables et celles qui sont en dégradation. Nous proposons des algorithmes de bit-vecteur et de clustering pour analyser la correspondance entre plusieurs versions d'une architecture. La troisième étape consiste à mesurer la dégradation de l'architecture durant l'évolution du logiciel. Nous proposons un ensemble de m´etriques sur les parties stables du logiciel, pour évaluer cette dégradation. La deuxième contribution est liée à l'analyse de l'impact des changements dans un logiciel. Dans ce contexte, nous présentons une nouvelle métaphore inspirée de la séismologie pour identifier l'impact des changements. Notre approche considère un changement à une classe comme un tremblement de terre qui se propage dans le logiciel à travers une longue chaîne de classes intermédiaires. Notre approche combine l'analyse de dépendances structurelles des classes et l'analyse de leur historique (les relations de co-changement) afin de mesurer l'ampleur de la propagation du changement dans le logiciel, i.e., comment un changement se propage à partir de la classe modifiée è d'autres classes du logiciel. La troisième contribution concerne la détection des défauts de conception. Nous proposons une métaphore inspirée du système immunitaire naturel. Comme toute créature vivante, la conception de systèmes est exposée aux maladies, qui sont des défauts de conception. Les approches de détection sont des mécanismes de défense pour les conception des systèmes. Un système immunitaire naturel peut détecter des pathogènes similaires avec une bonne précision. Cette bonne précision a inspiré une famille d'algorithmes de classification, appelés systèmes immunitaires artificiels (AIS), que nous utilisions pour détecter les défauts de conception. Les différentes contributions ont été évaluées sur des logiciels libres orientés objets et les résultats obtenus nous permettent de formuler les conclusions suivantes: • Les métriques Tunnel Triplets Metric (TTM) et Common Triplets Metric (CTM), fournissent aux développeurs de bons indices sur la dégradation de l'architecture. La d´ecroissance de TTM indique que la conception originale de l'architecture s’est dégradée. La stabilité de TTM indique la stabilité de la conception originale, ce qui signifie que le système est adapté aux nouvelles spécifications des utilisateurs. • La séismologie est une métaphore intéressante pour l'analyse de l'impact des changements. En effet, les changements se propagent dans les systèmes comme les tremblements de terre. L'impact d'un changement est plus important autour de la classe qui change et diminue progressivement avec la distance à cette classe. Notre approche aide les développeurs à identifier l'impact d'un changement. • Le système immunitaire est une métaphore intéressante pour la détection des défauts de conception. Les résultats des expériences ont montré que la précision et le rappel de notre approche sont comparables ou supérieurs à ceux des approches existantes.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Étude de cas / Case study

Relevância:

100.00% 100.00%

Publicador:

Resumo:

"Herbert Burket trace l’évolution des concepts reliés au ""droit de l’Internet"" dans le cadre du droit de l’Union Européenne. Initialement, ce domaine du droit était perçu comme une nouvelle discipline normative. Or, l’auteur soutient que le ""droit de l’Internet"" n’est pas un domaine normatif distinct, mais correspond aux domaines traditionnels auxquels il a été progressivement intégré. Le ""droit de l’Internet"" a amélioré notre compréhension du processus général d’évolution du droit. L’auteur souligne, entre autres, comment le législateur européen a réagi par diverses législations aux nouveaux impératifs technologiques. De plus, ce domaine offre une nouvelle perspective pour l’analyse de l’évolution des normes face aux innovations technologiques. Les tribunaux, les législateurs et les parties privées sont autant d’acteurs qui interviennent à différents moments et sur différents aspects du processus d’évolution du droit. Enfin, on s’attendait à ce que le droit de l’Internet conduise à la mondialisation des normes, à l’autorégulation des acteurs et à une architecture structurelle normative ouverte. L’auteur constate que la mondialisation des normes ne semble pas s’être réalisée. L’autorégulation, dans le domaine de l’Internet, fait référence aux normes de comportement établies par des acteurs privés et mixtes. Enfin, le concept d’architecture structurelle normative réfère au fait que les créateurs d’un système technologique imposent involontairement certaines règles aux utilisateurs, en dépit de l’affirmation qu’un tel système technologique est normativement neutre. L’auteur soutient que ces attentes, bien qu’elles soient toujours présentes au sein de l’activité normative, n’ont plus la même signification qu’au moment de leur formulation originale. Les concepts traditionnels de période normative, de juridiction, d’acteurs et de procédure ont aussi évolué parallèlement au développement du ""droit de l’Internet"", autant dans le cadre de l’environnement normatif de l’Union Européenne que dans celui du droit international en général. L’évolution de ces concepts modifie le processus de création du droit, ainsi que le rôle et les fonctions des intervenants impliqués dans ce processus.L’auteur conclut en soulignant que le concept même de droit a évolué en perdant ses représentations symboliques traditionnelles grâce au développement de l’accès généralisé à l’information, à l’évolution des technologies de l’information et à leur impact culturel."

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ce projet de recherche revisite la conceptualisation du logement et des ressources résidentielles pour les adultes avec un trouble mental. Les objectifs visent : (1) à identifier les attributs, dimensions et domaines ; (2) à développer un nouveau modèle ; (3) à concevoir un instrument de mesure pour décrire l’éventail des ressources résidentielles en santé mentale. Méthodologie : Phase 1: Le devis de recherche s’articule autour de la cartographie de concepts, caractérisée par une méthodologie mixte. L’échantillonnage, par choix raisonné, a permis de recueillir une pluralité de perceptions et d’expériences (p.ex. personnes utilisatrices de services, proches, responsables de ressources résidentielles, gestionnaires). Les participants proviennent de cinq régions du Québec (nombre total de participations = 722). Au cours des six étapes de la cartographie de concepts, les participants ont généré des attributs décrivant le logement (n = 221), leur ont accordé une cote numérique (n = 416) et les ont regroupés en catégories (n = 73). Douze participants ont interprété des cartes conceptuelles produites par des analyses multivariées, soit l’échelonnage multidimensionnel (MDS) et la typologie hiérarchique. Des analyses par composantes principales (PCAs) ont été utilisées pour raffiner la conceptualisation (n = 228). Phase II: L’instrument a été développé, utilisé et ajusté à la suite de deux groupes de discussions (n = 23) et d’une étude transversale auprès de ressources résidentielles (n = 258). La passation se fait via une entrevue téléphonique semi-structurée enregistrée, d’une durée moyenne de 130 minutes. Résultats : Les participants ont généré 1382 idées (99.5% de saturation). Les cartes conceptuelles issues de la cartographie de concepts comprennent 140 idées (attributs du logement), 12 dimensions et cinq domaines (indice de stress MDS = 0.2302, 10 itérations). Les analyses PCAs ont permis de retenir quatre domaines, 11 composantes (α = 0.600 à 0.933) et 81 attributs. Les domaines sont : (1) environnement géophysique; (2) atmosphère et fonctionnement du milieu; (3) soutien et interventions offerts; (4) pratiques organisationnelles et managériales. L’instrument développé comprend quatre domaines, 10 dimensions et 83 attributs. À cela s’ajoutent des variables descriptives. L’instrument résulte des Phases I et II de ce projet. Conclusion : L’instrument a été développé en collaboration avec diverses parties prenantes, à partir de considérations ontologiques, réalistes, causales et statistiques. Il dresse le profil détaillé d’une ressource résidentielle sous ses différentes facettes et s’appuie sur la prémisse qu’il n’existe pas de milieu résidentiel idéal pour tous.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les questions abordées dans les deux premiers articles de ma thèse cherchent à comprendre les facteurs économiques qui affectent la structure à terme des taux d'intérêt et la prime de risque. Je construis des modèles non linéaires d'équilibre général en y intégrant des obligations de différentes échéances. Spécifiquement, le premier article a pour objectif de comprendre la relation entre les facteurs macroéconomiques et le niveau de prime de risque dans un cadre Néo-keynésien d'équilibre général avec incertitude. L'incertitude dans le modèle provient de trois sources : les chocs de productivité, les chocs monétaires et les chocs de préférences. Le modèle comporte deux types de rigidités réelles à savoir la formation des habitudes dans les préférences et les coûts d'ajustement du stock de capital. Le modèle est résolu par la méthode des perturbations à l'ordre deux et calibré à l'économie américaine. Puisque la prime de risque est par nature une compensation pour le risque, l'approximation d'ordre deux implique que la prime de risque est une combinaison linéaire des volatilités des trois chocs. Les résultats montrent qu'avec les paramètres calibrés, les chocs réels (productivité et préférences) jouent un rôle plus important dans la détermination du niveau de la prime de risque relativement aux chocs monétaires. Je montre que contrairement aux travaux précédents (dans lesquels le capital de production est fixe), l'effet du paramètre de la formation des habitudes sur la prime de risque dépend du degré des coûts d'ajustement du capital. Lorsque les coûts d'ajustement du capital sont élevés au point que le stock de capital est fixe à l'équilibre, une augmentation du paramètre de formation des habitudes entraine une augmentation de la prime de risque. Par contre, lorsque les agents peuvent librement ajuster le stock de capital sans coûts, l'effet du paramètre de la formation des habitudes sur la prime de risque est négligeable. Ce résultat s'explique par le fait que lorsque le stock de capital peut être ajusté sans coûts, cela ouvre un canal additionnel de lissage de consommation pour les agents. Par conséquent, l'effet de la formation des habitudes sur la prime de risque est amoindri. En outre, les résultats montrent que la façon dont la banque centrale conduit sa politique monétaire a un effet sur la prime de risque. Plus la banque centrale est agressive vis-à-vis de l'inflation, plus la prime de risque diminue et vice versa. Cela est due au fait que lorsque la banque centrale combat l'inflation cela entraine une baisse de la variance de l'inflation. Par suite, la prime de risque due au risque d'inflation diminue. Dans le deuxième article, je fais une extension du premier article en utilisant des préférences récursives de type Epstein -- Zin et en permettant aux volatilités conditionnelles des chocs de varier avec le temps. L'emploi de ce cadre est motivé par deux raisons. D'abord des études récentes (Doh, 2010, Rudebusch and Swanson, 2012) ont montré que ces préférences sont appropriées pour l'analyse du prix des actifs dans les modèles d'équilibre général. Ensuite, l'hétéroscedasticité est une caractéristique courante des données économiques et financières. Cela implique que contrairement au premier article, l'incertitude varie dans le temps. Le cadre dans cet article est donc plus général et plus réaliste que celui du premier article. L'objectif principal de cet article est d'examiner l'impact des chocs de volatilités conditionnelles sur le niveau et la dynamique des taux d'intérêt et de la prime de risque. Puisque la prime de risque est constante a l'approximation d'ordre deux, le modèle est résolu par la méthode des perturbations avec une approximation d'ordre trois. Ainsi on obtient une prime de risque qui varie dans le temps. L'avantage d'introduire des chocs de volatilités conditionnelles est que cela induit des variables d'état supplémentaires qui apportent une contribution additionnelle à la dynamique de la prime de risque. Je montre que l'approximation d'ordre trois implique que les primes de risque ont une représentation de type ARCH-M (Autoregressive Conditional Heteroscedasticty in Mean) comme celui introduit par Engle, Lilien et Robins (1987). La différence est que dans ce modèle les paramètres sont structurels et les volatilités sont des volatilités conditionnelles de chocs économiques et non celles des variables elles-mêmes. J'estime les paramètres du modèle par la méthode des moments simulés (SMM) en utilisant des données de l'économie américaine. Les résultats de l'estimation montrent qu'il y a une évidence de volatilité stochastique dans les trois chocs. De plus, la contribution des volatilités conditionnelles des chocs au niveau et à la dynamique de la prime de risque est significative. En particulier, les effets des volatilités conditionnelles des chocs de productivité et de préférences sont significatifs. La volatilité conditionnelle du choc de productivité contribue positivement aux moyennes et aux écart-types des primes de risque. Ces contributions varient avec la maturité des bonds. La volatilité conditionnelle du choc de préférences quant à elle contribue négativement aux moyennes et positivement aux variances des primes de risque. Quant au choc de volatilité de la politique monétaire, son impact sur les primes de risque est négligeable. Le troisième article (coécrit avec Eric Schaling, Alain Kabundi, révisé et resoumis au journal of Economic Modelling) traite de l'hétérogénéité dans la formation des attentes d'inflation de divers groupes économiques et de leur impact sur la politique monétaire en Afrique du sud. La question principale est d'examiner si différents groupes d'agents économiques forment leurs attentes d'inflation de la même façon et s'ils perçoivent de la même façon la politique monétaire de la banque centrale (South African Reserve Bank). Ainsi on spécifie un modèle de prédiction d'inflation qui nous permet de tester l'arrimage des attentes d'inflation à la bande d'inflation cible (3% - 6%) de la banque centrale. Les données utilisées sont des données d'enquête réalisée par la banque centrale auprès de trois groupes d'agents : les analystes financiers, les firmes et les syndicats. On exploite donc la structure de panel des données pour tester l'hétérogénéité dans les attentes d'inflation et déduire leur perception de la politique monétaire. Les résultats montrent qu'il y a évidence d'hétérogénéité dans la manière dont les différents groupes forment leurs attentes. Les attentes des analystes financiers sont arrimées à la bande d'inflation cible alors que celles des firmes et des syndicats ne sont pas arrimées. En effet, les firmes et les syndicats accordent un poids significatif à l'inflation retardée d'une période et leurs prédictions varient avec l'inflation réalisée (retardée). Ce qui dénote un manque de crédibilité parfaite de la banque centrale au vu de ces agents.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La baisse de la fécondité permet aux couples d'investir davantage dans la scolarité de chacun de leurs enfants (évidence dans les pays occidentaux, d’Asie et d’Amérique latine). Ce postulat est l’un des arguments clés des politiques de planification familiale en Afrique subsaharienne. Pourtant, la plupart des études sur l'Afrique ont trouvé une corrélation nulle ou même une relation positive entre le nombre d'enfants dans un ménage et leur niveau de scolarité. Ces résultats mitigés sont généralement expliqués par des solidarités familiales et des transferts de ressources qui pourraient réduire la pression occasionnée par une descendance nombreuse sur les ressources du ménage, et des problèmes méthodologiques inhérents à plusieurs recherches sur la région. L’objectif principal de cette thèse était d’apporter une contribution à une meilleure compréhension des aspects méthodologiques et substantiels relatifs aux liens entre fécondité et scolarisation. Spécifiquement, la thèse visait à évaluer 1) le rôle des réseaux familiaux dans la scolarisation des enfants, 2) la simultanéité des décisions portant sur le nombre d’enfants et leur scolarisation, 3) l’impact causal du nombre d’enfants sur leur scolarisation, et 4) à comprendre les perceptions des parents sur l’école et les coûts et bénéfices de l’éducation des enfants, et dans quelle mesure ces perceptions sont prises en compte dans leurs stratégies reproductives. Quatre articles ont été rédigés en utilisant quatre sources de données complémentaires : l’Observatoire de population de Ouagadougou (OPO), l’enquête Demtrend, l’enquête santé de base et une enquête qualitative, toutes adossées à l’OPO. Dans le premier article, il est ressorti que les familles de grande taille bénéficient d’un appui plus fréquent des réseaux familiaux pour la scolarisation. De plus, les réseaux familiaux seraient en mesure de compenser l’effet négatif d’un nombre élevé d’enfants sur la scolarisation, mais seulement pour une partie de la population qui exclut les plus pauvres. Ainsi, les solidarités familiales de soutien à la scolarisation des enfants sont loin d’être généralisées. Le deuxième article a montré que les enfants dont les mères ont intentionnellement limité leur fécondité avaient de meilleures chances de scolarisation que ceux dont les mères ont connu des problèmes d’infécondité secondaire et n’ont pas atteint leur nombre d’enfants désiré. Par conséquent, les aspirations scolaires ne sont pas indépendantes des décisions de fécondité et l’hypothèse de fécondité naturelle n’est plus tenable dans ce contexte. Le troisième article a révélé, contrairement à la plupart des études antérieures sur l’Afrique subsaharienne, un effet négatif net de la taille de la fratrie sur le niveau d’éducation atteint des enfants, effet qui se renforce d’ailleurs au fur et à mesure que l’on avance dans le système éducatif. Dans le quatrième article, le discours des participants à l’enquête qualitative a indiqué que l’émergence de cette relation négative entre le nombre d’enfants et leur scolarisation dans les quartiers périphériques de Ouagadougou est intimement liée aux changements dans les coûts et bénéfices de l’éducation des enfants qui font reposer dorénavant de façon presque exclusive les dépenses scolaires sur les parents biologiques.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The present work is mainly concentrated on setting up a NIR tunable diode laser absorption (TDLA) spectrometer for high-resolution molecular spectroscopic studies. For successfully recording the high-resolution tunable diode laser spectrum, various experimental considerations are to be taken into account like the setup should be free from mechanical vibrations, sample should be kept at a low pressure, laser should be in a single mode operation etc. The present experimental set up considers all these factors. It is to be mentioned here that the setting up of a high resolution NIR TDLA spectrometer is a novel experiment requiring much effort and patience. The analysis of near infrared (NIR) vibrational overtone spectra of some substituted benzene compounds using local mode model forms another part of the present work. An attempt is made to record the pulsed laser induced fluorescence/Raman spectra of some organic compounds. A Q-switched Nd:YAG laser is used as the excitation source. A TRIAX monochromator and CCD detector is used for the spectral recording. The observed fluorescence emission for carbon disulphide is centered at 680 nm; this is assigned as due to the n, p* transition. Aniline also shows a broad fluorescence emission centered at 725 nm, which is due to the p,p* transition. The pulsed laser Raman spectra of some organic compounds are also recorded using the same experimental setup. The calibration of the set up is done using the laser Raman spectra of carbon tetrachloride and carbon disulphide. The observed laser Raman spectra for aniline, o-chloroaniline and m-chlorotoluene show peaks characteristics of the aromatic ring in common and the characteristics peaks due to the substitutuent groups. Some new peaks corresponding to low-lying vibrations of these molecules are also assigned

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Preparation of simple and mixed ferrospinels of nickel, cobalt and copper and their sulphated analogues by the room temperature coprecipitation method yielded fine particles with high surface areas. Study of the vapour phase decomposition of cyclohexanol at 300 °C over all the ferrospinel systems showed very good conversions yielding cyclohexene by dehydration and/or cyclohexanone by dehydrogenation, as the major products. Sulphation very much enhanced the dehydration activity over all the samples. A good correlation was obtained between the dehydration activities of the simple ferrites and their weak plus medium strength acidities (usually of the Brφnsted type) determined independently by the n-butylamine adsorption and ammonia-TPD methods. Mixed ferrites containing copper showed a general decrease in acidities and a drastic decrease in dehydration activities. There was no general correlation between the basicity parameters obtained by electron donor studies and the ratio of dehydrogenation to dehydration activities. There was a leap in the dehydrogenation activities in the case of all the ferrospinel samples containing copper. Along with the basic properties, the redox properties of copper ion have been invoked to account for this added activity.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Controlling the inorganic nitrogen by manipulating carbon / nitrogen ratio is a method gaining importance in aquaculture systems. Nitrogen control is induced by feeding bacteria with carbohydrates and through the subsequent uptake of nitrogen from the water for the synthesis of microbial proteins. The relationship between addition of carbohydrates, reduction of ammonium and the production of microbial protein depends on the microbial conversion coefficient. The carbon / nitrogen ratio in the microbial biomass is related to the carbon contents of the added material. The addition of carbonaceous substrate was found to reduce inorganic nitrogen in shrimp culture ponds and the resultant microbial proteins are taken up by shrimps. Thus, part of the feed protein is replaced and feeding costs are reduced in culture systems.The use of various locally available substrates for periphyton based aquaculture practices increases production and profitability .However, these techniques for extensive shrimp farming have not so far been evaluated. Moreover, an evaluation of artificial substrates together with carbohydrate source based farming system in reducing inorganic nitrogen production in culture systems has not yet been carried-out. Furthermore, variations in water and soil quality, periphyton production and shrimp production of the whole system have also not been determined so-far.This thesis starts with a general introduction , a brief review of the most relevant literature, results of various experiments and concludes with a summary (Chapter — 9). The chapters are organised conforming to the objectives of the present study. The major objectives of this thesis are, to improve the sustainability of shrimp farming by carbohydrate addition and periphyton substrate based shrimp production and to improve the nutrient utilisation in aquaculture systems.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Food and feeding habits of fourteen demersal finfishes exploited off the Karnataka coast were studied to investigate trophic interactions within the marine food web. Index of Relative Importance (lRI),Ontogenetic, seasonal (pre-monsoon, monsoon and post-monsoon) variation in feeding and prey-predator relationship studies were conducted.The results of prey-predator trophic interaction studies identified four major trophic guilds based on the predators feeding similarity.Trophic guild I is 'copepod and detritus fceders'with an average group similarity of 61.4%. The second trophic guild, 'prawn and crab feeders'with an average similarity of 52.7%. 'Acetes feeders', the largest trophic guild with an average group similarity of 62.5%, composed of six demersal finfish species.The guild 'piscivores' is constituted by C. limba/us and P. arsius with an average similarity of 45%.For each predator, ontogenetic diet shift is common and is characterized by prey of low to high trophic level.Strong selection of certain prey types was observed in some predators while most of them avoided abundant prey.In addition to Acetes spp, strong predation impact was observed for penaeid prawns, epibenthic crabs and detritus.This information on trophic guilds and prey-predator interactions can be used to construct trophic model on the benthic ecosystem off Karnataka and to investigate fishery induced changes as well as predation impact of different animals on commercially important demersals

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The most common and conventional method for removing turbidity from water is by coagulating with alum or iron salts, and settling the precipitate in suitably designed clarifiers followed by filtration. But the sludge produced is bulky, difficult to dewater and accumulates in the dumping grounds causing environmental problems. Synthetic polymers such as polyacrylamide and polyethyleneoxide have been investigated for their ability to remove turbidity. They overcome many of the disadvantages of conventional methods, but are cost—effective only when rapid flocculation and reduction in sludge volume are demanded. Considering the aforementioned situation, it was felt that more easily available and eco-friendly materials must be developed for removing turbidity from water. The results of our studies in this direction are presented in this thesis. The thesis comprises of nine chapters, with a common bibliography at the end. Chapter 1 gives an introduction to the nature of turbidity and colour usually present in water. Chapter 2 discusses the nature and availability of the principal material used in these studies, namely chitosan. Chapters 3 to 8, which deal with the actual experimental work, are further subdivided into (a) introduction, (b) materials and methods, (c) results and discussion and (d) conclusions. Chapter 9 summarises the entire work so as to put the results and conclusions into proper perspective.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

It is a fact that there now exists a sound framework of accounting theory to ascertain the working results and the investment status of hospitals. Yet, there is no system of accounting in practice to conduct its activities with utmost efficiency. No attempts have hitherto been made for the continuous improvement in the servics rendered by hospitals. Personal investments in hospitals have made the interaction of business to some extent.Planning, decision making and control assume increasing importance as hospitals grow in size and complexity. Moreover, wise and effective utilisation of resources should be ensured. The importance of cost cannot be overlooked in this context. Cost is the most effective factor in the determination of the prices of hospital services rendered. The important managerial functions have to rely heavily on accurate and timely cost information. More people can be provided with services if no services cost more than what is a must to provide the necessary level of care. The price paid for high cost technology for a few is no technology at all for the many. Hence no pains must be spared in ascertaining, presenting, controlling and reducing costs. An effective system of Cost Accountancy and Cost Control is imperative for the survival of hospitals in the intensely competitive conditions of today. The valuable objective of "better patient care" can be attained only if the management can make use of the various tools and techniques to ascertain, control and reduce each item of cost in hospitals. Constant efforts must be made by the management to continuously improve their services and bring down costs and prices of all hospital services. Cost Accountancy has made its impresssive impact on almost all the spheres of human activities. It is high time a comprehensive Cost Accountancy and Cost Control system be implemented in hospitals. The problem under study thus is the designing of a sound and full-fledged Cost Accountancy and Cost Control system that suits the requirements of hospitals. It is for the first time in India during the evolution of Cost Accountancy that a comprehensive cost system is tried in hospitals.