996 resultados para base property
Resumo:
Physico-chemical characterization of DY203/V2O5 systems prepared through wet impregnation method has been carried out using various techniques like EDX, XRD, FTIR. thermal studies, BET surface area, pore volume and pore size distribution analysis. The amount of vanadia incorporated has been found to influence the surface properties of dysprosia. The spectroscopic results combining with X-ray analysis reveal that vanadia species exist predominantly as isolated amorphous vanadyl units along with crystalline dysprosium orthovanadate. Basicity studies have been conducted by adsorption of electron acceptors and acidity and acid strength distribution by temperature programmed desorption of ammonia. Cyclohexanol decomposition has been employed as a chemical probe reaction to examine the effect of vanadia on the acid base property of Dy2O3. Incorporation of vanadia titrates thc Lewis acid and base sites of Dy2O3, while an enhancement of Bronsted acid sites has been noticed. Data have been correlated with the catalytic activity of these oxides towards the vapour phase methylation of phenol
Resumo:
O objetivo deste trabalho foi o estudo do efeito do Grau de Hidrólise (GH) do poli(vinil álcool) (PVA) nas propriedades dos filmes à base de blendas de gelatina suína e PVA com dois GH. Os filmes foram produzidos com soluções com 2 g de macromoléculas/100 g de solução, contendo 23,1 g de PVA.100 g-1 de macromoléculas e 25 g de glicerol/100 g de macromoléculas. As propriedades mecânicas e térmicas, cor, opacidade, umidade e solubilidade, além de espectros de infravermelho com transformada de Fourier (FTIR) dos filmes, foram estudadas. As soluções foram analisadas por reometria dinâmica. Os filmes produzidos com o PVA de menor GH foram mais higroscópicos e mais solúveis. Mas o tipo de PVA não afetou a cor, afetando a opacidade e o brilho dos filmes. O PVA com maior GH proporcionou filmes mais resistentes, e o PVA de menor GH produziu filmes mais resistentes à tração, embora menos deformáveis na perfuração. O GH do PVA não afetou a temperatura de transição vítrea dos filmes, determinada na primeira varredura, mas a afetou na segunda varredura. Os resultados das análises de FTIR corroborraram com esses resultados. As propriedades viscoelásticas das soluções não foram afetadas pelo GH do PVA, muito possivelmente por se tratar de soluções diluídas.
Resumo:
Solution enthalpies of 1,4-dioxane have been obtained in 15 protic and aprotic solvents at 298.15 K. Breaking the overall process through the use of Solomonov's methodology the cavity term was calculated and interaction enthalpies (Delta H-int) were determined. Main factors involved in the interaction enthalpy have been identified and quantified using a QSPR approach based on the TAKA model equation. The relevant descriptors were found to be pi* and beta, which showed, respectively, exothermic and endothermic contributions. The magnitude of pi* coefficient points toward non-specific solute-solvent interactions playing a major role in the solution process. The positive value of the beta coefficient reflects the endothermic character of the solvents' hydrogen bond acceptor (HBA) basicity contribution, indicating that solvent molecules engaged in hydrogen bonding preferentially interact with each other rather than with 1,4-dioxane. (C) 2013 Elsevier B.V. All rights reserved.
Resumo:
This thesis explores how multinational corporations of different sizes create barriers to imitation and therefore sustain competitive advantage in rural and informal Base of the Pyramid economies. These markets require close cooperation with local partners in a dynamic environment that lacks imposable property rights and follows a different rationale than developed markets. In order to explore how competitive advantage is sustained by different sized multinational corporations at the Base of the Pyramid, the natural-resource-based view and the dynamic capabilities perspective are integrated. Based on this integration the natural-resource-based view is extended by identifying critical dynamic capabilities that are assumed to be sources of competitive advantage at the Base of the Pyramid. Further, a contrasting case study explores how the identified dynamic capabilities are protected and their competitive advantage is sustained by isolating mechanisms that create barriers to imitation for a small to medium sized and a large multinational corporation. The case study results give grounds to assume that most resource-based isolating mechanisms create barriers to imitation that are fairly high for large and established multinational corporations that operate at the rural Base of the Pyramid and have a high product and business model complexity. On the contrary, barriers to imitation were found to be lower for young and small to medium sized multinational corporations with low product and business model complexity that according to some authors represent the majority of rural Base of the Pyramid companies. Particularly for small to medium sized multinational corporations the case study finds a relationship- and transaction-based unwillingness of local partners to act opportunistically rather than a resource-based inability to imitate. By offering an explanation of sustained competitive advantage for small to medium sized multinational corporations at the rural Base of the Pyramid this thesis closes an important research gap and recommends to include institutional and transaction-based research perspectives.
Resumo:
Tese de Doutoramento em Ciência e Engenharia de Polímeros e Compósitos
Resumo:
********NOTE: There are nine sections to this manual, all in separate files.************* **********NOTE: Large files may take longer to open******** The basis of real property assessment in Iowa is market value as defined in Iowa Code §441.21. Iowa Code §§ 421.17(17) and 441.21(h) provide that assessment jurisdictions follow the guidelines and rules in this manual to help achieve uniformity in assessments. Assessors are encouraged to use the International Association of Assessing Officers’ Standard on Mass Appraisal of Real Property in their mass appraisal practices. Estimating market value in mass appraisal involves accurately listing properties, developing a sales file that includes the primary influences on market value, and developing models for subsets of properties that share common market influences using recognized mass appraisal techniques. The assessment of an individual property should not be based solely on the sale price. The Uniform Standards of Professional Appraisal Practice (USPAP) standard 6 says “In developing a mass appraisal, an appraiser must be aware of, understand, and correctly employ those recognized methods and techniques necessary to produce and communicate credible mass appraisals.” Accurate listing of property is the basis of a good mass appraisal program. On-site inspection and listing of property is essential in developing a good data base for revaluation. A physical review, including an on-site verification of property characteristics, should be conducted at least every four to six years. Land values should be reviewed every two years. Factors influencing the market of each property type should be identified and collected so that these factors can be considered in the mass appraisal model. It is equally important to maintain the data once it is collected. Accessing local government permit systems should be a part of a good data maintenance program along with an inspection program. Current cadastral maps and geographical information systems (GIS) are tools that are integral in checking accuracy of listings and maintaining a comprehensive data base.
Resumo:
This paper tests some hypothesis about the determinants of the local tax structure. In particular, we focus on the effects that the property tax deductibility in the national income tax has on the relative use of the property tax and user charges. We deal with the incentive effects that local governments face regarding the different sources of revenue by means of a model in which the local tax structure and the level of public expenditure arise as a result of the maximizing behaviour of local politicians subject to the economic effects of the tax system. We attempt to test the hypothesis developed with data corresponding to a set of Spanish municipalities during the period 1987-9l. We find that tax deductibility provides incentives to raise revenues from the property tax but does not introduce a biass against user charges or in favor of overall spending growth
Resumo:
This paper tests some hypothesis about the determinants of the local tax structure. In particular, we focus on the effects that the property tax deductibility in the national income tax has on the relative use of the property tax and user charges. We deal with the incentive effects that local governments face regarding the different sources of revenue by means of a model in which the local tax structure and the level of public expenditure arise as a result of the maximizing behaviour of local politicians subject to the economic effects of the tax system. We attempt to test the hypothesis developed with data corresponding to a set of Spanish municipalities during the period 1987-9l. We find that tax deductibility provides incentives to raise revenues from the property tax but does not introduce a biass against user charges or in favor of overall spending growth
Resumo:
This issue review provides fiscal year 2009 city taxable value, tax rate and property tax revenue statistics, with comparisons to FY 2008 and to FY 2001. A discussion of the impact of the residential rollback on the tax base of cities and the growth in tax increment financing, or TIF, is also included.
Resumo:
La maladie cœliaque ou sprue cœliaque est une intolérance au gluten. Il s’agit d’une maladie inflammatoire de l’intestin liée à l’ingestion de gluten chez des personnes génétiquement susceptibles. Ce désordre présente une forte prévalence puisqu’il touche 1 % de la population mondiale. En l’état actuel des choses, il n’existe aucun outil pharmacologique pour traiter ou pallier à cette maladie. Cependant, grâce aux avancées dans la compréhension de sa pathogenèse, de nouvelles cibles thérapeutiques ont été identifiées. À l’heure actuelle, le seul traitement efficace consiste à suspendre la consommation de l’agent pathogène, à savoir le gluten. Le gluten est un ensemble de protéines de stockage des céréales contenu dans le blé, l’orge et le seigle. Le gluten du blé se subdivise en gluténines et gliadines. Ce sont ces dernières qui semblent les plus impliquées dans la maladie cœliaque. Les gliadines et ses protéines apparentées (i.e. sécalines et hordéines, respectivement dans le seigle et l’orge) sont riches en prolines et en glutamines, les rendant résistantes à la dégradation par les enzymes digestives et celles de la bordure en brosse. Les peptides résultant de cette digestion incomplète peuvent induire des réponses immunitaires acquises et innées. L’objectif principal de cette thèse était de tester un nouveau traitement d’appoint de la maladie cœliaque utile lors de voyages ou d’évènements ponctuels. Dans les années 80, une observation italienne montra l’inhibition de certains effets induits par des gliadines digérées sur des cultures cellulaires grâce à la co-incubation en présence de mannane: un polyoside naturel composé de mannoses. Malheureusement, ce traitement n’était pas applicable in vivo à cause de la dégradation par les enzymes du tractus gastro-intestinales du polymère, de par sa nature osidique. Les polymères de synthèse, grâce à la diversité et au contrôle de leurs propriétés physico-chimiques, se révèlent être une alternative attrayante à ce polymère naturel. L’objectif de cette recherche était d’obtenir un polymère liant la gliadine, capable d’interférer dans la genèse de la maladie au niveau du tube digestif, afin d’abolir les effets délétères induits par la protéine. Tout d’abord, des copolymères de type poly (hydroxyéthylméthacrylate)-co-(styrène sulfonate) (P(HEMA-co-SS)) ont été synthétisés par polymérisation radicalaire contrôlée par transfert d’atome (ATRP). Une petite bibliothèque de polymères a été préparée en faisant varier la masse molaire, ainsi que les proportions de chacun des monomères. Ces polymères ont ensuite été testés quant à leur capacité de complexer la gliadine aux pH stomacal et intestinal et les meilleurs candidats ont été retenus pour des essais cellulaires. Les travaux ont permis de montrer que le copolymère P(HEMA-co-SS) (45:55 mol%, 40 kDa) permettait une séquestration sélective de la gliadine et qu’il abolissait les effets induits par la gliadine sur différents types cellulaires. De plus, ce composé interférait avec la digestion de la gliadine, suggérant une diminution de peptides immunogènes impliqués dans la maladie. Ce candidat a été testé in vivo, sur un modèle murin sensible au gluten, quant à son efficacité vis-à-vis de la gliadine pure et d’un mélange contenant du gluten avec d’autres composants alimentaires. Le P(HEMA-co-SS) a permis de diminuer les effets sur les paramètres de perméabilité et d’inflammation, ainsi que de moduler la réponse immunitaire engendrée par l’administration de gliadine et celle du gluten. Des études de toxicité et de biodistribution en administration aigüe et chronique ont été réalisées afin de démontrer que ce dernier était bien toléré et peu absorbé suite à son administration par la voie orale. Enfin des études sur des échantillons de tissus de patients souffrants de maladie cœliaque ont montré un bénéfice therapeutique du polymère. L’ensemble des travaux présentés dans cette thèse a permis de mettre en évidence le potentiel thérapeutique du P(HEMA-co-SS) pour prévenir les désordres reliés à l’ingestion de gluten, indiquant que ce type de polymère pourrait être exploité dans un avenir proche.
Resumo:
Le Ministère des Ressources Naturelles et de la Faune (MRNF) a mandaté la compagnie de géomatique SYNETIX inc. de Montréal et le laboratoire de télédétection de l’Université de Montréal dans le but de développer une application dédiée à la détection automatique et la mise à jour du réseau routier des cartes topographiques à l’échelle 1 : 20 000 à partir de l’imagerie optique à haute résolution spatiale. À cette fin, les mandataires ont entrepris l’adaptation du progiciel SIGMA0 qu’ils avaient conjointement développé pour la mise à jour cartographique à partir d’images satellitales de résolution d’environ 5 mètres. Le produit dérivé de SIGMA0 fut un module nommé SIGMA-ROUTES dont le principe de détection des routes repose sur le balayage d’un filtre le long des vecteurs routiers de la cartographie existante. Les réponses du filtre sur des images couleurs à très haute résolution d’une grande complexité radiométrique (photographies aériennes) conduisent à l’assignation d’étiquettes selon l’état intact, suspect, disparu ou nouveau aux segments routiers repérés. L’objectif général de ce projet est d’évaluer la justesse de l’assignation des statuts ou états en quantifiant le rendement sur la base des distances totales détectées en conformité avec la référence ainsi qu’en procédant à une analyse spatiale des incohérences. La séquence des essais cible d’abord l’effet de la résolution sur le taux de conformité et dans un second temps, les gains escomptés par une succession de traitements de rehaussement destinée à rendre ces images plus propices à l’extraction du réseau routier. La démarche globale implique d’abord la caractérisation d’un site d’essai dans la région de Sherbrooke comportant 40 km de routes de diverses catégories allant du sentier boisé au large collecteur sur une superficie de 2,8 km2. Une carte de vérité terrain des voies de communication nous a permis d’établir des données de référence issues d’une détection visuelle à laquelle sont confrontés les résultats de détection de SIGMA-ROUTES. Nos résultats confirment que la complexité radiométrique des images à haute résolution en milieu urbain bénéficie des prétraitements telles que la segmentation et la compensation d’histogramme uniformisant les surfaces routières. On constate aussi que les performances présentent une hypersensibilité aux variations de résolution alors que le passage entre nos trois résolutions (84, 168 et 210 cm) altère le taux de détection de pratiquement 15% sur les distances totales en concordance avec la référence et segmente spatialement de longs vecteurs intacts en plusieurs portions alternant entre les statuts intact, suspect et disparu. La détection des routes existantes en conformité avec la référence a atteint 78% avec notre plus efficace combinaison de résolution et de prétraitements d’images. Des problèmes chroniques de détection ont été repérés dont la présence de plusieurs segments sans assignation et ignorés du processus. Il y a aussi une surestimation de fausses détections assignées suspectes alors qu’elles devraient être identifiées intactes. Nous estimons, sur la base des mesures linéaires et des analyses spatiales des détections que l’assignation du statut intact devrait atteindre 90% de conformité avec la référence après divers ajustements à l’algorithme. La détection des nouvelles routes fut un échec sans égard à la résolution ou au rehaussement d’image. La recherche des nouveaux segments qui s’appuie sur le repérage de points potentiels de début de nouvelles routes en connexion avec les routes existantes génère un emballement de fausses détections navigant entre les entités non-routières. En lien avec ces incohérences, nous avons isolé de nombreuses fausses détections de nouvelles routes générées parallèlement aux routes préalablement assignées intactes. Finalement, nous suggérons une procédure mettant à profit certaines images rehaussées tout en intégrant l’intervention humaine à quelques phases charnières du processus.
Resumo:
Aquesta memòria està estructurada en sis capítols amb l'objectiu final de fonamentar i desenvolupar les eines matemàtiques necessàries per a la classificació de conjunts de subconjunts borrosos. El nucli teòric del treball el formen els capítols 3, 4 i 5; els dos primers són dos capítols de caire més general, i l'últim és una aplicació dels anteriors a la classificació dels països de la Unió Europea en funció de determinades característiques borroses. En el capítol 1 s'analitzen les diferents connectives borroses posant una especial atenció en aquells aspectes que en altres capítols tindran una aplicació específica. És per aquest motiu que s'estudien les ordenacions de famílies de t-normes, donada la seva importància en la transitivitat de les relacions borroses. La verificació del principi del terç exclòs és necessària per assegurar que un conjunt significatiu de mesures borroses generalitzades, introduïdes en el capítol 3, siguin reflexives. Estudiem per a quines t-normes es verifica aquesta propietat i introduïm un nou conjunt de t-normes que verifiquen aquest principi. En el capítol 2 es fa un recorregut general per les relacions borroses centrant-nos en l'estudi de la clausura transitiva per a qualsevol t-norma, el càlcul de la qual és en molts casos fonamental per portar a terme el procés de classificació. Al final del capítol s'exposa un procediment pràctic per al càlcul d'una relació borrosa amb l'ajuda d'experts i de sèries estadístiques. El capítol 3 és un monogràfic sobre mesures borroses. El primer objectiu és relacionar les mesures (o distàncies) usualment utilitzades en les aplicacions borroses amb les mesures conjuntistes crisp. Es tracta d'un enfocament diferent del tradicional enfocament geomètric. El principal resultat és la introducció d'una família parametritzada de mesures que verifiquen unes propietats de caràcter conjuntista prou satisfactòries. L'estudi de la verificació del principi del terç exclòs té aquí la seva aplicació sobre la reflexivitat d'aquestes mesures, que són estudiades amb una certa profunditat en alguns casos particulars. El capítol 4 és, d'entrada, un repàs dels principals resultats i mètodes borrosos per a la classificació dels elements d'un mateix conjunt de subconjunts borrosos. És aquí on s'apliquen els resultats sobre les ordenacions de les famílies de t-normes i t-conormes estudiades en el capítol 1. S'introdueix un nou mètode de clusterització, canviant la matriu de la relació borrosa cada vegada que s'obté un nou clúster. Aquest mètode permet homogeneïtzar la metodologia del càlcul de la relació borrosa amb el mètode de clusterització. El capítol 5 tracta sobre l'agrupació d'objectes de diferent naturalesa; és a dir, subconjunts borrosos que pertanyen a diferents conjunts. Aquesta teoria ja ha estat desenvolupada en el cas binari; aquí, el que es presenta és la seva generalització al cas n-ari. Més endavant s'estudien certs aspectes de les projeccions de la relació sobre un cert espai i el recíproc, l'estudi de cilindres de relacions predeterminades. Una aplicació sobre l'agrupació de les comarques gironines en funció de certes variables borroses es presenta al final del capítol. L'últim capítol és eminentment pràctic, ja que s'aplica allò estudiat principalment en els capítols 3 i 4 a la classificació dels països de la Unió Europea en funció de determinades característiques borroses. Per tal de fer previsions per a anys venidors s'han utilitzat sèries temporals i xarxes neuronals. S'han emprat diverses mesures i mètodes de clusterització per tal de poder comparar els diversos dendogrames que resulten del procés de clusterització. Finalment, als annexos es poden consultar les sèries estadístiques utilitzades, la seva extrapolació, els càlculs per a la construcció de les matrius de les relacions borroses, les matrius de mesura i les seves clausures.
Resumo:
A diphenoxido-bridged dinuclear copper(II) complex, [Cu2L2(ClO4)(2)] (1), has been synthesized using a tridentate reduced Schiff base ligand, 2-[[2-(diethylamino)-ethylamino]methyl]phenol (HL). The addition of triethylamine to the methanolic solution of this complex produced a novel triple bridged (double phenoxido and single hydroxido) dinuclear copper(II) complex, [Cu2L2(OH)]ClO4 (2). Both complexes 1 and 2 were characterized by X-ray structural analyses, variable-temperature magnetic susceptibility measurements, and spectroscopic methods. In 1, the two phenoxido bridges are equatorial-equatorial and the species shows strong antiferromagnetic coupling with J = -615.6(6.1) cm(-1). The inclusion of the equatorial-equatorial hydroxido bridge in 2 changes the Cu center dot center dot center dot Cu distance from 3.018 angstrom (avg.) to 2.798 angstrom (avg.), the positions of the phenoxido bridges to axial-equatorial, and the magnetic coupling to ferromagnetic with J = 50.1(1.4) cm(-1). Using 3,5-di-tert-butylcatechol as the substrate, the catecholase activity of the complexes has been studied in a methanol solution; compound 2 shows higher catecholase activity (k(cat) = 233.4 h(-1)) than compound 1 (k(cat) = 93.6 h(-1)). Both complexes generate identical species in solution, and they are interconvertible simply by changing the pH of their solutions. The higher catecholase activity of 2 seems to be due to the presence of the OH group, which increases the pH of its solution.
Resumo:
This paper considers the utility of the concept of conscience or unconscionable conduct as a contemporary rationale for intervention in two principles applied where a person seeks to renege on an informal agreement relating to land: the principle in Rochefoucauld v Boustead; and transfers 'subject to' rights in favour of a claimant. By analysing the concept in light of our current understanding of the nature of judicial discretion and the use of general principles, it responds to arguments that unconscionability is too general a concept on which to base intervention. In doing so, it considers the nature of the discretion that is actually in issue when the court intervenes through conscience in these principles. However, the paper questions the use of constructive trusts as a response to unconscionability. It argues that there is a need, in limited circumstances, to separate the finding of unconscionability from the imposition of a constructive trust. In these limited circumstances, once unconscionability is found, the courts should have a discretion as to the remedy, modelled on that developed in the context of proprietary estoppel. The message underlying this paper is that many of the concerns expressed about unconscionability that have led to suggestions of alternative rationales for intervention can in fact be addressed whilst retaining an unconscionability analysis. Unconscionability remains a preferable rationale for intervention as it provides a common thread that links apparently separate principles and can assist our understanding of their scope.