681 resultados para Financial instruments -- Australia -- Problems, exercises, etc.
Resumo:
Resumen tomado de la publicación. Con el apoyo económico del departamento MIDE de la UNED
Resumo:
La recerca sobre l'expressió escrita ha evolucionat de forma espectacular al llarg d'aquest segle. Si fins als anys 60 l'objectiu dels estudis es centrava exclusivament en les produccions escrites i en l'anàlisi del sistema de la llengua des d'una òptica essencialment gramatical, actualment l'interès dels investigadors s'orienta a analitzar els diversos aspectes comunicatius, lingüístics i socioculturals de l'acte d'escriure i a comprendre els diferents processos i operacions cognitius implicats en els processos redaccionals. En aquest sentit, doncs, per un costat, gràcies a les aportacions de diverses ciències del llenguatge (la lingüística del text, l'anàlisi del discurs, la pragmàtica filosòfica, la sociolingüística, etc.) el text escrit ja no s'analitza com una suma de frases que compleixen amb les regles i convencions gramaticals, el text escrit és vist com una unitat lingüística amb entitat pròpia que té una finalitat comunicativa concreta, es produeix en un context determinat i que s'estructura internament a través de l'ús de regles de gramàtica, però també, de cohesió i coincidència textuals. I, per l'altre costat, des de la dècada dels 70, un nombre de recerques, sobretot des de la psicologia cognitiva es preocupen per aprofundir en el coneixement dels subprocessos i operacions inherents al fet d'escriure, amb la intenció fonamental de plantejar quins són els principals problemes que l'escriptura pressuposa per als escriptors aprenents, i així contribuir a reorientar els processos d'ensenyament i aprenentatge de l'expressió escrita a les escoles. A partir d'aquí, queda definida la intenció última d'aquest treball: obtenir informació sobre l'ús dels coneixements, habilitats i estratègies implicats en un procés psicològic complex com és l'expressió escrita en els nois i noies de Cicle Superior d'EGB de Girona. La pretensió, doncs, és contribuir al coneixement de les característiques de l'expressió escrita, tant les que fan referència a les produccions escrites com el procés de composició, que presenten els nois i noies de Cicle Superior d'EGB a la ciutat de Girona. Entenem que aquest és un primer pas, un punt de partida, perquè posteriorment es pugui continuar treballant en desenvolupament de propostes tècnico-pràctiques que serveixin per fonamentar el procés d'ensenyament i aprenentatge de l'expressió escrita. Amb aquest propòsit, doncs, l'estudi s'estructura en tres parts: En la primera o Marc Teòric, es defineixen els elements teòrics que regeixen i basen la recerca. Per a l'establiment d'aquest marc conceptual, es presenta primerament la concepció de llengua, funcional i comunicativa, que, a finals del segle XX fonamenta tant els models lingüístics com les perspectives didàctiques. Es revisen, en un segon moment, diverses aportacions tècniques sobre el concepte d'expressió escrita i es formula la definició pròpia, que permet articular coherentment la investigació realitzada: L'expressió escrita és un procés psicològic complex, en el qual hi intervenen operacions cognitives de naturalesa diversa, i que implica l'ús de coneixements i d'habilitats variats. Coneixements i habilitats que tenen com a finalitat la comunicació d'idees per mitjà de símbols gràfics i que, d'una banda fan referència a la gramàtica i a la llengua que s'utilitza en els textos escrits (codi escrit) i, de l'altra, a les estratègies comunicativo-lingüístiques que s'empren per a produir-los (procés de composició). S'aborda després l'aproximació conceptual al codi escrit, ressaltant la noció moderna de text i de les propietats textuals, tasca que esdevé decisiva per al plantejament de la primera fase de la recerca. En l'apartat següent, s'aprofundeix en la comprensió teòrica del procés de composició escrita, la qual es configura com a punt de partida clau per al desplegament de la segona fase de la recerca. I, per últim, s'analitza el procés d'ensenyament/aprenentatge de l'expressió escrita, amb la voluntat de pressentir les principals perspectives i propostes teòrico-didàctiques actuals, per acabar contrastar-les amb les pràctiques escolars que avui es donen de forma habitual en l'ensenyament de l'expressió escrita. La segona part o La Recerca inclou tres capítols. En el primer o Capítol II, s'ofereix el plantejament general de la recerca és a dir, s'estableixen els objectius generals plantejats i es presenten les dues fases amb què aquesta recerca s'estructura. En el Capítol III es desenvolupa la que s'anomena primera fase de la recerca, un estudi descriptiu que es proposa com a objectiu general conèixer quin és el domini general de les habilitats i els coneixements de l'expressió escrita en llengua catalana, concretament en relació al text produït, al codi escrit, que presenten els nois i noies del cicle superior d'EGB de Girona. Amb aquesta intenció, s'especifiquen aquests coneixements i habilitats agrupant-los d'acord amb les cinc propietats textuals a priori establertes: adequació, coherència, cohesió, correcció gramatical i variació. Sota una perspectiva metodològica i un mètode descriptiu. es desenvolupen les diferents passes que se segueixen per a la consecució dels objectius marcats: 1) es selecciona la mostra d'estudi (388 nois i noies de tres escoles de Girona), 2) s'efectua el procés d'obtenció de la informació necessària, prèviament realitzant una àmplia revisió bibliogràfica sobre el tema de l'avaluació del producte escrit, la qual porta a elaborar dos instruments propis: el bàsic o Prova d'Expressió Escrita i el complementari o Full de Valoració de l'Expressió Escrita per part del Professor. i a recollir també d'altres dades informatives, a ressaltar, les qualificacions acadèmiques de l'hora de llengua, 3) s'apliquen els instruments ideats i es recull l'altra informació prevista. 4) s'analitza la informació obtinguda per mitjà d'una anàlisi estadística descriptiva i diferencial, més exhaustivament i completa en el cas de la Prova d'Expressió Escrita, en tant que instrument bàsic i específicament dissenyat per a respondre als objectius de l'estudi. i 5) s'analitzen i s'interpreten amb rigurositat totes les aportacions informatives obtingudes, per acabar definint les principals conclusions extretes de la realització d'aquesta primera fase de la recerca. En el Capítol IV, s'exposa l'anomenat Estudi de Casos o segona fase de la recerca, el qual es planteja com a objectiu general constatar si es presenten diferències clares pel que fa al procés de composició seguit en l'elaboració i construcció del text escrit, entre els nois i noies de Cicle Superior d'EGB que mostren un nivell elevat en el domini dels coneixements i habilitats del codi escrit, i els que en mostren un nivell de domini baix. Objectiu general que pressuposa l'establiment de dos subobjectius generals: 1) Conèixer quines són i com són utilitzades les estratègies pròpies del procés de composició, que segueixen en l'elaboració i construcció del text escrit d'aquells nois i noies de Cicle Superior d'EGB de Girona que, seleccionats a partir de l'estudi realitzat en la primera fase de la recerca, presenten un major domini general dels coneixements i habilitats del codi escrit, i 2) el mateix que l'anterior però centrat en aquells nois i noies que presenten un menor domini general dels coneixements i habilitats del codi escrit. Amb aquests propòsits, es defineix primerament el marc teòric que regula el desenvolupament d'aquesta segona fase de la recerca: es tracta de la proposta teòrica de referència que, en base al model cognitiu del procés de composició escrita proposat per Flower i Hayes, defineix els processos i subprocessos sota els quals s'estructura l'estudi: anàlisi de la situació comunicativa , planificació (generalització d'idees, organització i formulació d'objectius), textualització, revisió i control, alhora que també concreta les estratègies i habilitats específiques a través de les quals es vol obtenir la informació referida a cadascun d'aquests processos i subprocessos redaccionals. Seguidament, i en el marc d'una perspectiva metodològica qualitativa, definida i especificada a través d'un Estudi de Casos, es desplega el pla de treball marcat per a la consecució dels objectius preestablerts: 1) d'acord amb uns criteris rigurosament sistematitzats, i a partir de la informació principal obtinguda en la primera fase del a recerca, es seleccionen els 12 casos d'estudi agrupats en dos grups: el grup A o els 6 casos que presenten el nivell més baix en el domini dels coneixements i habilitats del producte escrit, i el grup B o els 6 casos que en mostren el nivell més alt; 2)es realitza el procés d'obtenció de la informació, a través de l'aplicació de dos instruments: l'observació i l'entrevista, per a l'elaboració a curada i rigurosa dels quals, prèviament s'efectua una revisió bibliogràfica sobre el tema de la complexitat de l'avaluació dels processos cognitius i sobre els requeriments metodològics derivats de la naturalesa essencialment qualitativa dels propis instruments; 3) s'apliquen els dos instruments en els 6 casos del grup B i els casos del grup A; 4) s'analitza la informació obtinguda a través de tècniques d'anàlisi de contingut, en primer lloc, establint unitats de registre que faciliten una primera aproximació a ala temàtica enregistrada a través de l'observació i de l'entrevista de cadascun dels 12 casos, i, en segon lloc, establint categories en el contingut de les unitats establertes, estructurant i classificant així la temàtica de les dades obtingudes; 5) s'elabora l'informe, és a dir, s'exposen quines són i com són utilitzades les estratègies pròpies del procés de composició escrita definides en la proposta teòrica de referència, especificant aquest informe per als casos del grup A, per als casos del grup B, i sobretot oferint un informe específic per a la comparació entre els casos del grup A i els del grup B; i 6) es revisa el desenvolupament dels diferents moments de l'Estudi de Casos i es reanalitza amb rigurositat la informació exposada en els tres informes, per finalitzar definint les principals conclusions que es deriven de la realització d'aquesta segona fase de la recerca. En la tercera i última part o capítol V, primer es sintetitzen les principals aportacions i conclusions de cadascun dels quatre capítols anteriors, per finalitzar exposant les implicacions més significatives que aquesta tesi permet establir de cares a la pràctica de l'ensenyament/aprenentatge i la recerca educatives en l'àmbit de l'expressió escrita.
Resumo:
Presentation Outline -The elements of the jig-saw puzzle -Trends in financial results -Industry charcateristics and problems -Major constraints -Trends in load factors -Financing? -Traffic growth prospects -Productivity is the key -The environmental challenge -Summary of main points
Resumo:
In analysing the release of agricultural land to urban development, the urban fringe literature has not focused on whether farmers are able to relocate from the urban fringe to remoter rural areas. Through interviews with representatives from the poultry industry in two Australian states, this paper identifies that poultry farm relocation strategies are constrained by off-farm economic relations, the land-use planning system and financial considerations. Closely aligned to these constraints on relocation is the on-going process of poultry farm intensification, which is seen as presenting rising problems for land-use management around expanding metropolitan centres in Australia. Of particular concern is the potential for amenity complaints and associated land-use conflicts, which have not been comprehensively investigated. Recognising that existing environmental and land-use planning controls are ineffective in producing amicable solutions when conflict involving poultry farming is at its most intense, the paper calls for improvements to the regulatory system, including greater consideration for how the process of relocation can be encouraged. (c) 2005 Elsevier Ltd. All rights reserved.
Resumo:
Financial Protection in the UK Building Industry provides comprehensive treatment of a complex aspect of construction management which is increasingly important in modern construction contracts. The term 'Financial Protection' refers to refers to the various mechanisms by which funds are made available to ensure the due performance of a partys contractual obligations. This book is based on material written for a research project funded by the Reading Construction Forum. Financial Protection in the UK Building Industry looks at the legal and economic background to the problem of providing financial protection to clients to guard against poor performance and or the insolvency of contractors, consultants and sub-contractors. The inclusion of practical guidance notes and summaries makes this a valuable guide for the construction professional as well as for the researcher. * provides in-depth analysis of financial protection measures * explores the ways in which financial protection can increase efficiency in the industry * financial protection in construction is beset with problems - this book points toward practical solutions
Resumo:
Airborne scanning laser altimetry (LiDAR) is an important new data source for river flood modelling. LiDAR can give dense and accurate DTMs of floodplains for use as model bathymetry. Spatial resolutions of 0.5m or less are possible, with a height accuracy of 0.15m. LiDAR gives a Digital Surface Model (DSM), so vegetation removal software (e.g. TERRASCAN) must be used to obtain a DTM. An example used to illustrate the current state of the art will be the LiDAR data provided by the EA, which has been processed by their in-house software to convert the raw data to a ground DTM and separate vegetation height map. Their method distinguishes trees from buildings on the basis of object size. EA data products include the DTM with or without buildings removed, a vegetation height map, a DTM with bridges removed, etc. Most vegetation removal software ignores short vegetation less than say 1m high. We have attempted to extend vegetation height measurement to short vegetation using local height texture. Typically most of a floodplain may be covered in such vegetation. The idea is to assign friction coefficients depending on local vegetation height, so that friction is spatially varying. This obviates the need to calibrate a global floodplain friction coefficient. It’s not clear at present if the method is useful, but it’s worth testing further. The LiDAR DTM is usually determined by looking for local minima in the raw data, then interpolating between these to form a space-filling height surface. This is a low pass filtering operation, in which objects of high spatial frequency such as buildings, river embankments and walls may be incorrectly classed as vegetation. The problem is particularly acute in urban areas. A solution may be to apply pattern recognition techniques to LiDAR height data fused with other data types such as LiDAR intensity or multispectral CASI data. We are attempting to use digital map data (Mastermap structured topography data) to help to distinguish buildings from trees, and roads from areas of short vegetation. The problems involved in doing this will be discussed. A related problem of how best to merge historic river cross-section data with a LiDAR DTM will also be considered. LiDAR data may also be used to help generate a finite element mesh. In rural area we have decomposed a floodplain mesh according to taller vegetation features such as hedges and trees, so that e.g. hedge elements can be assigned higher friction coefficients than those in adjacent fields. We are attempting to extend this approach to urban area, so that the mesh is decomposed in the vicinity of buildings, roads, etc as well as trees and hedges. A dominant points algorithm is used to identify points of high curvature on a building or road, which act as initial nodes in the meshing process. A difficulty is that the resulting mesh may contain a very large number of nodes. However, the mesh generated may be useful to allow a high resolution FE model to act as a benchmark for a more practical lower resolution model. A further problem discussed will be how best to exploit data redundancy due to the high resolution of the LiDAR compared to that of a typical flood model. Problems occur if features have dimensions smaller than the model cell size e.g. for a 5m-wide embankment within a raster grid model with 15m cell size, the maximum height of the embankment locally could be assigned to each cell covering the embankment. But how could a 5m-wide ditch be represented? Again, this redundancy has been exploited to improve wetting/drying algorithms using the sub-grid-scale LiDAR heights within finite elements at the waterline.
Resumo:
Background Screening instruments for autistic-spectrum disorders have not been compared in the same sample. Aims To compare the Social Communication Questionnaire (SCQ), the Social Responsiveness Scale (SRS) and the Children's Communication Checklist (CCC). Method Screen and diagnostic assessments on 119 children between 9 and 13 years of age with special educational needs with and without autistic-spectrum disorders were weighted to estimate screen characteristics for a realistic target population. Results The SCQ performed best (area under receiver operating characteristic curve (AUC)=0.90; sensitivity. 6; specificity 0.78). The SRS had a lower AUC (0.77) with high sensitivity (0.78) and moderate specificity (0.67). The CCC had a high sensitivity but lower specificity (AUC=0.79; sensitivity 0.93; specificity 0.46). The AUC of the SRS and CCC was lower for children with IQ < 70. Behaviour problems reduced specificity for all three instruments. Conclusions The SCQ, SRS and CCC showed strong to moderate ability to identify autistic-spectrum disorder in this at-risk sample of school-age children with special educational needs.
Resumo:
This work analyzes the use of linear discriminant models, multi-layer perceptron neural networks and wavelet networks for corporate financial distress prediction. Although simple and easy to interpret, linear models require statistical assumptions that may be unrealistic. Neural networks are able to discriminate patterns that are not linearly separable, but the large number of parameters involved in a neural model often causes generalization problems. Wavelet networks are classification models that implement nonlinear discriminant surfaces as the superposition of dilated and translated versions of a single "mother wavelet" function. In this paper, an algorithm is proposed to select dilation and translation parameters that yield a wavelet network classifier with good parsimony characteristics. The models are compared in a case study involving failed and continuing British firms in the period 1997-2000. Problems associated with over-parameterized neural networks are illustrated and the Optimal Brain Damage pruning technique is employed to obtain a parsimonious neural model. The results, supported by a re-sampling study, show that both neural and wavelet networks may be a valid alternative to classical linear discriminant models.
Resumo:
This paper addresses the commercial leases policy issue of how to deal with small business tenants. The UK has adopted a voluntary solution to commercial lease reform by using Codes of Practice which is in contrast to the legislative approach adopted by Australia to attempt to solve its perceived problems with small business retail tenancies. The major aim of the research was to examine the perceptions of the effectiveness of the legislation in Australia and discuss any implications for the UK policy debate but the results of the research also raise questions for the Australian regime. The research used a combination of literature and legislation review and a semi structured interview survey to investigate the policy aims and objectives of Australian Federal and State Governments, identify the nature and scope of the Australian legislation and examine perceptions of effectiveness of the legislation in informing small business tenants. The situation is complicated in Australia due to leases being a State rather than Federal responsibility therefore the main fieldwork was carried out in one case study State, Victoria. The paper concludes that some aspects of the Australian system can inform the UK policy debate including mandatory information provision at the commencement of negotiations and the use of lease registrars/commissioners. However, there are a number of issues that the Australian legislation does not appear to have successfully addressed including the difficulties of legislating across partial segments of the commercial property market and the collection of data for enforcement purposes.
Resumo:
Unless a direct hedge is available, cross hedging must be used. In such circumstances portfolio theory implies that a composite hedge (the use of two or more hedging instruments to hedge a single spot position) will be beneficial. The study and use of composite hedging has been neglected; possibly because it requires the estimation of two or more hedge ratios. This paper demonstrates a statistically significant increase in out-of-sample effectiveness from the composite hedging of the Amex Oil Index using S&P500 and New York Mercantile Exchange crude oil futures. This conclusion is robust to the technique used to estimate the hedge ratios, and to allowance for transactions costs, dividends and the maturity of the futures contracts.
Resumo:
Numerical forecasts of the atmosphere based on the fundamental dynamical and thermodynamical equations have now been carried for almost 30 years. The very first models which were used were drastic simplifications of the governing equations and permitting only the prediction of the geostrophic wind in the middle of the troposphere based on the conservation of absolute vorticity. Since then we have seen a remarkable development in models predicting the large-scale synoptic flow. Verification carried out at NMC Washington indicates an improvement of about 40% in 24h forecasts for the 500mb geopotential since the end of the 1950’s. The most advanced models of today use the equations of motion in their more original form (i.e. primitive equations) which are better suited to predicting the atmosphere at low latitudes as well as small scale systems. The model which we have developed at the Centre, for instance, will be able to predict weather systems from a scale of 500-1000 km and a vertical extension of a few hundred millibars up to global weather systems extending through the whole depth of the atmosphere. With a grid resolution of 1.5 and 15 vertical levels and covering the whole globe it is possible to describe rather accurately the thermodynamical processes associated with cyclone development. It is further possible to incorporate sub-grid-scale processes such as radiation, exchange of sensible heat, release of latent heat etc. in order to predict the development of new weather systems and the decay of old ones. Later in this introduction I will exemplify this by showing some results of forecasts by the Centre’s model.
Resumo:
In this paper we report on a major empirical study of centripetal and centrifugal forces in the City of London financial services agglomeration. The study sheds light on (1) the manner and magnitude of firm interaction in the agglomeration; (2) the characteristics of the agglomeration that aid the competitiveness of incumbent firms; and (3) the problems associated with agglomeration. In addressing these issues, we use the data to (1) test emerging theory that explains the high productivity and innovation of agglomerations in terms of their ability to generate and diffuse knowledge; and (2) evaluate the ‘end of geography’ thesis.
Resumo:
The psychiatric and psychosocial evaluation of the heart transplant candidate can identify particular predictors for postoperative problems. These factors, as identified during the comprehensive evaluation phase, provide an assessment of the candidate in context of the proposed transplantation protocol. Previous issues with compliance, substance abuse, and psychosis are clear indictors of postoperative problems. The prolonged waiting list time provides an additional period to evaluate and provide support to patients having a terminal disease who need a heart transplant, and are undergoing prolonged hospitalization. Following transplantation, the patient is faced with additional challenges of a new self-image, multiple concerns, anxiety, and depression. Ultimately, the success of the heart transplantation remains dependent upon the recipient's ability to cope psychologically and comply with the medication regimen. The limited resource of donor hearts and the high emotional and financial cost of heart transplantation lead to an exhaustive effort to select those patients who will benefit from the improved physical health the heart transplant confers.