965 resultados para Multidimensional constellations
Resumo:
The composition and variability of heterotrophic bacteria along the shelf sediments of south west coast of India and its relationship with the sediment biogeochemistry was investigated. The bacterial abundance ranged from 1.12 x 103 – 1.88 x 106 CFU g-1 dry wt. of sediment. The population showed significant positive correlation with silt (r = 0.529, p< 0.05), organic carbon (OC) (r = 0.679, p< 0.05), total nitrogen (TN) (r = 0.638, p< 0.05), total protein (TPRT) (r = 0.615, p< 0.05) and total carbohydrate (TCHO) (r = 0.675, p< 0.05) and significant negative correlation with sand (r = -0.488, p< 0.05). Community was mainly composed of Bacillus, Alteromonas, Vibrio, Coryneforms, Micrococcus, Planococcus, Staphylococcus, Moraxella, Alcaligenes, Enterobacteriaceae, Pseudomonas, Acinetobacter, Flavobacterium and Aeromonas. BIOENV analysis explained the best possible environmental parameters i.e., carbohydrate, total nitrogen, temperature, pH and sand at 50m depth and organic matter, BPC, protein, lipid and temperature at 200m depth controlling the distribution pattern of heterotrophic bacterial population in shelf sediments. The Principal Component Analysis (PCA) of the environmental variables showed that the first and second principal component accounted for 65% and 30.6% of the data variance respectively. Canonical Correspondence Analysis (CCA) revealed a strong correspondence between bacterial distribution and environmental variables in the study area. Moreover, non-metric MDS (Multidimensional Scaling) analysis demarcated the northern and southern latitudes of the study area based on the bioavailable organic matter
Resumo:
The 21st century is marked by a paradigm shift in education that has resulted both in threats and opportunities. It has brought new challenges and an opportunity for higher education. Higher education in India is undergoing rapid changes. The challenges ahead are multifaceted and multidimensional. Though the data show a massive growth in the number of students' enrollment in colleges/universities, holistic view reveals that still only a meager of the total population has access to higher education. Globalization and privatization are imposing new challenges but the nations are still entangled in solving the basic problems of accessibility to higher education for all. In the wake of the transition from elitist to mass education, universities worldwide are under pressure to enhance access and equity, on the one hand, and to maintain high standards of quality and excellence, on the other. Today the notion of equity not only implies greater access to higher education, but also opportunities for progress. In recent debates on higher education, the notions of equity and access go beyond minority to diversity. Affirmative action, too, has become raceexclusive and gender-neutral.1
Resumo:
In a business environment that is characterized by intense competition, building customer loyalty has become a key area of focus for most financial institutions. The explosion of the services sector, changing customer demographics and deregulation and emergence of new technology in the financial services industry have had a critical impact on consumers’ financial services buying behaviour. The changes have forced banks to modify their service offerings to customers so as to ensure high levels of customer satisfaction and also high levels of customer retention. Banks have historically had difficulty distinguishing their products from one another because of their relative homogeneity; with increasing competition,the problem has only intensified with no coherent distinguishing theme. Rising wealth, product proliferation, regulatory changes and newer technologies are together making bank switching easier for customers. In order to remain competitive, it is important for banks to retain their customer base. The financial services sector is the foundation for any economy and plays the role of mobilization of resources and their allocation. The retail banking sector in India has emerged as one of the major drivers of the overall banking industry and has witnessed enormous growth. Switching behaviour has a negative impact on the banks’ market share and profitability as the costs of acquiring customers are much higher than the costs of retaining. When customers switch, the business loses the potential for additional profits from the customer the initial costs invested in the customer by the business get . The Objective of the thesis was to examine the relationship among triggers that customers experience, their perceptions of service quality, consumers’ commitment and behavioral intentions in the contemporary India retail banking context through the eyes of the customer. To understand customers’ perception of these aspects, data were collected from retail banking customers alone for the purpose of analysis, though the banks’ views were considered during the qualitative work carried out prior to the main study. No respondent who is an employee of a banking organization was considered for the final study to avoid the possibility of any bias that could affect the results adversely. The data for the study were collected from customers who have switched banks and from those who were non switchers. The study attempted to develop and validate a multidimensional construct of service quality for retail banking from the consumer’s perspective. A major conclusion from the empirical research was the confirmation of the multidimensional construct for perceived service quality in the banking context. Switching can be viewed as an optimization problem for customers; customers review the potential gains of switching to another service provider against the costs of leaving the service provider. As banks do not provide tangible products, their service quality is usually assessed through service provider’s relationship with customers. Thus, banks should pay attention towards their employees’ skills and knowledge; assessing customers’ needs and offering fast and efficient services.
Resumo:
Thermoaktive Bauteilsysteme sind Bauteile, die als Teil der Raumumschließungsflächen über ein integriertes Rohrsystem mit einem Heiz- oder Kühlmedium beaufschlagt werden können und so die Beheizung oder Kühlung des Raumes ermöglichen. Die Konstruktionenvielfalt reicht nach diesem Verständnis von Heiz, bzw. Kühldecken über Geschoßtrenndecken mit kern-integrierten Rohren bis hin zu den Fußbodenheizungen. Die darin enthaltenen extrem trägen Systeme werden bewußt eingesetzt, um Energieangebot und Raumenergiebedarf unter dem Aspekt der rationellen Energieanwendung zeitlich zu entkoppeln, z. B. aktive Bauteilkühlung in der Nacht, passive Raumkühlung über das kühle Bauteil am Tage. Gebäude- und Anlagenkonzepte, die träge reagierende thermoaktive Bauteilsysteme vorsehen, setzen im kompetenten und verantwortungsvollen Planungsprozeß den Einsatz moderner Gebäudesimulationswerkzeuge voraus, um fundierte Aussagen über Behaglichkeit und Energiebedarf treffen zu können. Die thermoaktiven Bauteilsysteme werden innerhalb dieser Werkzeuge durch Berechnungskomponenten repräsentiert, die auf mathematisch-physikalischen Modellen basieren und zur Lösung des bauteilimmanenten mehrdimensionalen instationären Wärmeleitungsproblems dienen. Bisher standen hierfür zwei unterschiedliche prinzipielle Vorgehensweisen zur Lösung zur Verfügung, die der physikalischen Modellbildung entstammen und Grenzen bzgl. abbildbarer Geometrie oder Rechengeschwindigkeit setzen. Die vorliegende Arbeit dokumentiert eine neue Herangehensweise, die als experimentelle Modellbildung bezeichnet wird. Über den Weg der Systemidentifikation können aus experimentell ermittelten Datenreihen die Parameter für ein kompaktes Black-Box-Modell bestimmt werden, das das Eingangs-Ausgangsverhalten des zugehörigen beliebig aufgebauten thermoaktiven Bauteils mit hinreichender Genauigkeit widergibt. Die Meßdatenreihen lassen sich über hochgenaue Berechnungen generieren, die auf Grund ihrer Detailtreue für den unmittelbaren Einsatz in der Gebäudesimulation ungeeignet wären. Die Anwendung der Systemidentifikation auf das zweidimensionale Wärmeleitungsproblem und der Nachweis ihrer Eignung wird an Hand von sechs sehr unterschiedlichen Aufbauten thermoaktiver Bauteilsysteme durchgeführt und bestätigt sehr geringe Temperatur- und Energiebilanzfehler. Vergleiche zwischen via Systemidentifikation ermittelten Black-Box-Modellen und physikalischen Modellen für zwei Fußbodenkonstruktionen zeigen, daß erstgenannte auch als Referenz für Genauigkeitsabschätzungen herangezogen werden können. Die Praktikabilität des neuen Modellierungsansatzes wird an Fallstudien demonstriert, die Ganzjahressimulationen unter Bauteil- und Betriebsvariationen an einem exemplarischen Büroraum betreffen. Dazu erfolgt die Integration des Black-Box-Modells in das kommerzielle Gebäude- und Anlagensimulationsprogramm CARNOT. Die akzeptablen Rechenzeiten für ein Einzonen-Gebäudemodell in Verbindung mit den hohen Genauigkeiten bescheinigen die Eignung der neuen Modellierungsweise.
Resumo:
Die Arbeit analysiert die Gründe, die erst zur Golfkrise führten und dann zum darauf folgenden Golfkrieg. Es geht diesbezüglich darum festzustellen, ob die damalige US Regierung unter George Bush, die Invasion Kuwaits zum Ausbau der US-amerikanischen Hegemonie nicht nur in der Golfregion ausnutzte, sondern ob sie die Invasion begünstigte oder sogar provozierte, um als Hegemon in den internationalen Beziehungen herrschen zu können. Aus Sicht der internationalen Mächte Konstellation ergab sich 1990, nach dem Fall der Berliner Mauer (1989) und letztendlich mit der Disintegration der Sowjet Union 1991, für die USA die Gelegenheit ohne großes realpolitisches Risiko einen Krieg in einer Region zu entfachen, mit dem sie als Sieger sich die Rohstoffe (Ö l, 2/3 der bekannten Welt Ö lreserven, ect) der Golfregion aneignen könnten. Ferner würde eine Dominanz über diese Region, die als geostrategisch äuß erst wichtig gilt ihren Status als Hegemon weiter ausbauen. Um die Entwicklung der US Hegemonie zu eruieren werden kurz weitere Stationen, nach dem Golfkrieg 1991, durchleuchtet: wie z.B. der Kosovo-Krieg 1999, der 11.9.2001, der Afghanistan Krieg 2001 & der 3. Golfkrieg der USA 2003. Theoretisch wird vor allem die Hegemonietheorie auf ihre Stärken und ggf. Schwächen, in Bezug auf den 2. Golfkrieg untersucht, um zu sehen ob sie nicht nur eine Erklärung für den Krieg abgeben kann, sondern auch ob sie den weiteren Verlauf der US Auß enpolitik eruieren kann. Der empirische Teil besteht größt enteils aus der diplomatischen Geschichte zwischen den Hauptakteuren Irak, USA, Kuwait, ect. Ö konomische Aspekte kommen vor allem bei der Analyse über die Auswirkung der damaligen (US) Rezession von 1990 zu Geltung und in wiefern diese die Golfkrise und den drauf folgenden Krieg beeinfluß ten. Gegen Ende der Arbeit werden die theoretischen und die empirischen Daten nochmals auf ihre Koherenz untersucht, um ein in sich geschlossenes Gesamtbild des 2. Golfkriegs und die darauf folgende US Auß enpolitik abzugeben.
Resumo:
In der vorliegenden Dissertation geht es um die Dokumentation, theoretische Begründung und Auswertung des in 25 Jahren Praxis entwickelten Curriculums der Bewusstseinsschulung und -weitung der Orgodynamik. Dabei geht es insbesondere um den Vergleich und die forschungsorientierte Verknüpfung verschiedener Traditionen der Bewusstseinsbildung, der ihnen zugrunde liegenden Konzepte und anthropologischen Dimensionen im Schnittfeld pädagogischer, psychologischer und spiritueller Perspektiven. In Anlehnung an das von Fuhr/Dauber (2002) entwickelte Modell, der Praxisentwicklungsforschung, welche die Verflechtung von Theorie und Praxis ansteuert, wird der orgodynamische Ansatz wissenschaftlich dokumentiert und theoretisch begründet. Über eine induktive Vorgehensweise werden die historischen Wurzeln konzeptionell dargelegt, die verborgenen Paradigmen herausgearbeitet, sowie das Curriculum erläutert und ausgewertet. In einem ersten theorieorientierten Kapitel wird das orgodynamische Methodenspektrum in seinem Grundmodell und den vier zentralen Dimensionen (mentale, körperliche, emotionale, energetische Dimension) aufgezeigt und mit theoretischen Hintergrundkonzepten verglichen und verknüpft. Die vier sich überlappenden Methodengruppen der mental, körperlich, emotional und energetisch orientierten Bewusstseinsarbeit werden differenziert dargestellt und in ihrer Beziehung zueinander diskutiert. Anhand eines Modells (Methodenrad) wird die multi-dimensionale Perspektive des Methodenspektrums, in einer nichthierarchischen Zuordnung sichtbar. Im zweiten theorieorientierten Hauptteil werden zunächst die zentralen vier Paradigmen der Orgodynamik (Präsenz, Multidimensionalität, Flow/Fließendes Gewahrsein, Bezogenheit) vorgestellt, theoretisch und praxisbezogen entfaltet und in einer Paradigmen-Landkarte zueinander in Beziehung gesetzt. Dabei werden die kategorialen Ausführungen durchgehend an Praxisbeispielen veranschaulicht und im Blick auf drei vorgestellte Zugänge zur Bewusstseinsweitung (Immersion, Integration und Dekonstruktion) exemplarisch didaktisch kommentiert. Im dritten Hauptteil wird das Curriculum im Zusammenhang mit einer Auswertungsmatrix erläutert. Diese dient als Überprüfungsinstrument. Mit ihrer Hilfe werden die verschiedenen methodischen Zugangsweisen und Arbeitsformen dieses Ansatzes, exemplarisch anhand von 2 Ausbildungswochen, im Blick der Multidimensionalität dokumentiert. Damit wird diese multidimensional angelegte Praxis exemplarisch bis in methodische Details nachvollziehbar und in dialogisch-selbstreflexiver Form überprüfbar. Exemplarisch werden in einem Exkurs erste Itemvorschläge gemacht, welche die wissenschaftliche Anschlussfähigkeit an neuere Forschung im transpersonalen Bereich aufzeigen. Das innere Anliegen der vorliegenden Arbeit zeigt in der Verschränkung von Theorie und Praxis, dass die Paradigmen der Orgodynamik, Präsenz, Multidimensionalität, fließendes Gewahrsein und bewusste Bezogenheit vier pädagogisch umgesetzte Paradigmen für eine Bewusstseinserforschung in der Erwachsenenbildung sind. Stichworte: Multidimensional, Bewusstseinserforschung, Bewusstseinsweite, Präsenz, bewusste Bezogenheit, Flow/Fließendes Gewahrsein, das „Größere“, Immersion, Integration, Dekonstruktion, pädagogische Paradigmen, Erwachsenenbildung, Multidimensionales Methodenspektrum, Orgodynamik, Körpertherapie. ---------------------------
Resumo:
Mit der vorliegenden Arbeit soll ein Beitrag zu einer (empirisch) gehaltvollen Mikrofundierung des Innovationsgeschehens im Rahmen einer evolutorischen Perspektive geleistet werden. Der verhaltensbezogene Schwerpunkt ist dabei, in unterschiedlichem Ausmaß, auf das Akteurs- und Innovationsmodell von Herbert Simon bzw. der Carnegie-School ausgerichtet und ergänzt, spezifiziert und erweitert dieses unter anderem um vertiefende Befunde der Kreativitäts- und Kognitionsforschung bzw. der Psychologie und der Vertrauensforschung sowie auch der modernen Innovationsforschung. zudem Bezug auf einen gesellschaftlich und ökonomisch relevanten Gegenstandsbereich der Innovation, die Umweltinnovation. Die Arbeit ist sowohl konzeptionell als auch empirisch ausgerichtet, zudem findet die Methode der Computersimulation in Form zweier Multi-Agentensysteme Anwendung. Als zusammenfassendes Ergebnis lässt sich im Allgemeinen festhalten, dass Innovationen als hochprekäre Prozesse anzusehen sind, welche auf einer Verbindung von spezifischen Akteursmerkmalen, Akteurskonstellationen und Umfeldbedingungen beruhen, Iterationsschleifen unterliegen (u.a. durch Lernen, Rückkoppelungen und Aufbau von Vertrauen) und Teil eines umfassenderen Handlungs- sowie (im Falle von Unternehmen) Organisationskontextes sind. Das Akteurshandeln und die Interaktion von Akteuren sind dabei Ausgangspunkt für Emergenzen auf der Meso- und der Makroebene. Die Ergebnisse der Analysen der in dieser Arbeit enthaltenen fünf Fachbeiträge zeigen im Speziellen, dass der Ansatz von Herbert Simon bzw. der Carnegie-School eine geeignete theoretische Grundlage zur Erfassung einer prozessorientierten Mikrofundierung des Gegenstandsbereichs der Innovation darstellt und – bei geeigneter Ergänzung und Adaption an den jeweiligen Erkenntnisgegenstand – eine differenzierte Betrachtung unterschiedlicher Arten von Innovationsprozessen und deren akteursbasierten Grundlagen sowohl auf der individuellen Ebene als auch auf Ebene von Unternehmen ermöglicht. Zudem wird deutlich, dass der Ansatz von Herbert Simon bzw. der Carnegie-School mit dem Initiationsmodell einen zusätzlichen Aspekt in die Diskussion einbringt, welcher bislang wenig Aufmerksamkeit fand, jedoch konstitutiv für eine ökonomische Perspektive ist: die Analyse der Bestimmungsgrößen (und des Prozesses) der Entscheidung zur Innovation. Denn auch wenn das Verständnis der Prozesse bzw. der Determinanten der Erstellung, Umsetzung und Diffusion von Innovationen von grundlegender Bedeutung ist, ist letztendlich die Frage, warum und unter welchen Umständen Akteure sich für Innovationen entscheiden, ein zentraler Kernbereich einer ökonomischen Betrachtung. Die Ergebnisse der Arbeit sind auch für die praktische Wirtschaftspolitik von Bedeutung, insbesondere mit Blick auf Innovationsprozesse und Umweltwirkungen.
Resumo:
This study uses data from a sample survey of 200 households drawn from a mountainous commune in Vietnam’s North Central Coast region to measure and explain relative poverty. Principal components analysis is used to construct a multidimensional index of poverty outcomes from variables measuring household income and the value of domestic assets. This index of poverty is then regressed on likely causes of poverty including different forms of resource endowment and social exclusion defined by gender and ethnicity. The ordinary least squares estimates indicate that poverty is indeed influenced by ethnicity, partly through its interaction with social capital. However, poverty is most strongly affected by differences in human and social capital. Differences in the amount of livestock and high quality farmland owned also matter. Thai households are poorer than their Kinh counterparts even when endowed with the same levels of human, social, physical and natural capital considered in the study. This empirical result provides a rationale for further research on the causal relationship between ethnicity and poverty outcomes.
Resumo:
Almost all Latin American countries are still marked by extreme forms of social inequality – and to an extent, this seems to be the case regardless of national differences in the economic development model or the strength of democracy and the welfare state. Recent research highlights the fact that the heterogeneous labour markets in the region are a key source of inequality. At the same time, there is a strengthening of ‘exclusive’ social policy, which is located at the fault lines of the labour market and is constantly (re-)producing market-mediated disparities. In the last three decades, this type of social policy has even enjoyed democratic legitimacy. These dynamics challenge many of the assumptions guiding social policy and democratic theory, which often attempt to account for the specificities of the region by highlighting the purported flaws of certain policies. We suggest taking a different perspective: social policy in Latin American should not be grasped as a deficient or flawed type of social policy, but as a very successful relation of political domination. ‘Relational social analysis’ locates social policy in the ‘tension zone’ constituted by the requirements of economic reproduction, demands for democratic legitimacy and the relative autonomy of the state. From this vantage point, we will make the relation of domination in question accessible for empirical research. It seems particularly useful for this purpose to examine the recent shifts in the Latin American labour markets, which have undergone numerous reforms. We will examine which mechanisms, institutions and constellations of actors block or activate the potentials of redistribution inherent in such processes of political reform. This will enable us to explore the socio-political field of forces that has been perpetuating the social inequalities in Latin America for generations.
Resumo:
This thesis develops an approach to the construction of multidimensional stochastic models for intelligent systems exploring an underwater environment. It describes methods for building models by a three- dimensional spatial decomposition of stochastic, multisensor feature vectors. New sensor information is incrementally incorporated into the model by stochastic backprojection. Error and ambiguity are explicitly accounted for by blurring a spatial projection of remote sensor data before incorporation. The stochastic models can be used to derive surface maps or other representations of the environment. The methods are demonstrated on data sets from multibeam bathymetric surveying, towed sidescan bathymetry, towed sidescan acoustic imagery, and high-resolution scanning sonar aboard a remotely operated vehicle.
Resumo:
We present a new method for rendering novel images of flexible 3D objects from a small number of example images in correspondence. The strength of the method is the ability to synthesize images whose viewing position is significantly far away from the viewing cone of the example images ("view extrapolation"), yet without ever modeling the 3D structure of the scene. The method relies on synthesizing a chain of "trilinear tensors" that governs the warping function from the example images to the novel image, together with a multi-dimensional interpolation function that synthesizes the non-rigid motions of the viewed object from the virtual camera position. We show that two closely spaced example images alone are sufficient in practice to synthesize a significant viewing cone, thus demonstrating the ability of representing an object by a relatively small number of model images --- for the purpose of cheap and fast viewers that can run on standard hardware.
Resumo:
Realizar un estudio de las propiedades psicométricas del test de Boehm de Conceptos Básicos (BTBC) a partir de las respuestas emitidas por escolares asturianos. 153 alumnos de Preescolar-1, 136 de Preescolar-2 y 205 de primero de EGB del Principado de Asturias, distribuidos en función del sexo y la clase social. Muestreo aleatorio estratificado con afijación proporcional dentro de la población escolar. Cálculo de los coeficientes de fiabilidad, validez e indices de dificultad y discriminación. Baremación de la prueba para la población asturiana. Para cada uno de los análisis se toma individualmente los tres grupos resultantes de los niveles escolares a los que pertenecen los sujetos de la muestra, pretendiendo con ello observar el comportamiento del test en cada grupo de edad. BTBC, WIPPSI, WIC y test de matrices progresivas de colores de Raven. Calificación académica en Lenguaje. La fiabilidad se calculó por tres métodos: dos mitades, alpha de Cronbach y zeta de Carmines. La validez se calculó por medio de correlaciones con otros tests y el análisis de componentes principales. Fiabilidad: para los dos grupos de Preescolar, los coeficientes son relativamente altos en todos los casos, produciéndose una baja significativa en el grupo de primero de EGB; también se observa que los resultados alcanzados son levemente inferiores a los aportados en el manual de la versión castellana. Validez: el test tiene una aceptable relación con las pruebas elegidas como criterio y con la calificación en lenguaje; se corrobora que el BTBC es un test multidimensional. Dificultad y discriminación: en la primera mitad los índices de dificultad son muy altos, de los que se derivan unos niveles de discriminación muy bajos para la mayor parte de los ítems; la segunda parte del test tiene unos índices de dificultad con valores más bajos y la discriminación mejora; al mismo tiempo, los resultados indican que los ítems aun cuando presentan una diferenciación en dificultad entre los correspondientes a la primera y segunda mitad, no mantienen un riguroso orden de dificultad creciente. Baremación: los datos obtenidos indican la necesidad de que se realice una unica baremación para todos los sujetos en los dos cursos de Preescolar y tres baremaciones, según los tres niveles de clase social, para el primer curso de EGB. En términos generales, se concluye que los valores obtenidos en los diferentes análisis caen dentro de niveles 'razonablemente' aceptables, no pudiendo olvidar nunca las especiales características de esta prueba.
Resumo:
Pretende identificar en una muestra determinada de poblaci??n escolar, los siguientes aspectos supuestamente existentes: identificaci??n de tipolog??as de personalidad modales multidimensionales; incidencia positiva y negativa de las mismas en el rendimiento acad??mico. 965 sujetos clasificados por edades (8-10 a??os), zonas y sexo. Todos alumnos de tercero y quinto de EGB de colegios asturianos. La parte te??rica abarca el concepto de tipo modal multidimensional, paradigma, modelos y teor??as; el concepto de rendimiento acad??mico, m??todos de evaluaci??n, fracaso escolar y medici??n del rendimiento y variables que inciden en el rendimiento. Se efect??a una revisi??n de las investigaciones realizadas en torno a tipolog??as. Variables relacionales: variables de personalidad y rendimiento acad??mico. Variables moduladoras: edad y sexo. Variable controlada: variables aptitudinales. Bases de datos de documentaci??n bibliogr??fica internacionales. Cuestionario de personalidad para ni??os de R.B. Porter y R.B. Cattell. Tests de aptitudes escolares de L.L. Thurstone y T.G. Thurstone. Resultados acad??micos referidos a la evaluaci??n inmediata tras la aplicaci??n de las pruebas. An??lisis de estad??sticos b??sicos para verificar la homogeneidad de la muestra y, a trav??s de los an??lisis correlacional y factorial, obtener la procedencia de los posteriores an??lisis de Cluster y discriminante. An??lisis de conglomerados que permitieron la obtenci??n de las tipolog??as una vez dividida la muestra en 4 subgrupos en funci??n del sexo y la edad. An??lisis discriminante para observar la incidencia de las variables de personalidad y aptitud sobre el rendimiento acad??mico. Tres son las variables que conforman el tipo dentro de cada una de las 4 submuestras, cada una de ellas repartida en 6 tipolog??as: en el grupo de ni??as de tercero de EGB las variables de personalidad que m??s discriminan entre los tipos son m??s o menos integrado, seguro-dubitativo, emocionalmente afectado-estable; en el grupo de ni??as de quinto de EGB las variables de personalidad que m??s discriminan son reservado-abierto, emocionalmente afectado-estable, sereno-aprensivo; en el grupo de ni??os de tercero de EGB son inteligencia baja-alta, relajado-tenso y sereno-aprensivo; en el grupo de ni??os de quinto de EGB son inteligencia baja-alta, menos-m??s integrado y sencillo-astuto. Se observan algunas coincidencias entre los diferentes grupos. Las variables que predicen buenos rendimientos en cada una de las asignaturas son las siguientes. En Lenguaje: inteligente, abierto, integrado, sobrio y sencilo; en Matem??ticas: inteligente, abierto, palabra diferente, integrado y sencillo; en Naturales: inteligente, palabra diferente, abierto, consciente y sencillo; y en Sociales: inteligente, abierto, sencillo, integrado y consciente.
Resumo:
a)Valorar la capacidad funcional de las personas con discapacidad intelectual entre los 40 y 60 años de edad; b)Ayudar a las personas mayores con discapacidad intelectual a conocer su propia Calidad de Vida; c) Relacionar la valoración funcional con los Estilos de Vida. 31 personas que pertenecen a 9 centros/asociaciones del Principado de Asturias entre 43 y 61 años de edad. El perfil funcional de cada persona fue elaborado a través de una recogida de datos sobre la valoración funcional de las necesidades de apoyo, utilizando como instrumento una adaptación propia del Resident Assesmente Instrument Nursing Home 2.0 (RAI-NH 2.0), protocolo de valoración y recogida de información socio-sanitaria. En su conjunto el RAI se caracteriza por ser un instrumento de evaluación que integra de forma multidimensional las valoraciones en las distintas áreas que repercuten directamente en el nivel de Dependencia y Calidad de Vida. El tratamiento de la información obtenida constituye un potencial para influir en las propuestas de intervención dadas las necesidades manifestadas por las propias personas mayores. Como técnicas de recogida de información se utilizaron: entrevistas en profundidad semiestructuradas, observación directa intensiva realizada por expertos, estudio de casos desde una perspectiva interpretativa de diseño multicaso basada en el modelo de descripción de situaciones y propuestas de toma de decisiones. Pueden destacarse, entre otras, las siguientes conclusiones: a) Las necesidades son valoradas como áreas de prioridad y elementos determinantes de la calidad de vida y del bienestar. Estas necesidades deben ser abordadas con el objetivo de promover estrategias y orientaciones que garanticen y aseguren un estado de autonomía física, psíquica y social para la realización de diversas actividades de la vida cotidiana; b) La pérdida de la autonomía en el proceso de envejecimiento de las personas con discapacidad intelectual es percibida como una amenaza para su independencia; c) Se percibe una variabilidad inter-grupos e intra-grupos en función de las discapacidad intelectual, la prioridad que dan a las necesidades y las preocupaciones percibidas, los apoyos de distinta tipología y la perspectiva de futuro adoptada; d) Se ve la necesidad de reforzar aquellas áreas que garanticen una vida independiente caracterizada por la autonomía y la autogestión; e) Existe una preocupación e interés por las medidas que se adopten en torno a necesidades de apoyo relacionadas con el área de salud, la autonomía e independencia en la vida cotidiana y social; f) La perspectiva de futuro es una necesidad de atención; g) Se identifica como amenaza el internamiento en una institución; h) Los profesionales manifiestan un interés personal y técnico en satisfacer las demandas expuestas por las personas con las que trabajan, de ahí, que exijan como necesidad prioritaria una formación continua en su trayectoria y más tiempo de atención a cada persona.
Resumo:
We propose to analyze shapes as “compositions” of distances in Aitchison geometry as an alternate and complementary tool to classical shape analysis, especially when size is non-informative. Shapes are typically described by the location of user-chosen landmarks. However the shape – considered as invariant under scaling, translation, mirroring and rotation – does not uniquely define the location of landmarks. A simple approach is to use distances of landmarks instead of the locations of landmarks them self. Distances are positive numbers defined up to joint scaling, a mathematical structure quite similar to compositions. The shape fixes only ratios of distances. Perturbations correspond to relative changes of the size of subshapes and of aspect ratios. The power transform increases the expression of the shape by increasing distance ratios. In analogy to the subcompositional consistency, results should not depend too much on the choice of distances, because different subsets of the pairwise distances of landmarks uniquely define the shape. Various compositional analysis tools can be applied to sets of distances directly or after minor modifications concerning the singularity of the covariance matrix and yield results with direct interpretations in terms of shape changes. The remaining problem is that not all sets of distances correspond to a valid shape. Nevertheless interpolated or predicted shapes can be backtransformated by multidimensional scaling (when all pairwise distances are used) or free geodetic adjustment (when sufficiently many distances are used)