840 resultados para operational reliability
Resumo:
The technical improvement and new applications of Infrared Thermography (IRT) with healthy subjects should be accompanied by results about the reproducibility of IRT measurements in different popula-tion groups. In addition, there is a remarkable necessity of a larger supply on software to analyze IRT images of human beings. Therefore, the objectives of this study were: firstly, to investigate the reproducibility of skin temperature (Tsk) on overweight and obese subjects using IRT in different Regions of Interest (ROI), moments and side-to-side differences (?T); and secondly, to check the reliability of a new software called Termotracker®, specialized on the analysis of IRT images of human beings. Methods: 22 overweight and obese males (11) and females (11) (age: 41,51±7,76 years; height: 1,65±0,09 m; weight: 82,41±11,81 Kg; BMI: 30,17±2,58 kg/m²) were assessed in two consecutive thermograms (5 seconds in-between) by the same observer, using an infrared camera (FLIR T335, Sweden) to get 4 IRT images from the whole body. 11 ROI were selected using Termotracker® to analyze its reproducibility and reliability through Intra-class Correlation Coefficient (ICC) and Coefficient of Variation (CV) values. Results: The reproducibility of the side-to-side differences (?T) between two consecutive thermograms was very high in all ROIs (Mean ICC = 0,989), and excellent between two computers (Mean ICC = 0,998). The re-liability of the software was very high in all the ROIs (Mean ICC = 0,999). Intraexaminer reliability analysing the same subjects in two consecutive thermograms was also very high (Mean ICC = 0,997). CV values of the different ROIs were around 2%. Conclusions: Skin temperature on overweight subjects had an excellent reproducibility for consecutive ther-mograms. The reproducibility of thermal asymmetries (?T) was also good but it had the influence of several factors that should be further investigated. Termotracker® reached excellent reliability results and it is a relia-ble and objective software to analyse IRT images of humans beings.
Resumo:
The PVCROPS project (PhotoVolta ic Cost r€duction, Reliability, Operational performance, Prediction and Simulation), cofinanced by European Commission in the frame of Seventh Framework Programme, has compiled in the “Good and bad practices: Manual to improve the quality and reduce the cost of PV systems” a collection of good and bad practices in actual PV plants . All the situations it collects represent the state-of-the-art of existing PV installations all around Europe. They show how the different parts of an installation can be implem ented properly or not. The aim of this manual is to represent a reference text which can help any PV actor (installers, electricians, maintenance operators, owners, etc.) not only to check and improve an already existing installation but will also, and mainly, avoid the previously known bad practices for the construction of a new PV installation. Thus, solving a priori the known errors, new PV installations will be more reliable, efficient and cost-effective and can recover the initial investment in a shorter time. The manual is going to be free available in the PVCROPS website in several languages.
Deriving the full-reducing Krivine machine from the small-step operational semantics of normal order
Resumo:
We derive by program transformation Pierre Crégut s full-reducing Krivine machine KN from the structural operational semantics of the normal order reduction strategy in a closure-converted pure lambda calculus. We thus establish the correspondence between the strategy and the machine, and showcase our technique for deriving full-reducing abstract machines. Actually, the machine we obtain is a slightly optimised version that can work with open terms and may be used in implementations of proof assistants.
Resumo:
ABSTRACT Evaluating the reliability, warranty period, and power degradation of high concentration solar cells is crucial to introducing this new technology to the market. The reliability of high concentration GaAs solar cells, as measured in temperature accelerated life tests, is described in this paper. GaAs cells were tested under high thermal accelerated conditions that emulated operation under 700 or 1050 suns over a period exceeding 10 000 h. Progressive power degradation was observed, although no catastrophic failures occurred. An Arrhenius activation energy of 1.02 eV was determined from these tests. The solar cell reliability [R(t)] under working conditions of 65°C was evaluated for different failure limits (1–10% power loss). From this reliability function, the mean time to failure and the warranty time were evaluated. Solar cell temperature appeared to be the primary determinant of reliability and warranty period, with concentration being the secondary determinant. A 30-year warranty for these 1 mm2-sized GaAs cells (manufactured according to a light emitting diode-like approach) may be offered for both cell concentrations (700 and 1050 suns) if the solar cell is operated at a working temperature of 65°C.
Resumo:
This paper presents an assessment and evaluation of the costs of operation and maintenance (O&M) in a real PV rural electrification (PVRE) programme, with the aim of characterizing its costs structure. Based on the extracted data of the 5-years operational costs of a private operator, the programme has been analyzed to take out the most relevant costs involved in the O&M phase as well as the comparative appraisal between the 3 main activities: installation, O&M and management. Through this study we try to answer to the new challenge of decentralized rural electrification based on larger programmes (with tens of thousands of SHSs) and longer maintenance and operation periods (at least 10 years).
Resumo:
Esta tesis estudia la reducción plena (‘full reduction’ en inglés) en distintos cálculos lambda. 1 En esencia, la reducción plena consiste en evaluar los cuerpos de las funciones en los lenguajes de programación funcional con ligaduras. Se toma el cálculo lambda clásico (i.e., puro y sin tipos) como el sistema formal que modela el paradigma de programación funcional. La reducción plena es una técnica fundamental cuando se considera a los programas como datos, por ejemplo para la optimización de programas mediante evaluación parcial, o cuando algún atributo del programa se representa a su vez por un programa, como el tipo en los demostradores automáticos de teoremas actuales. Muchas semánticas operacionales que realizan reducción plena tienen naturaleza híbrida. Se introduce formalmente la noción de naturaleza híbrida, que constituye el hilo conductor de todo el trabajo. En el cálculo lambda la naturaleza híbrida se manifiesta como una ‘distinción de fase’ en el tratamiento de las abstracciones, ya sean consideradas desde fuera o desde dentro de si mismas. Esta distinción de fase conlleva una estructura en capas en la que una semántica híbrida depende de una o más semánticas subsidiarias. Desde el punto de vista de los lenguajes de programación, la tesis muestra como derivar, mediante técnicas de transformación de programas, implementaciones de semánticas operacionales que reducen plenamente a partir de sus especificaciones. Las técnicas de transformación de programas consisten en transformaciones sintácticas que preservan la equivalencia semántica de los programas. Se ajustan las técnicas de transformación de programas existentes para trabajar con implementaciones de semánticas híbridas. Además, se muestra el impacto que tiene la reducción plena en las implementaciones que utilizan entornos. Los entornos son un ingrediente fundamental en las implementaciones realistas de una máquina abstracta. Desde el punto de vista de los sistemas formales, la tesis desvela una teoría novedosa para el cálculo lambda con paso por valor (‘call-by-value lambda calculus’ en inglés) que es consistente con la reducción plena. Dicha teoría induce una noción de equivalencia observacional que distingue más puntos que las teorías existentes para dicho cálculo. Esta contribución ayuda a establecer una ‘teoría estándar’ en el cálculo lambda con paso por valor que es análoga a la ‘teoría estándar’ del cálculo lambda clásico propugnada por Barendregt. Se presentan resultados de teoría de la demostración, y se sugiere como abordar el estudio de teoría de modelos. ABSTRACT This thesis studies full reduction in lambda calculi. In a nutshell, full reduction consists in evaluating the body of the functions in a functional programming language with binders. The classical (i.e., pure untyped) lambda calculus is set as the formal system that models the functional paradigm. Full reduction is a prominent technique when programs are treated as data objects, for instance when performing optimisations by partial evaluation, or when some attribute of the program is represented by a program itself, like the type in modern proof assistants. A notable feature of many full-reducing operational semantics is its hybrid nature, which is introduced and which constitutes the guiding theme of the thesis. In the lambda calculus, the hybrid nature amounts to a ‘phase distinction’ in the treatment of abstractions when considered either from outside or from inside themselves. This distinction entails a layered structure in which a hybrid semantics depends on one or more subsidiary semantics. From a programming languages standpoint, the thesis shows how to derive implementations of full-reducing operational semantics from their specifications, by using program transformations techniques. The program transformation techniques are syntactical transformations which preserve the semantic equivalence of programs. The existing program transformation techniques are adjusted to work with implementations of hybrid semantics. The thesis also shows how full reduction impacts the implementations that use the environment technique. The environment technique is a key ingredient of real-world implementations of abstract machines which helps to circumvent the issue with binders. From a formal systems standpoint, the thesis discloses a novel consistent theory for the call-by-value variant of the lambda calculus which accounts for full reduction. This novel theory entails a notion of observational equivalence which distinguishes more points than other existing theories for the call-by-value lambda calculus. This contribution helps to establish a ‘standard theory’ in that calculus which constitutes the analogous of the ‘standard theory’ advocated by Barendregt in the classical lambda calculus. Some prooftheoretical results are presented, and insights on the model-theoretical study are given.
Resumo:
El desarrollo de actividades de carga y descarga son parte de la esencia de la naturaleza funcional de un puerto, de las cuales derivan en gran medida los ingresos del mismo y la eficiencia de la cadena logística en su conjunto. Las oscilaciones en el interior de una dársena y en un línea de atraque disminuyen la calidad de la estancia de las embarcaciones en puerto, reducen el rendimiento de la estiba de los buques y solicitan y fatigan las estructuras y los cuerpos flotantes amarrados. Si los parámetros que definen la agitación local se aproximan a regiones de fallo 0 parada, el subsistema pierde rendimiento, fiabilidad y finalmente se paralizan las operaciones, produciéndose de este modo tiempos de inactividad. Estas paradas operativas conllevan pérdidas económicas para la terminal y, consecuentemente, para el puerto. Hoy día se dispone vastas redes de monitorización destinadas a la caracterización del medio físico en el entorno de los puertos. Paralelamente, las operaciones de manipulación de cargas en las terminales se están dirigiendo hacia modelos de automatización o semi automatización, que permiten no sólo la sistematización de procesos, sino también un profundo conocimiento del flujo de tareas. En este contexto hay un déficit de información sobre cómo afectan los diferentes forzadores del medio físico al rendimiento, la seguridad funcionalidad del proceso de manipulación de carga y descarga. Esto se debe en gran medida a la falta de registros dilatados en el tiempo que permitan correlacionar todos los aspectos mencionados de un modo particularizado para cada línea de atraque y amarre de un puerto. En esta tesis se desarrolla una metodología de vídeo monitorización no intrusiva y de bajo coste basada en la aplicación de técnicas "pixel tool' y la obtención de los parámetros extrínsecos de una observación monofocal. Con ello pretende poner en valor las infraestructuras de vídeo vigilancia de los puertos y de los laboratorios de experimentación a escala reducida, con el objeto de facilitar el estudio los umbrales operativos de las áreas de atraque y amarre. The development of loading and unloading activities is an essential part of he functional nature of a port, which derive largely from he same income and the efficiency of he supply chain as a whole. The oscillations inside a dock and a mooring line diminish he quality of the stay of vessels in port reducing the performance of the stowage of ship and asking and fatigued structures and moored floating bodies. If the parameters defining the local al agitation regions are close to areas of failure or shutdown, he subsystem looses performance, reliability and eventually paralyzes the operations, thereby producing downtime. These operational stops entail economic 1osses to the terminal and, consequently for the port. Today vast networks of monitoring, aimed at he characterization of the physical environment in the vicinity of he ports, are available. In parallel, the cargo handling operations at terminals are moving towards automation or semi-automation models that allow not only the systematization of processes, but also a deep understanding of he workflow. In this context, there is a lack of information about how the different forcing agents of the physical environment affect the performance and he functional safety of the loading and unloading process. This is due largely to the lack of spread-over-time records which would allow to correlate all aspects mentioned, specifically, for each berthing and mooring of a port. This thesis develops a methodology for non-intrusive and low cost monitoring video based on the application of "pixel tool" techniques and on obtaining the extrinsic parameters of a monofocal observation. It seeks an enhancement of the video monitoring infrastructure at ports and at experimental laboratories of reduced scale, in order to facilitate the study of operational thresholds berthing and mooring areas.
Resumo:
La presente tesis aborda el estudio de los distintos regímenes de neutro de las instalaciones de baja tensión, comúnmente llamados sistemas de puesta a tierra, desde un doble punto de vista, con el objetivo final de establecer un estándar justificado para un posterior desarrollo normativo, y de diseño que facilite la operación y funcionamiento de la instalación eléctrica y de comunicaciones en los sistemas hospitalarios. En una primera parte de la tesis se detallará que aunque hay muchos estudios teórico-prácticos sobre la elección del régimen de neutro en base a criterios operativos y puramente eléctricos, criterios como seguridad frente a accidentes eléctricos, o en términos de disponibilidad, mantenimiento o fiabilidad, esas recomendaciones no se han trasladado de manera directa a la legislación española salvo en el caso de Salas de Intervención donde se obliga a un sistema IT. Por eso se justificará como una primera técnica correctora de un inadecuado funcionamiento electromagnético en Hospitales el establecer una propuesta de marco normativo donde se fijen los tipos de puesta a tierra en función del uso y tipología del edificio desde un punto de vista eléctrico Por otra parte, la influencia de los distintos regímenes de neutro en la transmisión de señales (compatibilidad magnética) no ha sido estudiada en toda su profundidad, no existiendo ni marco normativo obligado ni estudios en profundidad sobre estas afecciones. Por tanto y en una segunda parte de la tesis se propondrá como medida correctora para mejorar el funcionamiento electromagnético de un hospital qué el régimen de neutro TN-S es más respetuoso con el funcionamiento de los equipos de electromedicina que alberga en su interior, estableciendo así mismo una propuesta de norma que regule este diseño. En definitiva se justifica que es posible generar por diseño inicial de la red eléctrica, mediante un régimen de neutro TN-S, un contexto electromagnético óptimo para el funcionamiento del sistema hospitalario que no se logra con otras opciones contempladas en la normativa española. ABSTRACT This thesis deals with the study of various ground grid systems of low voltage installations, commonly called grounding systems, from two points of view, with the ultimate goal of establishing a standard justified from a policy perspective and design to facilitate the operation and functioning of the electrical system and hospital communications systems. In the first part of the thesis will be detailed that although there are many theoretical and practical studies on the choice of the neutral system based on operational criteria and purely electric, criteria such as safety against electrical accidents, or in terms of availability, maintenance and reliability, these recommendations have not been transferred directly to the Spanish legislation except in Intervention Rooms where a IT system is required. So be justified as a first corrective technique improper operation electromagnetic Hospitals proposal to establish a regulatory framework where ground types depending on the use and type of building are set from an electrical point of view . Moreover, the influence of the different regimes neutral signaling (magnetic compatibility) has not been studied in any depth, there being neither forced nor depth studies on these conditions regulatory framework. Thus in a second part of the thesis will be justified as a corrective measure to improve the electromagnetic performance of a hospital which the neutral TN-S is more respectful of the performance of medical electrical equipment housed in its interior, thus establishing same a proposed rule governing this design. Ultimately it is possible to generate justified by initial design of the grid, using a neutral system TN-S, electromagnetic optimal context for the operation of the hospital system is not achieved with other legal options in Spain.
Resumo:
This study analyses the differences between two calculation models for guardrails on building sites that use wooden boards and tubular steel posts. Wood was considered an isotropic material in one model and an orthotropic material in a second model. The elastic constants of the wood were obtained with ultrasound. Frequencies and vibration modes were obtained for both models through linear analysis using the finite element method. The two models were experimentally calibrated through operational modal analysis. The results obtained show that for the three types of wood under analysis, the model which considered them as an orthotropic material fitted the experimental results better than the model which considered them as an isotropic material.
Resumo:
La creciente complejidad, heterogeneidad y dinamismo inherente a las redes de telecomunicaciones, los sistemas distribuidos y los servicios avanzados de información y comunicación emergentes, así como el incremento de su criticidad e importancia estratégica, requieren la adopción de tecnologías cada vez más sofisticadas para su gestión, su coordinación y su integración por parte de los operadores de red, los proveedores de servicio y las empresas, como usuarios finales de los mismos, con el fin de garantizar niveles adecuados de funcionalidad, rendimiento y fiabilidad. Las estrategias de gestión adoptadas tradicionalmente adolecen de seguir modelos excesivamente estáticos y centralizados, con un elevado componente de supervisión y difícilmente escalables. La acuciante necesidad por flexibilizar esta gestión y hacerla a la vez más escalable y robusta, ha provocado en los últimos años un considerable interés por desarrollar nuevos paradigmas basados en modelos jerárquicos y distribuidos, como evolución natural de los primeros modelos jerárquicos débilmente distribuidos que sucedieron al paradigma centralizado. Se crean así nuevos modelos como son los basados en Gestión por Delegación, en el paradigma de código móvil, en las tecnologías de objetos distribuidos y en los servicios web. Estas alternativas se han mostrado enormemente robustas, flexibles y escalables frente a las estrategias tradicionales de gestión, pero continúan sin resolver aún muchos problemas. Las líneas actuales de investigación parten del hecho de que muchos problemas de robustez, escalabilidad y flexibilidad continúan sin ser resueltos por el paradigma jerárquico-distribuido, y abogan por la migración hacia un paradigma cooperativo fuertemente distribuido. Estas líneas tienen su germen en la Inteligencia Artificial Distribuida (DAI) y, más concretamente, en el paradigma de agentes autónomos y en los Sistemas Multi-agente (MAS). Todas ellas se perfilan en torno a un conjunto de objetivos que pueden resumirse en alcanzar un mayor grado de autonomía en la funcionalidad de la gestión y una mayor capacidad de autoconfiguración que resuelva los problemas de escalabilidad y la necesidad de supervisión presentes en los sistemas actuales, evolucionar hacia técnicas de control fuertemente distribuido y cooperativo guiado por la meta y dotar de una mayor riqueza semántica a los modelos de información. Cada vez más investigadores están empezando a utilizar agentes para la gestión de redes y sistemas distribuidos. Sin embargo, los límites establecidos en sus trabajos entre agentes móviles (que siguen el paradigma de código móvil) y agentes autónomos (que realmente siguen el paradigma cooperativo) resultan difusos. Muchos de estos trabajos se centran en la utilización de agentes móviles, lo cual, al igual que ocurría con las técnicas de código móvil comentadas anteriormente, les permite dotar de un mayor componente dinámico al concepto tradicional de Gestión por Delegación. Con ello se consigue flexibilizar la gestión, distribuir la lógica de gestión cerca de los datos y distribuir el control. Sin embargo se permanece en el paradigma jerárquico distribuido. Si bien continúa sin definirse aún una arquitectura de gestión fiel al paradigma cooperativo fuertemente distribuido, estas líneas de investigación han puesto de manifiesto serios problemas de adecuación en los modelos de información, comunicación y organizativo de las arquitecturas de gestión existentes. En este contexto, la tesis presenta un modelo de arquitectura para gestión holónica de sistemas y servicios distribuidos mediante sociedades de agentes autónomos, cuyos objetivos fundamentales son el incremento del grado de automatización asociado a las tareas de gestión, el aumento de la escalabilidad de las soluciones de gestión, soporte para delegación tanto por dominios como por macro-tareas, y un alto grado de interoperabilidad en entornos abiertos. A partir de estos objetivos se ha desarrollado un modelo de información formal de tipo semántico, basado en lógica descriptiva que permite un mayor grado de automatización en la gestión en base a la utilización de agentes autónomos racionales, capaces de razonar, inferir e integrar de forma dinámica conocimiento y servicios conceptualizados mediante el modelo CIM y formalizados a nivel semántico mediante lógica descriptiva. El modelo de información incluye además un “mapping” a nivel de meta-modelo de CIM al lenguaje de especificación de ontologías OWL, que supone un significativo avance en el área de la representación y el intercambio basado en XML de modelos y meta-información. A nivel de interacción, el modelo aporta un lenguaje de especificación formal de conversaciones entre agentes basado en la teoría de actos ilocucionales y aporta una semántica operacional para dicho lenguaje que facilita la labor de verificación de propiedades formales asociadas al protocolo de interacción. Se ha desarrollado también un modelo de organización holónico y orientado a roles cuyas principales características están alineadas con las demandadas por los servicios distribuidos emergentes e incluyen la ausencia de control central, capacidades de reestructuración dinámica, capacidades de cooperación, y facilidades de adaptación a diferentes culturas organizativas. El modelo incluye un submodelo normativo adecuado al carácter autónomo de los holones de gestión y basado en las lógicas modales deontológica y de acción.---ABSTRACT---The growing complexity, heterogeneity and dynamism inherent in telecommunications networks, distributed systems and the emerging advanced information and communication services, as well as their increased criticality and strategic importance, calls for the adoption of increasingly more sophisticated technologies for their management, coordination and integration by network operators, service providers and end-user companies to assure adequate levels of functionality, performance and reliability. The management strategies adopted traditionally follow models that are too static and centralised, have a high supervision component and are difficult to scale. The pressing need to flexibilise management and, at the same time, make it more scalable and robust recently led to a lot of interest in developing new paradigms based on hierarchical and distributed models, as a natural evolution from the first weakly distributed hierarchical models that succeeded the centralised paradigm. Thus new models based on management by delegation, the mobile code paradigm, distributed objects and web services came into being. These alternatives have turned out to be enormously robust, flexible and scalable as compared with the traditional management strategies. However, many problems still remain to be solved. Current research lines assume that the distributed hierarchical paradigm has as yet failed to solve many of the problems related to robustness, scalability and flexibility and advocate migration towards a strongly distributed cooperative paradigm. These lines of research were spawned by Distributed Artificial Intelligence (DAI) and, specifically, the autonomous agent paradigm and Multi-Agent Systems (MAS). They all revolve around a series of objectives, which can be summarised as achieving greater management functionality autonomy and a greater self-configuration capability, which solves the problems of scalability and the need for supervision that plague current systems, evolving towards strongly distributed and goal-driven cooperative control techniques and semantically enhancing information models. More and more researchers are starting to use agents for network and distributed systems management. However, the boundaries established in their work between mobile agents (that follow the mobile code paradigm) and autonomous agents (that really follow the cooperative paradigm) are fuzzy. Many of these approximations focus on the use of mobile agents, which, as was the case with the above-mentioned mobile code techniques, means that they can inject more dynamism into the traditional concept of management by delegation. Accordingly, they are able to flexibilise management, distribute management logic about data and distribute control. However, they remain within the distributed hierarchical paradigm. While a management architecture faithful to the strongly distributed cooperative paradigm has yet to be defined, these lines of research have revealed that the information, communication and organisation models of existing management architectures are far from adequate. In this context, this dissertation presents an architectural model for the holonic management of distributed systems and services through autonomous agent societies. The main objectives of this model are to raise the level of management task automation, increase the scalability of management solutions, provide support for delegation by both domains and macro-tasks and achieve a high level of interoperability in open environments. Bearing in mind these objectives, a descriptive logic-based formal semantic information model has been developed, which increases management automation by using rational autonomous agents capable of reasoning, inferring and dynamically integrating knowledge and services conceptualised by means of the CIM model and formalised at the semantic level by means of descriptive logic. The information model also includes a mapping, at the CIM metamodel level, to the OWL ontology specification language, which amounts to a significant advance in the field of XML-based model and metainformation representation and exchange. At the interaction level, the model introduces a formal specification language (ACSL) of conversations between agents based on speech act theory and contributes an operational semantics for this language that eases the task of verifying formal properties associated with the interaction protocol. A role-oriented holonic organisational model has also been developed, whose main features meet the requirements demanded by emerging distributed services, including no centralised control, dynamic restructuring capabilities, cooperative skills and facilities for adaptation to different organisational cultures. The model includes a normative submodel adapted to management holon autonomy and based on the deontic and action modal logics.
Resumo:
El propósito de esta tesis doctoral es el desarrollo de un modelo integral de evaluación de la gestión para instituciones de educación superior (IES), fundamentado en valorar la gestión de diferentes subsistemas que la integran, así como estudiar el impacto en la planificación y gestión institucional. Este Modelo de Evaluación Institucional fue denominado Modelo Integral de Evaluación de Gestión de las IES (MIEGIES), que incorpora la gestión de la complejidad, los aspectos gerenciales, el compromiso o responsabilidad social, los recursos, además de los procesos propios universitarios con una visión integral de la gestión. Las bases conceptuales se establecen por una revisión del contexto mundial de la educación superior, pasando por un análisis sobre evaluación y calidad en entornos universitarios. La siguiente reflexión conceptual versó sobre la gestión de la complejidad, de la gestión gerencial, de la gestión de responsabilidad social universitaria, de la gestión de los recursos y de la gestión de los procesos, seguida por un aporte sobre modelaje y modelos. Para finalizar, se presenta un resumen teórico sobre el alcance de la aplicación de ecuaciones estructurales para la validación de modelos. El desarrollo del modelo conceptual, dimensiones e indicadores, fue efectuado aplicando los principios de la metodología de sistemas suaves –SSM. Para ello, se identifica la definición raíz (DR), la razón sistémica de ser del modelo, para posteriormente desarrollar sus componentes y principios conceptuales. El modelo quedó integrado por cinco subsistemas, denominados: de la Complejidad, de la Responsabilidad Social Universitaria, Gerencial, de Procesos y de Recursos. Los subsistemas se consideran como dimensiones e indicadores para el análisis y son los agentes críticos para el funcionamiento de una IES. Los aspectos referidos a lo Epistemetodológico, comenzó por identificar el enfoque epistemológico que sustenta el abordaje metodológico escogido. A continuación se identifican los elementos clásicos que se siguieron para llevar a cabo la investigación: Alcance o profundidad, población y muestra, instrumentos de recolección de información y su validación, para finalizar con la explicación procedimental para validar el modelo MIEGIES. La población considerada para el estudio empírico de validación fueron 585 personas distribuidas entre alumnos, docentes, personal administrativo y directivos de una Universidad Pública Venezolana. La muestra calculada fue de 238 individuos, número considerado representativo de la población. La aplicación de los instrumentos diseñados y validados permitió la obtención de un conjunto de datos, a partir de los cuales se validó el modelo MIEGIES. La validación del Modelo MIGEIES parte de sugerencias conceptuales para el análisis de los datos. Para ello se identificaron las variables relevantes, que pueden ser constructos o conceptos, las variables latentes que no pueden ser medidas directamente, sino que requiere seleccionar los indicadores que mejor las representan. Se aplicó la estrategia de modelación confirmatoria de los Modelos de Ecuaciones Estructurales (SEM). Para ello se parte de un análisis descriptivo de los datos, estimando la fiabilidad. A continuación se aplica un análisis factorial exploratorio y un análisis factorial confirmatorio. Para el análisis de la significancia del modelo global y el impacto en la planificación y gestión, se consideran el análisis de coeficientes de regresión y la tabla de ANOVA asociada, la cual de manera global especifica que el modelo planteado permite explicar la relación entre las variables definidas para la evaluación de la gestión de las IES. Así mismo, se encontró que este resultado de manera global explica que en la evaluación institucional tiene mucha importancia la gestión de la calidad y las finanzas. Es de especial importancia destacar el papel que desarrolla la planificación estratégica como herramienta de gestión que permite apoyar la toma de decisiones de las organizaciones en torno al quehacer actual y al camino que deben recorrer en el futuro para adecuarse a los cambios y a las demandas que les impone el entorno. El contraste estadístico de los dos modelos ajustados, el teórico y el empírico, permitió a través de técnicas estadísticas multivariables, demostrar de manera satisfactoria, la validez y aplicación del modelo propuesto en las IES. Los resultados obtenidos permiten afirmar que se pueden estimar de manera significativa los constructos que definen la evaluación de las instituciones de educación superior mediante el modelo elaborado. En el capítulo correspondiente a Conclusiones, se presenta en una de las primeras instancias, la relación conceptual propuesta entre los procesos de evaluación de la gestión institucional y de los cinco subsistemas que la integran. Posteriormente se encuentra que los modelos de ecuaciones estructurales con base en la estrategia de modelación confirmatoria es una herramienta estadística adecuada en la validación del modelo teórico, que fue el procedimiento propuesto en el marco de la investigación. En cuanto al análisis del impacto del Modelo en la Planificación y la Gestión, se concluye que ésta es una herramienta útil para cerrar el círculo de evaluación institucional. La planificación y la evaluación institucional son procesos inherentes a la filosofía de gestión. Es por ello que se recomienda su práctica como de necesario cumplimiento en todas las instancias funcionales y operativas de las Instituciones de Educación Superior. ABSTRACT The purpose of this dissertation is the development of a comprehensive model of management evaluation for higher education institutions (HEIs), based on evaluating the management of different subsystems and study the impact on planning and institutional management. This model was named Institutional Assessment Comprehensive Evaluation Model for the Management of HEI (in Spanish, MIEGIES). The model incorporates the management of complexity, management issues, commitment and social responsibility and resources in addition to the university's own processes with a comprehensive view of management. The conceptual bases are established by a review of the global context of higher education, through analysis and quality assessment in university environments. The following conceptual discussions covered the management of complexity, management practice, management of university social responsibility, resources and processes, followed by a contribution of modeling and models. Finally, a theoretical overview of the scope of application of structural equation model (SEM) validation is presented. The development of the conceptual model, dimensions and indicators was carried out applying the principles of soft systems methodology (SSM). For this, the root definition (RD), the systemic rationale of the model, to further develop their components and conceptual principles are identified. The model was composed of five subsystems, called: Complexity, University Social Responsibility, Management, Process and Resources. The subsystems are considered as dimensions and measures for analysis and are critical agents for the functioning of HEIs. In matters relating to epistemology and methodology we began to identify the approach that underpins the research: Scope, population and sample and data collection instruments. The classic elements that were followed to conduct research are identified. It ends with the procedural explanation to validate the MIEGIES model. The population considered for the empirical validation study was composed of 585 people distributed among students, faculty, staff and authorities of a public Venezuelan university. The calculated sample was 238 individuals, number considered representative of the population. The application of designed and validated instruments allowed obtaining a data set, from which the MIEGIES model was validated. The MIGEIES Model validation is initiated by the theoretical analysis of concepts. For this purpose the relevant variables that can be concepts or constructs were identified. The latent variables cannot be measured directly, but require selecting indicators that best represent them. Confirmatory modeling strategy of Structural Equation Modeling (SEM) was applied. To do this, we start from a descriptive analysis of the data, estimating reliability. An exploratory factor analysis and a confirmatory factor analysis were applied. To analyze the significance of the overall models the analysis of regression coefficients and the associated ANOVA table are considered. This comprehensively specifies that the proposed model can explain the relationship between the variables defined for evaluating the management of HEIs. It was also found that this result comprehensively explains that for institutional evaluation quality management and finance are very important. It is especially relevant to emphasize the role developed by strategic planning as a management tool that supports the decision making of organizations around their usual activities and the way they should evolve in the future in order to adapt to changes and demands imposed by the environment. The statistical test of the two fitted models, the theoretical and the empirical, enabled through multivariate statistical techniques to demonstrate satisfactorily the validity and application of the proposed model for HEIs. The results confirm that the constructs that define the evaluation of HEIs in the developed model can be estimated. In the Conclusions section the conceptual relationship between the processes of management evaluation and the five subsystems that comprise it are shown. Subsequently, it is indicated that structural equation models based on confirmatory modeling strategy is a suitable statistical tool in validating the theoretical model, which was proposed in the framework of the research procedure. The impact of the model in Planning and Management indicates that this is a useful tool to complete the institutional assessment. Planning and institutional assessment processes are inherent in management philosophy. That is why its practice is recommended as necessary compliance in all functional and operational units of HEIs.
Resumo:
The aim of the study was to evaluate the inter-operator reliability of OPTA Client System which is used to collect live football match statistics by OPTA Sportsdata Company. Two groups of experienced operators were required to analyze a Spanish league match independently. Results showed that team events coded by independent operators reached a very good agreement (kappa values were 0.92 and 0.94) and average difference of event time was 0.06±0.04 s. The reliability of goalkeeper actions was also at high level, kappa values were 0.92 and 0.86. The high intra-class correlation coefficients (ranged from 0.88 to 1.00) and low standardized typical errors (varied from 0.00 to 0.37) of different match actions and indicators of individual outfield players showed a high level of inter-operator reliability as well. These results suggest that the OPTA Client System is reliable to be used to collect live football match statistics by well trained operators.
Resumo:
Laser shock processing (LSP) is increasingly applied as an effective technology for the improvement of metallic materials mechanical properties in different types of components as a means of enhancement of their fatigue life behavior. As reported in previous contributions by the authors, a main effect resulting from the application of the LSP technique consists on the generation of relatively deep compression residual stresses fields into metallic components allowing an improved mechanical behaviour, explicitly the life improvement of the treated specimens against wear, crack growth and stress corrosion cracking. Additional results accomplished by the authors in the line of practical development of the LSP technique at an experimental level (aiming its integral assessment from an interrelated theoretical and experimental point of view)are presented in this paper. Concretely, experimental results on the residual stress profiles and associated mechanical properties modification successfully reached in typical materials under different LSP irradiation conditions are presented. In this case, the specific behavior of a widely used material in high reliability components (especially in nuclear and biomedical applications) as AISI 316L is analyzed, the effect of possible “in-service” thermal conditions on the relaxation of the LSP effects being specifically characterized.
Resumo:
This paper presents a model for determining value at operational risk ?OpVaR? in electric utilities, with the aim to confirm the versatility of the Bank for International Settlements (BIS) proposals. The model intends to open a new methodological approach in risk management, paying special attention to underlying operational sources of risk.
Resumo:
In pressure irrigation-water distribution networks, applied water volume is usually controlled opening a valve during a calculated time interval, and assuming constant flow rate. In general, pressure regulating devices for controlling the discharged flow rate by irrigation units are needed due to the variability of pressure conditions.