972 resultados para administrative databases of Quebec


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este Proyecto Fin de Grado trabaja en pos de la mejora y ampliación de los sistemas Pegaso y Gades, dos Sistemas Expertos enmarcados en el ámbito de la e-Salud. Estos sistemas, que ya estaban en funcionamiento antes del comienzo de este trabajo, apoyan la toma de decisiones en Atención Primaria. Esto es, permiten evaluar el nivel de adquisición del lenguaje en niños de 0 a 6 años a través de sus respectivas aplicaciones web. Además, permiten almacenar dichas evaluaciones y consultarlas posteriormente, junto con las decisiones del sistema asociadas a las mismas. Pegaso y Gades siguen una arquitectura de tres capas y están desarrollados usando fundamentalmente componentes Java y siguiendo. Como parte de este trabajo, en primer lugar se solucionan algunos problemas en el comportamiento de ambos sistemas, como su incompatibilidad con Java SE 7. A continuación, se desarrolla una aplicación que permite generar una ontología en lenguaje OWL desde código Java. Para ello, se estudia primero el concepto de ontología, el lenguaje OWL y las diferentes librerías Java existentes para generar ontologías OWL. Por otra parte, se mejoran algunas de las funcionalidades de los sistemas de partida y se desarrolla una nueva funcionalidad para la explotación de los datos almacenados en las bases de datos de ambos sistemas Esta nueva funcionalidad consiste en un módulo responsable de la generación de estadísticas a partir de los datos de las evaluaciones del lenguaje que hayan sido realizadas y, por tanto, almacenadas en las bases de datos. Estas estadísticas, que pueden ser consultadas por todos los usuarios de Pegaso y Gades, permiten establecer correlaciones entre los diversos conjuntos de datos de las evaluaciones del lenguaje. Por último, las estadísticas son mostradas por pantalla en forma de varios tipos de gráficas y tablas, de modo que los usuarios expertos puedan analizar la información contenida en ellas. ABSTRACT. This Bachelor's Thesis works towards improving and expanding the systems Pegaso and Gades, which are two Expert Systems that belong to the e-Health field. These systems, which were already operational before starting this work, support the decision-making process in Primary Care. That is, they allow to evaluate the language acquisition level in children from 0 to 6 years old. They also allow to store these evaluations and consult them afterwards, together with the decisions associated to each of them. Pegaso and Gades follow a three-tier architecture and are developed using mainly Java components. As part of this work, some of the behavioural problems of both systems are fixed, such as their incompatibility with Java SE 7. Next, an application that allows to generate an OWL ontology from Java code is developed. In order to do that, the concept of ontology, the OWL language and the different existing Java libraries to generate OWL ontologies are studied. On the other hand, some of the functionalities of the initial systems are improved and a new functionality to utilise the data stored in the databases of both systems is developed. This new functionality consists of a module responsible for the generation of statistics from the data of the language evaluations that have been performed and, thus, stored in the databases. These statistics, which can be consulted by all users of Pegaso and Gades, allow to establish correlations between the diverse set of data from the language evaluations. Finally, the statistics are presented to the user on the screen in the shape of various types of charts and tables, so that the expert users can analyse the information contained in them.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Se ha realizado un estudio de la distribución de plantas vasculares en un territorio situado entre las provincias de Cuenca, Guadalajara, Madrid y Toledo (España). El territorio estudiado está en la Submeseta Sur de la península ibérica, al sur del Sistema Central, norte de los Montes de Toledo y oeste del Sistema Ibérico, en zonas sedimentarias con poco relieve y clima mediterráneo, con grandes contrastes de temperatura y precipitaciones muy irregulares. Coincide con las regiones naturales llamadas: “Alcarrias”, “Campiñas de Madrid y Guadalajara” y “Vegas de los ríos de la Cuenca del Tajo”. Es lo que he llamado Cuenca Media del Tajo. En una primera fase se ha estudiado la flora regional para adquirir conocimientos previos mediante las consultas bibliográficas y de herbarios, se ha contado con bases de datos disponibles para MA, MACB, MAF, JACA, AH, ABH, VAL, SALA y EMMA. Se han revisado las aportaciones propias que en los últimos años he realizado en el territorio en relación a los temas tratados en la tesis. El trabajo de campo ha consistido en la realización de inventarios de presencia de flora. Ha sido muy importante la tarea herborizadora para llegar a la correcta identificación de las especies colectadas en los inventarios. De esta forma el autor ha confeccionado un herbario propio JML que en el territorio muestreado ha reunido cerca de 15000 números en las cuatro provincias estudiadas. Se ha hecho un muestreo sistemático del territorio con unos 6000 listados de plantas. Se ha tomado como unidad de muestreo la cuadrícula de UTM de 1 km de lado incluida como una centésima parte de la cuadrícula de UTM de 10 km. Se han seguido criterios para uniformizar el muestreo. Se ha apuntado el tiempo empleado y la superficie muestreada estimada en cada toma de datos. El criterio mínimo que tienen que cumplir todas las cuadrículas en el área estudiada ha sido que para cada cuadrícula de UTM de 5 km se han realizado al menos 5 inventarios en 5 cuadrículas diferentes de UTM de 1 km y al menos en una hora de tiempo. La unidad de comparación ha sido la cuadrícula UTM de 5 km. Se han informatizado los inventarios de campo, para ello se ha creado la base de datos TESIS en Microsoft office –Access-. Las principales tablas son LOCALIDAD, en la que se anotan las características del lugar muestreado y ESPECIES, que lista las especies de flora consideradas en las cuatro provincias del estudio. Por medio de formularios se han rellenado las tablas; destaca la tabla ESPECIE INVENTARIO que relaciona las tablas ESPECIES y LOCALIDAD; esta tabla cuenta en este momento con unos 165.000 registros. En la tabla ESPECIES_FPVI se visualizan las especies recopiladas. Se ha creado un indicador llamado FPVI “Flora permanentemente visible identificable” que consiste en atribuir a cada especie unos índices que nos permiten saber si una determinada planta se puede detectar en cualquier época del año. Los resultados presentados son: Creación de la base de datos TESIS. El Catálogo Florístico de la Cuenca Media del Tajo, que es el catálogo de la flora de las cuatro provincias desde el principio de la sistemática hasta las Saxifragáceas. En total se han recopilado 1028 taxones distribuidos en 77 familias. Se ha calculado el índice FPVI, para las especies del catálogo. La finalidad para la que se ha diseñado este índice es para poder comparar territorios. Para el desarrollo de ambos resultados ha sido fundamental el desarrollo de la tabla ESPECIES_PVI de la base de datos TESIS. En la tabla ESPECIES_PVI se han apuntado las características ecológicas y se revisa la información bibliográfica disponible para cada especie; las principales fuentes de información consultadas han sido Flora iberica, el proyecto “Anthos” y las bases de datos de los herbarios. Se ha apuntado sí se ha visto, sí está protegida o sí en un endemismo. Otros resultados son: la localización de las cuadrículas de UTM de 10 km, con mayor número de endemismos o especies singulares, con mayor valor botánico. Se ha realizado un par de ejemplos de estudios de autoecología de especie, en concreto Teucrium pumilum y Clematis recta. Se han confeccionando salidas cartográficas de distribución de especies. Se ha elaborado el herbario JML. Se ha presentado una sencilla herramienta para incluir inventarios florísticos, citas corológicas, consultas de autoecología o etiquetado de pliegos de herbario. Como colofón, se ha colaborado para desarrollar una aplicación informática de visualización, análisis y estudio de la distribución de taxones vegetales, que ha utilizado como datos de partida un porcentaje importante de los obtenidos para esta tesis. ABSTRACT I have made a study of the distribution of vascular plants in a territory located between the provinces of Cuenca, Guadalajara, Madrid and Toledo (Spain). The studied area is in the “Submeseta” South of the Iberian Peninsula, south of the Central System, north of the Montes de Toledo and west of the Iberian System, in sedimentary areas with little relief and Mediterranean climate, with big temperature contrasts and irregular rainfall. Coincides with the natural regions called "Alcarrias", "countryside of Madrid and Guadalajara" and “Vegas River Tagus Basin”. This is what I have called Middle Tagus Basin. In a first step we have studied the regional flora to acquire prior knowledge through the literature and herbaria consultations, it has had available databases for MA, MACB, MAF, JACA, AH, ABH, VAL, SALA and EMMA herbaria. The contributions I have made in the last years in the territory in relation to the topics discussed in the thesis have been revised. The field work consisted of conducting inventories presence of flora. Botanize was a very important task to get to the correct identification of the species collected in inventories. In this way the author has made his own herbarium JML in the sampled area has met at least 15000 samples in the four studied provinces. There has been a systematic sampling of the territory with nearly 6,000 listings of plants. Was taken as the sampling unit grid UTM 1 km side included as a hundredth of the UTM grid of 10 km from side. Criteria have been taken to standardize the sampling. Data were taken of the time spent and the estimated sampled surface. The minimum criteria they have to meet all the grids in the study area has been that for each UTM grid of 5 km have been made at least 5 stocks in 5 different grids UTM 1 km and at least one hour of time. The unit of comparison was the UTM grid of 5 km. I have computerized inventories of field, for it was created a database in Access- Microsoft office -TESIS. The main tables are LOCALIDAD, with caracteristics of the sampled location and ESPECIES, which lists the plant species considered in the four provinces of the study, is. Through forms I filled in the tables; highlights ESPECIE INVENTARIO table that relates the tables ESPECIES and LOCALIDAD, this table is counted at the moment with about 165,000 records. The table ESPECIES FPVI visualizes all recollected species. We have created an indicator called FPVI "Flora permanently visible identifiable" that attributes to each species indices that allow us to know whether a given plant can be detected in any season. The results presented are: Creating data base TESIS. The Floristic Books Middle Tagus Basin, which is a catalog of the flora of the four provinces since the beginning of the systematic until Saxifragaceae. In total 1028 collected taxa in 77 families. We calculated FPVI index for species catalog. The purpose for which this index designed is, to compare territories. For the development of both results, it was essential to develop the table ESPECIES_PVI TESIS data base. Table ESPECIES_PVI has signed the ecological characteristics and bibliographic information available for each species is revised; the main sources of information has been Flora iberica, the Anthos project databases of herbaria. Targeted species has been recorded, when seen, protected or endemism. Have also been located UTM grids of 10 km, with the largest number of endemic or unique species and more botanical value. There have been a couple of species autecology studies, namely Teucrium pumilum and Clematis recta, as an example of this type of study. They have been putting together maps of species distribution. We made herbarium JML. I have presented a simple tool to include floristic inventories, chorological appointments, consultations or to tag autoecology herbarium specimens. To cap it has worked to develop a computer application for visualization, analysis and study of the distribution of plant taxa, which has used as input data a significant percentage of those obtained for this thesis.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La nanotecnología es un área de investigación de reciente creación que trata con la manipulación y el control de la materia con dimensiones comprendidas entre 1 y 100 nanómetros. A escala nanométrica, los materiales exhiben fenómenos físicos, químicos y biológicos singulares, muy distintos a los que manifiestan a escala convencional. En medicina, los compuestos miniaturizados a nanoescala y los materiales nanoestructurados ofrecen una mayor eficacia con respecto a las formulaciones químicas tradicionales, así como una mejora en la focalización del medicamento hacia la diana terapéutica, revelando así nuevas propiedades diagnósticas y terapéuticas. A su vez, la complejidad de la información a nivel nano es mucho mayor que en los niveles biológicos convencionales (desde el nivel de población hasta el nivel de célula) y, por tanto, cualquier flujo de trabajo en nanomedicina requiere, de forma inherente, estrategias de gestión de información avanzadas. Desafortunadamente, la informática biomédica todavía no ha proporcionado el marco de trabajo que permita lidiar con estos retos de la información a nivel nano, ni ha adaptado sus métodos y herramientas a este nuevo campo de investigación. En este contexto, la nueva área de la nanoinformática pretende detectar y establecer los vínculos existentes entre la medicina, la nanotecnología y la informática, fomentando así la aplicación de métodos computacionales para resolver las cuestiones y problemas que surgen con la información en la amplia intersección entre la biomedicina y la nanotecnología. Las observaciones expuestas previamente determinan el contexto de esta tesis doctoral, la cual se centra en analizar el dominio de la nanomedicina en profundidad, así como en el desarrollo de estrategias y herramientas para establecer correspondencias entre las distintas disciplinas, fuentes de datos, recursos computacionales y técnicas orientadas a la extracción de información y la minería de textos, con el objetivo final de hacer uso de los datos nanomédicos disponibles. El autor analiza, a través de casos reales, alguna de las tareas de investigación en nanomedicina que requieren o que pueden beneficiarse del uso de métodos y herramientas nanoinformáticas, ilustrando de esta forma los inconvenientes y limitaciones actuales de los enfoques de informática biomédica a la hora de tratar con datos pertenecientes al dominio nanomédico. Se discuten tres escenarios diferentes como ejemplos de actividades que los investigadores realizan mientras llevan a cabo su investigación, comparando los contextos biomédico y nanomédico: i) búsqueda en la Web de fuentes de datos y recursos computacionales que den soporte a su investigación; ii) búsqueda en la literatura científica de resultados experimentales y publicaciones relacionadas con su investigación; iii) búsqueda en registros de ensayos clínicos de resultados clínicos relacionados con su investigación. El desarrollo de estas actividades requiere el uso de herramientas y servicios informáticos, como exploradores Web, bases de datos de referencias bibliográficas indexando la literatura biomédica y registros online de ensayos clínicos, respectivamente. Para cada escenario, este documento proporciona un análisis detallado de los posibles obstáculos que pueden dificultar el desarrollo y el resultado de las diferentes tareas de investigación en cada uno de los dos campos citados (biomedicina y nanomedicina), poniendo especial énfasis en los retos existentes en la investigación nanomédica, campo en el que se han detectado las mayores dificultades. El autor ilustra cómo la aplicación de metodologías provenientes de la informática biomédica a estos escenarios resulta efectiva en el dominio biomédico, mientras que dichas metodologías presentan serias limitaciones cuando son aplicadas al contexto nanomédico. Para abordar dichas limitaciones, el autor propone un enfoque nanoinformático, original, diseñado específicamente para tratar con las características especiales que la información presenta a nivel nano. El enfoque consiste en un análisis en profundidad de la literatura científica y de los registros de ensayos clínicos disponibles para extraer información relevante sobre experimentos y resultados en nanomedicina —patrones textuales, vocabulario en común, descriptores de experimentos, parámetros de caracterización, etc.—, seguido del desarrollo de mecanismos para estructurar y analizar dicha información automáticamente. Este análisis concluye con la generación de un modelo de datos de referencia (gold standard) —un conjunto de datos de entrenamiento y de test anotados manualmente—, el cual ha sido aplicado a la clasificación de registros de ensayos clínicos, permitiendo distinguir automáticamente los estudios centrados en nanodrogas y nanodispositivos de aquellos enfocados a testear productos farmacéuticos tradicionales. El presente trabajo pretende proporcionar los métodos necesarios para organizar, depurar, filtrar y validar parte de los datos nanomédicos existentes en la actualidad a una escala adecuada para la toma de decisiones. Análisis similares para otras tareas de investigación en nanomedicina ayudarían a detectar qué recursos nanoinformáticos se requieren para cumplir los objetivos actuales en el área, así como a generar conjunto de datos de referencia, estructurados y densos en información, a partir de literatura y otros fuentes no estructuradas para poder aplicar nuevos algoritmos e inferir nueva información de valor para la investigación en nanomedicina. ABSTRACT Nanotechnology is a research area of recent development that deals with the manipulation and control of matter with dimensions ranging from 1 to 100 nanometers. At the nanoscale, materials exhibit singular physical, chemical and biological phenomena, very different from those manifested at the conventional scale. In medicine, nanosized compounds and nanostructured materials offer improved drug targeting and efficacy with respect to traditional formulations, and reveal novel diagnostic and therapeutic properties. Nevertheless, the complexity of information at the nano level is much higher than the complexity at the conventional biological levels (from populations to the cell). Thus, any nanomedical research workflow inherently demands advanced information management. Unfortunately, Biomedical Informatics (BMI) has not yet provided the necessary framework to deal with such information challenges, nor adapted its methods and tools to the new research field. In this context, the novel area of nanoinformatics aims to build new bridges between medicine, nanotechnology and informatics, allowing the application of computational methods to solve informational issues at the wide intersection between biomedicine and nanotechnology. The above observations determine the context of this doctoral dissertation, which is focused on analyzing the nanomedical domain in-depth, and developing nanoinformatics strategies and tools to map across disciplines, data sources, computational resources, and information extraction and text mining techniques, for leveraging available nanomedical data. The author analyzes, through real-life case studies, some research tasks in nanomedicine that would require or could benefit from the use of nanoinformatics methods and tools, illustrating present drawbacks and limitations of BMI approaches to deal with data belonging to the nanomedical domain. Three different scenarios, comparing both the biomedical and nanomedical contexts, are discussed as examples of activities that researchers would perform while conducting their research: i) searching over the Web for data sources and computational resources supporting their research; ii) searching the literature for experimental results and publications related to their research, and iii) searching clinical trial registries for clinical results related to their research. The development of these activities will depend on the use of informatics tools and services, such as web browsers, databases of citations and abstracts indexing the biomedical literature, and web-based clinical trial registries, respectively. For each scenario, this document provides a detailed analysis of the potential information barriers that could hamper the successful development of the different research tasks in both fields (biomedicine and nanomedicine), emphasizing the existing challenges for nanomedical research —where the major barriers have been found. The author illustrates how the application of BMI methodologies to these scenarios can be proven successful in the biomedical domain, whilst these methodologies present severe limitations when applied to the nanomedical context. To address such limitations, the author proposes an original nanoinformatics approach specifically designed to deal with the special characteristics of information at the nano level. This approach consists of an in-depth analysis of the scientific literature and available clinical trial registries to extract relevant information about experiments and results in nanomedicine —textual patterns, common vocabulary, experiment descriptors, characterization parameters, etc.—, followed by the development of mechanisms to automatically structure and analyze this information. This analysis resulted in the generation of a gold standard —a manually annotated training or reference set—, which was applied to the automatic classification of clinical trial summaries, distinguishing studies focused on nanodrugs and nanodevices from those aimed at testing traditional pharmaceuticals. The present work aims to provide the necessary methods for organizing, curating and validating existing nanomedical data on a scale suitable for decision-making. Similar analysis for different nanomedical research tasks would help to detect which nanoinformatics resources are required to meet current goals in the field, as well as to generate densely populated and machine-interpretable reference datasets from the literature and other unstructured sources for further testing novel algorithms and inferring new valuable information for nanomedicine.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El presente proyecto trata sobre uno de los campos más problemáticos de la inteligencia artificial, el reconocimiento facial. Algo tan sencillo para las personas como es reconocer una cara conocida se traduce en complejos algoritmos y miles de datos procesados en cuestión de segundos. El proyecto comienza con un estudio del estado del arte de las diversas técnicas de reconocimiento facial, desde las más utilizadas y probadas como el PCA y el LDA, hasta técnicas experimentales que utilizan imágenes térmicas en lugar de las clásicas con luz visible. A continuación, se ha implementado una aplicación en lenguaje C++ que sea capaz de reconocer a personas almacenadas en su base de datos leyendo directamente imágenes desde una webcam. Para realizar la aplicación, se ha utilizado una de las librerías más extendidas en cuanto a procesado de imágenes y visión artificial, OpenCV. Como IDE se ha escogido Visual Studio 2010, que cuenta con una versión gratuita para estudiantes. La técnica escogida para implementar la aplicación es la del PCA ya que es una técnica básica en el reconocimiento facial, y además sirve de base para soluciones mucho más complejas. Se han estudiado los fundamentos matemáticos de la técnica para entender cómo procesa la información y en qué se datos se basa para realizar el reconocimiento. Por último, se ha implementado un algoritmo de testeo para poder conocer la fiabilidad de la aplicación con varias bases de datos de imágenes faciales. De esta forma, se puede comprobar los puntos fuertes y débiles del PCA. ABSTRACT. This project deals with one of the most problematic areas of artificial intelligence, facial recognition. Something so simple for human as to recognize a familiar face becomes into complex algorithms and thousands of data processed in seconds. The project begins with a study of the state of the art of various face recognition techniques, from the most used and tested as PCA and LDA, to experimental techniques that use thermal images instead of the classic visible light images. Next, an application has been implemented in C + + language that is able to recognize people stored in a database reading images directly from a webcam. To make the application, it has used one of the most outstretched libraries in terms of image processing and computer vision, OpenCV. Visual Studio 2010 has been chosen as the IDE, which has a free student version. The technique chosen to implement the software is the PCA because it is a basic technique in face recognition, and also provides a basis for more complex solutions. The mathematical foundations of the technique have been studied to understand how it processes the information and which data are used to do the recognition. Finally, an algorithm for testing has been implemented to know the reliability of the application with multiple databases of facial images. In this way, the strengths and weaknesses of the PCA can be checked.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El trabajo se enmarca dentro de los proyecto INTEGRATE y EURECA, cuyo objetivo es el desarrollo de una capa de interoperabilidad semántica que permita la integración de datos e investigación clínica, proporcionando una plataforma común que pueda ser integrada en diferentes instituciones clínicas y que facilite el intercambio de información entre las mismas. De esta manera se promueve la mejora de la práctica clínica a través de la cooperación entre instituciones de investigación con objetivos comunes. En los proyectos se hace uso de estándares y vocabularios clínicos ya existentes, como pueden ser HL7 o SNOMED, adaptándolos a las necesidades particulares de los datos con los que se trabaja en INTEGRATE y EURECA. Los datos clínicos se representan de manera que cada concepto utilizado sea único, evitando ambigüedades y apoyando la idea de plataforma común. El alumno ha formado parte de un equipo de trabajo perteneciente al Grupo de Informática de la UPM, que a su vez trabaja como uno de los socios de los proyectos europeos nombrados anteriormente. La herramienta desarrollada, tiene como objetivo realizar tareas de homogenización de la información almacenada en las bases de datos de los proyectos haciendo uso de los mecanismos de normalización proporcionados por el vocabulario médico SNOMED-CT. Las bases de datos normalizadas serán las utilizadas para llevar a cabo consultas por medio de servicios proporcionados en la capa de interoperabilidad, ya que contendrán información más precisa y completa que las bases de datos sin normalizar. El trabajo ha sido realizado entre el día 12 de Septiembre del año 2014, donde comienza la etapa de formación y recopilación de información, y el día 5 de Enero del año 2015, en el cuál se termina la redacción de la memoria. El ciclo de vida utilizado ha sido el de desarrollo en cascada, en el que las tareas no comienzan hasta que la etapa inmediatamente anterior haya sido finalizada y validada. Sin embargo, no todas las tareas han seguido este modelo, ya que la realización de la memoria del trabajo se ha llevado a cabo de manera paralela con el resto de tareas. El número total de horas dedicadas al Trabajo de Fin de Grado es 324. Las tareas realizadas y el tiempo de dedicación de cada una de ellas se detallan a continuación:  Formación. Etapa de recopilación de información necesaria para implementar la herramienta y estudio de la misma [30 horas.  Especificación de requisitos. Se documentan los diferentes requisitos que ha de cumplir la herramienta [20 horas].  Diseño. En esta etapa se toman las decisiones de diseño de la herramienta [35 horas].  Implementación. Desarrollo del código de la herramienta [80 horas].  Pruebas. Etapa de validación de la herramienta, tanto de manera independiente como integrada en los proyectos INTEGRATE y EURECA [70 horas].  Depuración. Corrección de errores e introducción de mejoras de la herramienta [45 horas].  Realización de la memoria. Redacción de la memoria final del trabajo [44 horas].---ABSTRACT---This project belongs to the semantic interoperability layer developed in the European projects INTEGRATE and EURECA, which aims to provide a platform to promote interchange of medical information from clinical trials to clinical institutions. Thus, research institutions may cooperate to enhance clinical practice. Different health standards and clinical terminologies has been used in both INTEGRATE and EURECA projects, e.g. HL7 or SNOMED-CT. These tools have been adapted to the projects data requirements. Clinical data are represented by unique concepts, avoiding ambiguity problems. The student has been working in the Biomedical Informatics Group from UPM, partner of the INTEGRATE and EURECA projects. The tool developed aims to perform homogenization tasks over information stored in databases of the project, through normalized representation provided by the SNOMED-CT terminology. The data query is executed against the normalized version of the databases, since the information retrieved will be more informative than non-normalized databases. The project has been performed from September 12th of 2014, when initiation stage began, to January 5th of 2015, when the final report was finished. The waterfall model for software development was followed during the working process. Therefore, a phase may not start before the previous one finishes and has been validated, except from the final report redaction, which has been carried out in parallel with the others phases. The tasks that have been developed and time for each one are detailed as follows:  Training. Gathering the necessary information to develop the tool [30 hours].  Software requirement specification. Requirements the tool must accomplish [20 hours].  Design. Decisions on the design of the tool [35 hours].  Implementation. Tool development [80 hours].  Testing. Tool evaluation within the framework of the INTEGRATE and EURECA projects [70 hours].  Debugging. Improve efficiency and correct errors [45 hours].  Documenting. Final report elaboration [44 hours].

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La presente investigación tiene como objetivo principal diseñar un Modelo de Gestión de Riesgos Operacionales (MGRO) según las Directrices de los Acuerdos II y III del Comité de Supervisión Bancaria de Basilea del Banco de Pagos Internacionales (CSBB-BPI). Se considera importante realizar un estudio sobre este tema dado que son los riesgos operacionales (OpR) los responsables en gran medida de las últimas crisis financieras mundiales y por la dificultad para detectarlos en las organizaciones. Se ha planteado un modelo de gestión subdividido en dos vías de influencias. La primera acoge el paradigma holístico en el que se considera que hay múltiples maneras de percibir un proceso cíclico, así como las herramientas para observar, conocer y entender el objeto o sujeto percibido. La segunda vía la representa el paradigma totalizante, en el que se obtienen datos tanto cualitativos como cuantitativos, los cuales son complementarios entre si. Por otra parte, este trabajo plantea el diseño de un programa informático de OpR Cualitativo, que ha sido diseñado para determinar la raíz de los riesgos en las organizaciones y su Valor en Riesgo Operacional (OpVaR) basado en el método del indicador básico. Aplicando el ciclo holístico al caso de estudio, se obtuvo el siguiente diseño de investigación: no experimental, univariable, transversal descriptiva, contemporánea, retrospectiva, de fuente mixta, cualitativa (fenomenológica y etnográfica) y cuantitativa (descriptiva y analítica). La toma de decisiones y recolección de información se realizó en dos fases en la unidad de estudio. En la primera se tomó en cuenta la totalidad de la empresa Corpoelec-EDELCA, en la que se presentó un universo estadístico de 4271 personas, una población de 2390 personas y una unidad de muestreo de 87 personas. Se repitió el proceso en una segunda fase, para la Central Hidroeléctrica Simón Bolívar, y se determinó un segundo universo estadístico de 300 trabajadores, una población de 191 personas y una muestra de 58 profesionales. Como fuentes de recolección de información se utilizaron fuentes primarias y secundarias. Para recabar la información primaria se realizaron observaciones directas, dos encuestas para detectar las áreas y procesos con mayor nivel de riesgos y se diseñó un cuestionario combinado con otra encuesta (ad hoc) para establecer las estimaciones de frecuencia y severidad de pérdidas operacionales. La información de fuentes secundarias se extrajo de las bases de datos de Corpoelec-EDELCA, de la IEA, del Banco Mundial, del CSBB-BPI, de la UPM y de la UC at Berkeley, entre otras. Se establecieron las distribuciones de frecuencia y de severidad de pérdidas operacionales como las variables independientes y el OpVaR como la variable dependiente. No se realizó ningún tipo de seguimiento o control a las variables bajo análisis, ya que se consideraron estas para un instante especifico y solo se determinan con la finalidad de establecer la existencia y valoración puntual de los OpR en la unidad de estudio. El análisis cualitativo planteado en el MGRO, permitió detectar que en la unidad de investigación, el 67% de los OpR detectados provienen de dos fuentes principales: procesos (32%) y eventos externos (35%). Adicionalmente, la validación del MGRO en Corpoelec-EDELCA, permitió detectar que el 63% de los OpR en la organización provienen de tres categorías principales, siendo los fraudes externos los presentes con mayor regularidad y severidad de pérdidas en la organización. La exposición al riesgo se determinó fundamentándose en la adaptación del concepto de OpVaR que generalmente se utiliza para series temporales y que en el caso de estudio presenta la primicia de aplicarlo a datos cualitativos transformados con la escala Likert. La posibilidad de utilizar distribuciones de probabilidad típicas para datos cuantitativos en distribuciones de frecuencia y severidad de pérdidas con datos de origen cualitativo fueron analizadas. Para el 64% de los OpR estudiados se obtuvo que la frecuencia tiene un comportamiento semejante al de la distribución de probabilidad de Poisson y en un 55% de los casos para la severidad de pérdidas se obtuvo a las log-normal como las distribuciones de probabilidad más comunes, con lo que se concluyó que los enfoques sugeridos por el BCBS-BIS para series de tiempo son aplicables a los datos cualitativos. Obtenidas las distribuciones de frecuencia y severidad de pérdidas, se convolucionaron estas implementando el método de Montecarlo, con lo que se obtuvieron los enfoques de distribuciones de pérdidas (LDA) para cada uno de los OpR. El OpVaR se dedujo como lo sugiere el CSBB-BPI del percentil 99,9 o 99% de cada una de las LDA, obteniéndose que los OpR presentan un comportamiento similar al sistema financiero, resultando como los de mayor peligrosidad los que se ubican con baja frecuencia y alto impacto, por su dificultad para ser detectados y monitoreados. Finalmente, se considera que el MGRO permitirá a los agentes del mercado y sus grupos de interés conocer con efectividad, fiabilidad y eficiencia el status de sus entidades, lo que reducirá la incertidumbre de sus inversiones y les permitirá establecer una nueva cultura de gestión en sus organizaciones. ABSTRACT This research has as main objective the design of a Model for Operational Risk Management (MORM) according to the guidelines of Accords II and III of the Basel Committee on Banking Supervision of the Bank for International Settlements (BCBS- BIS). It is considered important to conduct a study on this issue since operational risks (OpR) are largely responsible for the recent world financial crisis and due to the difficulty in detecting them in organizations. A management model has been designed which is divided into two way of influences. The first supports the holistic paradigm in which it is considered that there are multiple ways of perceiving a cyclical process and contains the tools to observe, know and understand the subject or object perceived. The second way is the totalizing paradigm, in which both qualitative and quantitative data are obtained, which are complementary to each other. Moreover, this paper presents the design of qualitative OpR software which is designed to determine the root of risks in organizations and their Operational Value at Risk (OpVaR) based on the basic indicator approach. Applying the holistic cycle to the case study, the following research design was obtained: non- experimental, univariate, descriptive cross-sectional, contemporary, retrospective, mixed-source, qualitative (phenomenological and ethnographic) and quantitative (descriptive and analytical). Decision making and data collection was conducted in two phases in the study unit. The first took into account the totality of the Corpoelec-EDELCA company, which presented a statistical universe of 4271 individuals, a population of 2390 individuals and a sampling unit of 87 individuals. The process was repeated in a second phase to the Simon Bolivar Hydroelectric Power Plant, and a second statistical universe of 300 workers, a population of 191 people and a sample of 58 professionals was determined. As sources of information gathering primary and secondary sources were used. To obtain the primary information direct observations were conducted and two surveys to identify the areas and processes with higher risks were designed. A questionnaire was combined with an ad hoc survey to establish estimates of frequency and severity of operational losses was also considered. The secondary information was extracted from the databases of Corpoelec-EDELCA, IEA, the World Bank, the BCBS-BIS, UPM and UC at Berkeley, among others. The operational loss frequency distributions and the operational loss severity distributions were established as the independent variables and OpVaR as the dependent variable. No monitoring or control of the variables under analysis was performed, as these were considered for a specific time and are determined only for the purpose of establishing the existence and timely assessment of the OpR in the study unit. Qualitative analysis raised in the MORM made it possible to detect that in the research unit, 67% of detected OpR come from two main sources: external processes (32%) and external events (35%). Additionally, validation of the MORM in Corpoelec-EDELCA, enabled to estimate that 63% of OpR in the organization come from three main categories, with external fraud being present more regularly and greater severity of losses in the organization. Risk exposure is determined basing on adapting the concept of OpVaR generally used for time series and in the case study it presents the advantage of applying it to qualitative data transformed with the Likert scale. The possibility of using typical probability distributions for quantitative data in loss frequency and loss severity distributions with data of qualitative origin were analyzed. For the 64% of OpR studied it was found that the frequency has a similar behavior to that of the Poisson probability distribution and 55% of the cases for loss severity it was found that the log-normal were the most common probability distributions. It was concluded that the approach suggested by the BCBS-BIS for time series can be applied to qualitative data. Once obtained the distributions of loss frequency and severity have been obtained they were subjected to convolution implementing the Monte Carlo method. Thus the loss distribution approaches (LDA) were obtained for each of the OpR. The OpVaR was derived as suggested by the BCBS-BIS 99.9 percentile or 99% of each of the LDA. It was determined that the OpR exhibits a similar behavior to the financial system, being the most dangerous those with low frequency and high impact for their difficulty in being detected and monitored. Finally, it is considered that the MORM will allows market players and their stakeholders to know with effectiveness, efficiency and reliability the status of their entities, which will reduce the uncertainty of their investments and enable them to establish a new management culture in their organizations.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En el trabajo se ha reflejado la génesis del término „desarrollo sostenible‟ y la preocupación social y de los gobiernos hacia la sostenibilidad de los recursos, generando una política forestal a escala internacional, cuyo hito inicial desempeña la Cumbre de Rio y otros procesos, donde surge el término „sostenibilidad‟ - procesos gubernamentales que ponen su atención en los bosques,entre ellos el Proceso paneuropeo del que emanan los Criterios e indicadores de la gestión forestal sostenible, así como otros foros donde aparece la vinculación entre los productos y la sostenibilidad de los bosques de donde proceden. A partir de esos conceptos aparecen los sistemas de certificación, primero FSC, promovido por las ONG ambientalistas, y en respuesta a ello, el sistema PEFC de los propietarios forestales privados con las industrias forestales. En su introducción, el trabajo recoge como surge y evoluciona esta preocupación y como se sucede y desarrollan los sistemas de certificación en España, orientados tanto a la superficie forestal como a sus productos derivados. Tratando de ser una herramienta técnica, en estos últimos quince años, se han ido planteando metodologías y propuestas técnicas que puedan garantizar el origen sostenible del bosque de donde procede la materia prima. Aunque la persistencia de la masa forestal como término tiene importancia, no considera numerosos aspectos incluidos en el concepto “gestión forestal sostenible”. El trabajo manifiesta qué es y cómo se origina la Gestión Forestal Sostenible y muy ligado con ello, el origen de la certificación como herramienta, explicando cómo se incardina la certificación forestal española con las estructuras internacionales y se construyen nuevas estructuras a escala española y autonómica. Se expone el dominio y alcance técnico de la certificación, sus inicios y un análisis de la diversidad de sistemas y etiquetas existentes -como ha ido evolucionando a escala internacional y nacional, por sistemas, sectores y continentes, con especial atención en España, recopilando lo sucedido relevante para el sector forestal, industrias forestales y sistemas de certificación en los años de estudio de elaboración de la tesis. Se refleja la relevancia que adquiere la certificación forestal y de la cadena de custodia para la industria del papel, tanto por las regulaciones, normativas y legislación que involucran al producto derivado del bosque como por ser herramienta que enlaza el bosque sostenible con el consumidor. La aplicación de todas esas especificaciones técnicas que muestran la sostenibilidad del bosque y al trazabilidad en el proceso productivo comporta una carga administrativa de recopilación de información, de control para el seguimiento asociado con los registros necesarios, y de archivo de documentos, conforme a las exigencias que plantean los sistemas de certificación forestal. Por tanto, es importante definir un método y procedimientos genéricos para los correspondientes sistemas de gestión preexistentes en las empresas del sector de pasta y papel (de calidad/ de medio ambiente/integrados), para implantar un Sistema de Cadena de Custodia genérico (común a FSC y PEFC) en una instalación de celulosa y papel y un sistema de diligencia debida. Para ello, ha sido necesario analizar la línea de producción y establecer los puntos de su diagrama en los que se requiere el control de la trazabilidad, puntos en los que se procede al seguimiento y registro de la materia prima, materia semielaborada y producto, y de ahí proceder a redactar o retocar los procedimientos de gestión calidad/ medioambiental, en su caso, para incluir los campos de registro. Según determinen los procedimientos, se efectuará un seguimiento y registro de los, derivados que configuran una característica y se determinará una serie de indicadores del sistema de trazabilidad de la madera en la industria de celulosa y papel, es decir, un conjunto de parámetros cuantitativos y descriptivos, sujetos al seguimiento de forma periódica, que muestren el cambio y permitan observar la evaluación y control del Sistema de Cadena de Custodia. Además de asegurar la trazabilidad de la madera y fibra en la industria de pasta y papel y con ello la sostenibilidad del bosque del que procede, se avalará la legalidad de los aprovechamientos que proporcionan ese recurso maderable, cumpliendo así no sólo la legislación vigente sino también ambos sistemas de certificación FSC y PEFC. El sistema de cadena de custodia de la pasta y papel se caracteriza por los indicadores de seguimiento que permite el control de la trazabilidad. ABSTRACT This paper traces the origins of the term „Sustainable Development‟ and of both citizen and institutional concern for the sustainability of resources, leading to the enactment of a forestry policy at international level, of which the initial milestones are the Rio Summit and other processes in which the term „Sustainability‟ was born. Those forestfocused institutional initiatives include the pan-European process that led to the publication of Sustainable Forest Management Criteria and Indicators, and other forums that highlight the link between finished wood-based products and the sustainability of the forests from which that wood is sourced. Those concepts were the culture in which forest certification systems were engendered, first FSC, promoted by environmental NGOs, and subsequently PEFC, fostered in response to FSC by private forest owners and forest-based industries. In its Introduction, this paper looks at how such concern arose and has evolved and how certification systems came into existence in Spain and developed to encompass both forest lands and forest-based products. As part of a mission to provide an applicable technical tool, new methodologies and technical proposals have been put forward over the past fifteen years aimed at guaranteeing the sustainable origin of the forest from which raw material is sourced. Although the maintenance of forest stands as a term in its own right is important, it does not take many of the aspects included in the concept of “sustainable forest management” into account. This thesis describes what SFM is and how it was born, underlying the close link between SFM and the origin of certification as a tool, explaining how Spanish forest certification is embodied in international structures, while new structures are built here in Spain on both the national and regional scale. This work also details the domain and scope of forest certification from the technical standpoint, explains its beginnings, and assesses the various systems and labels that exist - how certification has evolved internationally and nationally across systems, sectors and continents, with special emphasis on Spain. It provides a compilation of events relevant to forestry, forest industries and forest certification systems that have taken place during the years this thesis has been in preparation. It reflects on the relevance that forest and chain of custody certification holds for the paper industry, in view not only of the regulations, policies and legislation that affect forest-based products but also of its role as a tool that bonds the sustainable forest with the consumer. Implementing the range of technical specifications to demonstrate forest sustainability and traceability throughout the production process entails the administrative burden of collecting information and providing controls to process the relevant records and documents to be kept on file in compliance with the requirements made by forest certification schemes. It is therefore important to define a generic method, together with its relevant procedures,that fits the management systems (quality / environmental / integrated)existing today in pulp and paper companies, in order to implement a generic Chain of Custody scheme (common to FSC and PEFC) in a pulp and paper mill, and a due diligence system. To achieve that, it has first been necessary to analyse the production line and establish points along the route where traceabilitycontrols need to be implemented and points where raw material, semi-finished goods and end products should be monitored and recorded. Subsequently, the procedures in quality / environmental management systems need to be drafted or amended as required to include fields that reflect those records. As required by the procedures, forest-based products that have a specific characteristic shall be monitored and recorded, and a number of indicators identified in the traceability system of wood for pulp & paper, i.e.createa set of quantitative and descriptive parameters subject to regular monitoringthat reveal changes and enable the Chain of Custody system to be assessed and controlled. In addition to ensuring the traceability of wood and fibre in the pulp and paper industry -and so the sustainability of the forest from which it is sourced -, the legality of the harvesting that produces that timber will also be enhanced, thus fulfilling not only the law but also both FSC and PEFC certification schemes. The chain of custody system for pulp and paper is characterised by monitoring indicators that enable traceability to be controlled.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Una de las características definitorias del sistema urbano contemporáneo es su desterritorialización, es decir, su adopción de un modelo de desarrollo que se da al margen del territorio concreto que lo sustenta y de los recursos biofísicos y culturales existentes en él. Dicha desterritorialización es posible gracias al uso intensivo de energía que ha permitido ampliar hasta la escala global los flujos del metabolismo urbano. De este modo se han roto las relaciones de proximidad urbano-rurales, y se ha aumentado la dependencia de recursos externos. Entre las diferentes manifestaciones de esta desterritorialización se encuentra la organización del sistema alimentario, que en la actualidad responde a un modelo globalizado, en el que la distancia entre producción y consumo ha aumentado a costa de incrementar el gasto energético en transporte y conservación de alimentos. Este distanciamento físico va acompañado también de un distanciamiento social e identario, con la hegemonía de un modelo agroindustrial que no respeta los paisajes, las prácticas agrícolas, los conocimientos tradicionales ni las variedades genéticas locales. Tanto el modelo territorial como el alimentario son altamente vulnerables ante crisis externas que pueden alterar su funcionamiento. El enfoque (bio)regionalista desde el mismo inicio de la ciudad industrial hasta nuestros días ha propuesto un modelo de ordenación territorial alternativo, adaptado a las condiciones locales y basado en la proximidad, que dotaría al sistema territorial de mayor resiliencia y sostenibilidad. Para confirmar este presupuesto y evaluar la capacidad de reterritorialización alimentaria se ha desarrollado una metodología que aborda el estudio del sistema territorial como socioecosistema complejo, en el que se distinguen componentes de tipo social, construido y biofísico, que se encuentran interrelacionados. La historia de cambios en la organización del sistema, su estado actual y su capacidad de reorganizarse en estados alternativos son las bases de dicha evaluación. Esta metodología se aplica a la Comunidad de Madrid con el fin de describir su sistema territorial desde el punto de vista del abastecimiento alimentario y evaluar su capacidad de reterritorialización. ABSTRACT Deterritorialization is one of the defining characteristics of the contemporary urban system. This means that its development model is designed ignoring the attributes of the specific region in which is located, and the biophysical and cultural resources therein. Such territorialization is possible due to the intensive energy consumption that allows expanding to a global scale the flows of urban metabolism. This way, urban-rural linkages have been broken, increasing dependency on external resources. The modern food system is among the clearest expressions of a deterritorialized model. In a globalized food system, increasing distances between production and consumption spaces are possible through energy-intensive transport and preservation activities. Physical distanciation goes hand in hand with social disconnection and loss of identity, due to a hegemonic agro-industrial model that does not respect local landscapes, agricultural practices, traditional knowledge or genetic varieties. Both the regional and the food systems are highly vulnerable to external shocks that may affect their functions. The bioregionalist approach has proposed, since the industrial city until today, an alternative model, adapted to local conditions and rooted on proximity, which provides a sustainable and resilient regional planning and management. To confirm this assumption and assess the food reterritorialisation capacity, a methodology has been developed that address the regional system as a complex social-ecosystem, in which interrelated social, built and biophysical subsystems are included. Assessment is based in the analysis of regimes shifts in the history of the system, and in the description of its current and alternative states. This methodology is applied to the administrative region of Madrid in order to describe its regional food system and assess its reterritorialization capacity.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La determinación del valor del suelo implicado en los procesos de urbanización se mueve en una compleja dialéctica en la que algunos fenómenos de naturaleza morfológica como el modelado del espacio social, o el que se deduce de las determinaciones del planeamiento (aprovechamiento especialmente) se enfrentan a instrumentos de regulación que se rigen por normas de carácter administrativo (urbanísticas y expropiatorias, fiscales, financieras-hipotecarias etc.). En ese marco en el que las discrepancias son frecuentes se pretende analizar las posibles actuaciones encaminadas a influir sobre la formación de ese valor en el sentido de limitar las expectativas de aprovechamiento tradicionalmente vinculadas al sistema urbanístico establecido, destacando al respecto la implantación de criterios de sostenibilidad y participación ciudadana, así como que la utilización de normas administrativas de valoración con la finalidad de reducir tales expectativas y tratar de influir sobre el sistema urbanístico en su conjunto, no se considera suficiente para conseguir el logro de tales objetivos. Añadiendo, respecto del conjunto de normas administrativas de determinación del valor del suelo, que si bien las reglas urbanísticas y expropiatorias establecen actualmente reglas objetivas de valoración, a través de la normativa de valoración destinada a entidades financieras, o de carácter fiscal, se introducen criterios subjetivos que tratan de aproximarse al mercado, incluso en el caso del valor catastral, estructuralmente reglado. Esta separación de criterios ha llevado a un enfrentamiento al que ha venido a dar respuesta la reciente sentencia del Tribunal Supremo de 30 de mayo de 2014, que impone los criterios urbanísticos de consideración de situaciones básicas de suelo, frente a los fiscalmente regulados en relación con la normativa catastral en cuanto a la consideración de suelo urbanizable sin desarrollar, que pasa a ser considerado como en situación rural, siendo por tanto aplicables sobre el mismo las reglas de valoración que la normativa catastral establece para esta categoría de suelo (rústico) que no considera, incluso con la posterior modificación, de junio de 2015, incorporada para adaptarse a la mencionada sentencia, expectativas de aprovechamiento. Pero como se ha señalado, la exclusiva utilización de la normativa urbanística de valoración no se considera suficiente para evitar los efectos que sobre el valor de suelo produce la asignación de tales aprovechamientos, por lo que acuerdo con la actual legislación de suelo, deben asimismo potenciarse actuaciones encaminadas a un desarrollo sostenible así como a la participación ciudadana, la transparencia y el control, con la finalidad de lograr un mayor rigor en la utilización del suelo que ha de traducirse en su valoración. ABSTRACT Determining the land value involved in the urbanisation process implies a complex dialectic in which certain morphological natural phenomena like the modelling of social space or that deduced from planning determinations (especially land use) face regulatory instruments governed by administrative norms (urban planning and expropriator, tax, financial-mortgage etc.). In this context where discrepancies are common, the purpose is to analyse the possible actions geared to influence the formation of that value in the sense of limiting land use expectations traditionally linked to the established urban planning system, highlighting the implementation of sustainability criteria and citizen participation, as well as to consider that the administrative standards of evaluation for reducing said expectations, and trying to influence the urban system as a whole, are not considered sufficient for achieving these objectives. We might add, with respect to the set of administrative norms for determining the land value, that while urban and expropriations norms currently provide objective rules of valuation, subjective criteria are introduced trying to approach the market, including the structurally regulated cadastral value through valuation rules aimed at financial or fiscal institutions. This separation of criteria has led to a confrontation to which the recent ruling of the Supreme Court of May 30, 2014 responds. The aforementioned judgement imposes the urban core criteria for basic land use situations against those fiscally regulated in relation to cadastral regulations regarding the consideration of undeveloped building land, which is considered to be in a rural situation, making it subject to the same rules that cadastral valuation norms established for this category of land use (rustic) which do not consider, even with the subsequent amendment of June 2015, introduced to fit that judgment, use expectations. But as noted, the exclusive use of valuation planning regulations is not considered sufficient to avoid the effects on the land value produced by the allocation of said uses, so that according to the current land use legislation, actions aimed at sustainable development as well as citizen participation, transparency and control, shall be enhanced in order to achieve greater rigor in the use of land which should be translated in their valuation.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Há tempo, as dificuldades enfrentadas pelos diretores de escola da rede pública estadual de São Paulo constituem motivo de inquietação e impotência, pois estes têm seu trabalho engessado pela rotina burocrático-administrativa, a qual dificulta o desempenho das atividades pedagógicas. Este trabalho centra-se no estudo das possibilidades e limites no desenvolvimento da função pedagógica do Diretor de Escola, aliás, Gerente ou Educador? Nesta pesquisa utiliza-se dos documentos da Unidade Escolar, desde sua fundação em 1985 até 2007, para se entender o desenvolvimento da função de diretor de escola, neste duplo aspecto burocráticoadministrativo e pedagógico. Desta forma, foram abordadas as seguintes questões: quais são as solicitações e exigências da Secretaria de Estado da Educação de São Paulo (SEE-SP) e dos órgãos a ela subordinados em relação às atividades desenvolvidas cotidianamente pelo diretor de escola? Quais as incumbências objetivas que o diretor de escola tem que responder para a SEE-SP? A partir disso, quais são as possibilidades e os limites do diretor para desenvolver a função pedagógica no ambiente escolar? A hipótese aventada é que, o diretor de escola não consegue centrar-se no desenvolvimento das atividades pedagógicas em face do atendimento às exigências burocrático-administrativas da SEE-SP e dos órgãos a ela subordinados, os quais condicionam sua atividade profissional. Pretende-se com este estudo contribuir para o debate acerca da prática da gestão escolar e da reflexão da função e do papel do diretor de escola no processo de transformação econômico-político-social. A apresentação desta pesquisa está estruturada em três capítulos. As considerações finais apontam que o diretor de escola, devido ao grande número de solicitações e exigências de tarefas burocrático-administrativas, emanadas do poder central e de seus órgãos subordinados, vê comprometido o desempenho das funções pedagógicas.(AU)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Há tempo, as dificuldades enfrentadas pelos diretores de escola da rede pública estadual de São Paulo constituem motivo de inquietação e impotência, pois estes têm seu trabalho engessado pela rotina burocrático-administrativa, a qual dificulta o desempenho das atividades pedagógicas. Este trabalho centra-se no estudo das possibilidades e limites no desenvolvimento da função pedagógica do Diretor de Escola, aliás, Gerente ou Educador? Nesta pesquisa utiliza-se dos documentos da Unidade Escolar, desde sua fundação em 1985 até 2007, para se entender o desenvolvimento da função de diretor de escola, neste duplo aspecto burocráticoadministrativo e pedagógico. Desta forma, foram abordadas as seguintes questões: quais são as solicitações e exigências da Secretaria de Estado da Educação de São Paulo (SEE-SP) e dos órgãos a ela subordinados em relação às atividades desenvolvidas cotidianamente pelo diretor de escola? Quais as incumbências objetivas que o diretor de escola tem que responder para a SEE-SP? A partir disso, quais são as possibilidades e os limites do diretor para desenvolver a função pedagógica no ambiente escolar? A hipótese aventada é que, o diretor de escola não consegue centrar-se no desenvolvimento das atividades pedagógicas em face do atendimento às exigências burocrático-administrativas da SEE-SP e dos órgãos a ela subordinados, os quais condicionam sua atividade profissional. Pretende-se com este estudo contribuir para o debate acerca da prática da gestão escolar e da reflexão da função e do papel do diretor de escola no processo de transformação econômico-político-social. A apresentação desta pesquisa está estruturada em três capítulos. As considerações finais apontam que o diretor de escola, devido ao grande número de solicitações e exigências de tarefas burocrático-administrativas, emanadas do poder central e de seus órgãos subordinados, vê comprometido o desempenho das funções pedagógicas.(AU)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

We thank Karim Gharbi and Urmi Trivedi for their assistance with RNA sequencing, carried out in the GenePool genomics facility (University of Edinburgh). We also thank Susan Fairley and Eduardo De Paiva Alves (Centre for Genome Enabled Biology and Medicine, University of Aberdeen) for help with the initial bioinformatics analysis. We thank Aaron Mitchell for kindly providing the ALS3 mutant, Julian Naglik for the gift of TR146 cells, and Jon Richardson for technical assistance. We thank the Genomics and Bioinformatics core of the Faculty of Health Sciences for Next Generation Sequencing and Bioinformatics support, the Information and Communication Technology Office at the University of Macau for providing access to a High Performance Computer and Jacky Chan and William Pang for their expert support on the High Performance Computer. Finally, we thank Amanda Veri for generating CaLC2928. M.D.L. is supported by a Sir Henry Wellcome Postdoctoral Fellowship (Wellcome Trust 096072), R.A.F. by a Wellcome Trust-Massachusetts Institute of Technology (MIT) Postdoctoral Fellowship, L.E.C. by a Canada Research Chair in Microbial Genomics and Infectious Disease and by Canadian Institutes of Health Research Grants MOP-119520 and MOP-86452, A.J. P.B. was supported by the UK Biotechnology and Biological Sciences Research Council (BB/F00513X/1) and by the European Research Council (ERC-2009-AdG-249793-STRIFE), KHW is supported by the Science and Technology Development Fund of Macau S.A.R (FDCT) (085/2014/A2) and the Research and Development Administrative Office of the University of Macau (SRG2014-00003-FHS) and R.T.W. by the Burroughs Wellcome fund and NIH R15AO094406. Data availability RNA-sequencing data sets are available at ArrayExpress (www.ebi.ac.uk) under accession code E-MTAB-4075. ChIP-seq data sets are available at the NCBI SRA database (http://www.ncbi.nlm.nih.gov) under accession code SRP071687. The authors declare that all other data supporting the findings of this study are available within the article and its supplementary information files, or from the corresponding author upon request.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The iProClass database is an integrated resource that provides comprehensive family relationships and structural and functional features of proteins, with rich links to various databases. It is extended from ProClass, a protein family database that integrates PIR superfamilies and PROSITE motifs. The iProClass currently consists of more than 200 000 non-redundant PIR and SWISS-PROT proteins organized with more than 28 000 superfamilies, 2600 domains, 1300 motifs, 280 post-translational modification sites and links to more than 30 databases of protein families, structures, functions, genes, genomes, literature and taxonomy. Protein and family summary reports provide rich annotations, including membership information with length, taxonomy and keyword statistics, full family relationships, comprehensive enzyme and PDB cross-references and graphical feature display. The database facilitates classification-driven annotation for protein sequence databases and complete genomes, and supports structural and functional genomic research. The iProClass is implemented in Oracle 8i object-relational system and available for sequence search and report retrieval at http://pir.georgetow n.edu/iproclass/.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Introdução: A adolescência é uma fase importante para formação e consolidação de hábitos alimentares adequados à promoção da saúde. Entretanto, dados estatísticos recentes indicam enorme comprometimento no padrão alimentar de indivíduos nesse período da vida. Objetivo: Avaliar a qualidade da dieta e identificar seus fatores associados em adolescentes de três regiões administrativas do município de Vitória. Métodos: Estudo transversal de base populacional com 396 adolescentes de ambos os sexos, de 8 a 17 anos, de escolas públicas e privadas de três regiões administrativas de Vitória-ES. Foram coletados dados antropométricos, socioeconômicos, demográficos e alimentares. Para a entrevista alimentar utilizou-se o método de Recordatório de 24h. A qualidade da dieta foi avaliada pelo Índice de Qualidade da Dieta adaptado (IQDa). Análises de regressão logística foram utilizadas para verificar a associação das variáveis independentes sobre a qualidade da dieta dos adolescentes. Resultados: A média do IQDa foi de 35,6 pontos. Os componentes verduras e legumes, leite e derivados e frutas apresentaram os mais baixos valores médios de pontos; e carnes e ovos apresentaram a pontuação média mais alta do IQDa. Na análise de regressão observou-se que quanto maior a idade, menor a pontuação do IQDa e que os adolescentes do sexo masculino apresentaram IQDa maior que as do sexo feminino. Conclusão: A qualidade da dieta está associada ao sexo e a idade e necessita de melhorias. Conhecendo esses fatores associados é possível analisar e identificar as práticas alimentares não saudáveis e abordá-las em programas de educação nutricional, proporcionando melhores condições de saúde a essa população.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O objetivo do estudo foi avaliar o uso de bagaço de cana como enriquecimento ambiental para suínos a partir do comportamento e respostas fisiológicas do estresse causado pelo confinamento e mudança de ambiente, na fase de creche. O projeto foi conduzido no Laboratório de Biometeorologia e Etologia, da Faculdade de Zootecnia e Engenharia de Alimentos da Universidade de São Paulo, Pirassununga-SP, e no setor da Suinocultura da Prefeitura do Campus Administrativo Fernando Costa (PUSP-FC), entre os meses de abril e junho de 2015. Foram utilizados 66 leitões (NK75 X Naïma), machos e fêmeas desmamados aos 28 dias, separados em grupos homogêneos com relação ao peso, transferidos para baias da creche e distribuídos em dois tratamentos: Tratamento Enriquecido (TE) onde as baias foram fornecidas com cama profunda de bagaço de cana, de até 15 cm de profundidade e Tratamento Não Enriquecido (TNE) as baias foram utilizadas da forma convencional, sem cobertura no piso cimentado. Foram avaliadas diferentes respostas fisiológicas, especificamente, níveis de cortisol salivar, temperatura superficial por meio de um termómetro infravermelho e temperatura ocular a través de fotos termográficas. O comportamento dos leitões foi registrado e as análises das observações das atividades foram realizadas pelo efeito dos tratamentos e a interação do tempo. Os dados de desempenho dos animais foram analisados, igualmente como o Ganho de peso diário (GPD) e a conversão alimentar (CA). Animais que receberam enriquecimento ambiental apresentaram concentrações de cortisol mais baixas (P<0,001) durante a primeira semana pós-desmama. A partir da segunda semana pós desmama até o final da fase da creche houve efeito do tratamento (P<0,05), encontrando níveis de cortisol até quatro vezes mais altos para o TNE referentes aos níveis basais, enquanto o TE continua tendo níveis mais baixos (P<0,05). Animais que receberam enriquecimento ambiental tiveram maior frequência em comportamentos exploratórios (P<0,05) e maior atividade brincando (P<0,05) durante toda a fase experimental. Leitões que foram criados em baias pobres manifestaram maior frequência em comportamentos agonísticos (P<0,05) e em repouso (P<0,05). A correlação entre a temperatura superficial do dorso e termografia ocular indicou uma associação moderada positiva (P<0,0001) com a temperatura ocular mínima (r=0,43) e máxima (r=0,41). Apesar de não existir diferença estatística para o desempenho entre tratamentos (P>0,05), o TE apresentou maior ganho de peso diário (0,47±0,015 kg.dia-1) e total (23,47±0,73 kg.dia-1). A conversão alimentar foi maior no TE (2,88±0,25), provavelmente porque os leitões precisavam de mais alimento para compensar a energia gasta pela sua atividade de fuçar e brincar. Ambientes enriquecidos durante a fase da creche melhoram o bem-estar dos animais em confinamento, diminuindo o estresse pela desmama, motivando o animal a expressar comportamentos próprios da espécie suína, tais como fuçar e explorar.