901 resultados para Brecha entre precios máximos y mínimos


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Se presentan los primeros datos sobre Crisoficeas obtenidos en estudios algológicos llevdos a cabo sobre los sistemas acuáticos asociados a la cuenca del río Segura, durante los aflos1983-1985 (Aboal, 1987). Las muestras recolectadas pertenecen fundamentalmente a algas epifiticas o tetoplanctónicas. Además de la localización exacta de las estaciones de muestreo, se aportan datos sobre los valores medios, máximos y mínimos de los principales factores fisico-químicos del agua para cada especie.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El ambiente marino frente al Perú es modificado considerablemente por eventos transcendentes de características opuestas: El Niño y La Niña, los mismos que se presentan alternadamente, con diferente intensidad y duración. La temperatura presenta sus máximos y mínimos valores en verano e invierno, respectivamente;ambos E:xtremos dela salinidad se registran en el verano; los nutrientes presentan sus mínimos valores en verano y máximos en el invierno, intensificándose el afloramiento. Frente a la costa peruana se presentan masas de aguas superficiales y subsuperficiales procedentes de la región subtropical, tropical, ecuatorial y de la región subantártica. La Corriente Peruana, se subdivide en Corriente Costera Peruana y Corriente Oceánica Peruana. En la capa subsuperficial se presentan la Corriente Peruana Subsuperficial y la Extensión Sur de la Corriente de Cromwell. El afloramiento, mecanismo esencial de la alta producción marina, se produce sobre todo en las zonas de los 4-5°S,7-8°S, 11-12°S y 14-15°S. Durante las últimas tres décadas tres eventos El Niño y dos Niñas de gran intensidad han afectado severamente el ecosistema marino peruano.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El resultado de esta investigación apuntó a los elementos y teorías existentes con los cuales se construyó el marco teórico a la línea de investigación de cultura corporativa de la Universidad del Rosario

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Comprobar si un grupo de personas adultas consiguen alguna mejoría en su estado de salud (física, psíquica y social) con la práctica sistemática del acuaerobic. Grupo experimental: 13 mujeres y dos hombres con edades comprendidas entre los 15-55 años. Grupo control: 4 mujeres y un hombre con edades entre los 30-56 años. Este grupo no siguió ningún programa de entrenamiento mientras se desarrolló el programa en el grupo experimental. Periodo de implementación del programa: 4 meses; lunes , miércoles y viernes durante sesiones de 50-60 minutos, en la piscina municipal de Salamanca. A.- Pruebas de valoración física saludable en adultos, pruebas para determinar la fuerza-resistencia abdominal en la población adulta sedentaria: pruebas 'encorvadas' con flexión de pierna de noventa grados y deslizamiento de la mano sobre la colchoneta (batería AFISAL-INEFC). B.- Valoración de la fuerza de las extremidades superiores: fuerza isométrica en las manos (dinamometría bimanual) (batería AFISAL-INEFC). C.- Valoración de la fuerza muscular del tren inferior: pruebas de salto vertical (batería AFISAL-INEFC). D.- Flexibilidad: flexión anterior del tronco desde sentado con alcance de las manos (batería AFISAL-INEFC). E.- Cuestionario para la valoración del aspecto psíquico y social respecto a la salud, de 12 items. F.- Cuestionario evaluador de variables sociológicas, con dos secciones: 1.- Hábitos relacionados con el consumo de sustancias nocivas. 2.- Hábitos relacionados con la actividad física diaria. Estadística descriptiva con la ayuda del programa Stadistica: cálculo de frecuencias, máximos y mínimos, varianza y desviaciones típicas. Los participantes del programa Acuaerobic de 4 meses de duración no presentan diferencias estadísticamente significativas en la fuerza explosiva del tren inferior ni en el peso, ni en la densidad corporal ni en el porcentaje de grasa, sí muestran significatividad en el resto de resultados. Respecto a los cambios en el nivel de condición física en relación con la salud, encontramos: A.- Cambios antropométricos e índices corporales: respecto a la pérdida de peso se observaron que no fueron significativos en el grupo experimental, y por el contrario sí se produjeron en el grupo control; se considera que el programa sí favorece la pérdida de peso, pero al no controlar la dieta de los participantes no ha sido posible la pérdida de peso en el grupo experimental. B.- Cambios en la composición corporal: No se observan diferencias significativas en el grupo experimental, por el contrario sí se observan en el grupo control. Se observan diferencias significativas en el grupo experimental por lo que se refiere al desarrollo de la capacidad cardiovascular y en las manifestaciones de la fuerza muscular, mejora en la prensión manual, mejora en la resistencia abdominal y en la fuerza explosiva del tren inferior; mejoría que no se observó en el grupo control. C.- Cambios en el estilo de vida: se observó en ambos grupos un ligero aumento de la ingesta de alcohol y tabaco; en relación al consumo de fármacos se observa una reducción consecuencia fundamental de que en el momento de realizar el pretest se producía consumo de fármacos relacionados con procesos gripales o catarrales. D.- Respecto a los hábitos relacionados con la actividad física: se mantuvieron las actividades desarrolladas anteriormente aunque ser percibieron las actividades desarrolladas en el trabajo como más activas. E.- Cambios psicológicos respecto la salud. Se observan mejorías significativas en esta sección en el grupo experimental mientras que no se observan cambios en el grupo control. El programa físico no ha sido la única variable que influyó en los resultados encontrados en cuanto a la mejora de salud de las personas participantes en el programa psicopedagógico acuaerobic, interviniendo diversas variables que escapaban al control del programa desarrollado en la investigación. La condición física de los componentes del grupo que siguió el programa mejoró sobre todo en la fuerza abdominal, de la prensión manual y de la flexibilidad, resultando significativos los resultados obtenidos en el consumo máximo de oxigeno. Los resultados no indican un incremento en la capacidad funcional necesaria para la autonomía en la realización de las actividades cotidianas de los integrantes de dicho grupo. Se destaca que los beneficios se obtuvieron en el sistema osteoarticular de los participantes. El acuaeróbic además de comportar beneficios fisiológicos también proporciona beneficios biomecánicos, con lo que se recomienda su empleo en amplios sectores de población. El programa de acuaeróbic cumple dos premisas: es eficaz, ya que consigue mejorar la condición física saludable, y es seguro, puesto que al desarrollarse en el medio acuático protege del excesivo impacto sobre las articulaciones. El grupo que participó en el programa pasó de llevar un estilo de vida sedentaria a llevar un estilo de vida ligera, disminuyeron las horas que pasaban al día sentados, incrementando las horas que pasaban de pie o paseando; se previnieron las enfermedades cardiovasculares. Las relaciones interpersonales entre los miembros del grupo se incrementaron mejorando en sus componentes psicológico y sociológico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Demostrar, experimentalmente, cómo un programa diseñado para la enseñanza del ordenamiento constitucional en tercero de BUP, logra crearles hábitos democráticos, desarrollar su identidad en el descubrimiento de la identidad de su pueblo y fomentar su integración en la comunidad como forma de provocar la adquisición de modos concretos de actuación ciudadana, políticos y profesionales. Según el diseño de la investigación, la muestra debía estar formada por los 240 alumnos de tercero de BUP del Instituto de Bachillerato Padre Isla de León. No representativa. Finalmente sólo pudo experimentarse sobre un grupo de 40 alumnos, aunque el resto participó en algunas de las actividades programadas. Se experimentan estos recursos didácticos (variables independientes): a) contenidos, el ciudadano y su entorno, cauces participativos, Ayuntamiento, Comunidad Autónoma, Estado, orden constitucional, problemática mundial, papel de España; b) instrumentos: materiales (seminario sobre Constitución, libros, prensa, vídeo, mapas) y formales (clases, entrevistas, visitas a organismos oficiales, debates, dinámicas de grupo con los padres). c) actividades, investigaciones en grupos, recogida, elaboración, discusión de información; d) programación horaria de las variables dependientes, sobre las que se espera incidan las independientes, y que son: adquisición de conocimientos (Constitución, Estado Autonómico, la transición, partidos políticos, Castilla-León), actitudes (tolerancia, valoración de la democracia, defensa de las libertades) y conductas (solidaridad, participación) por parte de los alumnos. La programación se reestructuró por retrasos inevitables, fijándose máximos y mínimos a realizar. La metodología es óptima en la coordinación entre profesores y en la participación grupal, no sólo individual, de los alumnos. En cuanto a los medios materiales, son positivos en el vídeo, aunque su poca flexibilidad y la falta de experiencia impidieron aprovecharlo mejor. Óptimos en el material bibliográfico, por adquisiciones y uso. Los trabajos de investigación son óptimos como medios de abordar la realidad y fomentar su estudio. En cuanto al cumplimiento de objetivos, los de conducta aún no son evaluables, aunque el alumno ha aprendido a discutir argumentando; sobre los cognoscitivos, del análisis del pre y posttest, se desprende el inicial bajo nivel de los alumnos y su radical mejoría tras el experimento, han adquirido conocimientos sobre temas. Tratados en mesas redondas, entrevistas y visitas; relativo a los actitudinales, es difícil evaluarlos aunque los alumnos rinden lo deseado respeto a la constitución. Objetivos no alcanzados, no se han realizado dinámicas de grupo ni tantas visitas como las deseadas y no se ha manejado la prensa con profusión. Los investigadores se sienten satisfechos con la aceptación y el cambio de actitud operado en los alumnos hacia la Constitución. En este marco incluso los intereses profesionales del alumnado se han concretado, lo que demuestra como el orden natural del aprendizaje debe empezar por la integración en la sociedad, o por una fuerte motivación para alcanzar dicha integración, donde el alumno descubrirá el modo, laboral o profesional, concreto de realizarla.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The Project you are about to see it is based on the technologies used on object detection and recognition, especially on leaves and chromosomes. To do so, this document contains the typical parts of a scientific paper, as it is what it is. It is composed by an Abstract, an Introduction, points that have to do with the investigation area, future work, conclusions and references used for the elaboration of the document. The Abstract talks about what are we going to find in this paper, which is technologies employed on pattern detection and recognition for leaves and chromosomes and the jobs that are already made for cataloguing these objects. In the introduction detection and recognition meanings are explained. This is necessary as many papers get confused with these terms, specially the ones talking about chromosomes. Detecting an object is gathering the parts of the image that are useful and eliminating the useless parts. Summarizing, detection would be recognizing the objects borders. When talking about recognition, we are talking about the computers or the machines process, which says what kind of object we are handling. Afterwards we face a compilation of the most used technologies in object detection in general. There are two main groups on this category: Based on derivatives of images and based on ASIFT points. The ones that are based on derivatives of images have in common that convolving them with a previously created matrix does the treatment of them. This is done for detecting borders on the images, which are changes on the intensity of the pixels. Within these technologies we face two groups: Gradian based, which search for maximums and minimums on the pixels intensity as they only use the first derivative. The Laplacian based methods search for zeros on the pixels intensity as they use the second derivative. Depending on the level of details that we want to use on the final result, we will choose one option or the other, because, as its logic, if we used Gradian based methods, the computer will consume less resources and less time as there are less operations, but the quality will be worse. On the other hand, if we use the Laplacian based methods we will need more time and resources as they require more operations, but we will have a much better quality result. After explaining all the derivative based methods, we take a look on the different algorithms that are available for both groups. The other big group of technologies for object recognition is the one based on ASIFT points, which are based on 6 image parameters and compare them with another image taking under consideration these parameters. These methods disadvantage, for our future purposes, is that it is only valid for one single object. So if we are going to recognize two different leaves, even though if they refer to the same specie, we are not going to be able to recognize them with this method. It is important to mention these types of technologies as we are talking about recognition methods in general. At the end of the chapter we can see a comparison with pros and cons of all technologies that are employed. Firstly comparing them separately and then comparing them all together, based on our purposes. Recognition techniques, which are the next chapter, are not really vast as, even though there are general steps for doing object recognition, every single object that has to be recognized has its own method as the are different. This is why there is not a general method that we can specify on this chapter. We now move on into leaf detection techniques on computers. Now we will use the technique explained above based on the image derivatives. Next step will be to turn the leaf into several parameters. Depending on the document that you are referring to, there will be more or less parameters. Some papers recommend to divide the leaf into 3 main features (shape, dent and vein] and doing mathematical operations with them we can get up to 16 secondary features. Next proposition is dividing the leaf into 5 main features (Diameter, physiological length, physiological width, area and perimeter] and from those, extract 12 secondary features. This second alternative is the most used so it is the one that is going to be the reference. Following in to leaf recognition, we are based on a paper that provides a source code that, clicking on both leaf ends, it automatically tells to which specie belongs the leaf that we are trying to recognize. To do so, it only requires having a database. On the tests that have been made by the document, they assure us a 90.312% of accuracy over 320 total tests (32 plants on the database and 10 tests per specie]. Next chapter talks about chromosome detection, where we shall pass the metaphasis plate, where the chromosomes are disorganized, into the karyotype plate, which is the usual view of the 23 chromosomes ordered by number. There are two types of techniques to do this step: the skeletonization process and swiping angles. Skeletonization progress consists on suppressing the inside pixels of the chromosome to just stay with the silhouette. This method is really similar to the ones based on the derivatives of the image but the difference is that it doesnt detect the borders but the interior of the chromosome. Second technique consists of swiping angles from the beginning of the chromosome and, taking under consideration, that on a single chromosome we cannot have more than an X angle, it detects the various regions of the chromosomes. Once the karyotype plate is defined, we continue with chromosome recognition. To do so, there is a technique based on the banding that chromosomes have (grey scale bands] that make them unique. The program then detects the longitudinal axis of the chromosome and reconstructs the band profiles. Then the computer is able to recognize this chromosome. Concerning the future work, we generally have to independent techniques that dont reunite detection and recognition, so our main focus would be to prepare a program that gathers both techniques. On the leaf matter we have seen that, detection and recognition, have a link as both share the option of dividing the leaf into 5 main features. The work that would have to be done is to create an algorithm that linked both methods, as in the program, which recognizes leaves, it has to be clicked both leaf ends so it is not an automatic algorithm. On the chromosome side, we should create an algorithm that searches for the beginning of the chromosome and then start to swipe angles, to later give the parameters to the program that searches for the band profiles. Finally, on the summary, we explain why this type of investigation is needed, and that is because with global warming, lots of species (animals and plants] are beginning to extinguish. That is the reason why a big database, which gathers all the possible species, is needed. For recognizing animal species, we just only have to have the 23 chromosomes. While recognizing a plant, there are several ways of doing it, but the easiest way to input a computer is to scan the leaf of the plant. RESUMEN. El proyecto que se puede ver a continuación trata sobre las tecnologías empleadas en la detección y reconocimiento de objetos, especialmente de hojas y cromosomas. Para ello, este documento contiene las partes típicas de un paper de investigación, puesto que es de lo que se trata. Así, estará compuesto de Abstract, Introducción, diversos puntos que tengan que ver con el área a investigar, trabajo futuro, conclusiones y biografía utilizada para la realización del documento. Así, el Abstract nos cuenta qué vamos a poder encontrar en este paper, que no es ni más ni menos que las tecnologías empleadas en el reconocimiento y detección de patrones en hojas y cromosomas y qué trabajos hay existentes para catalogar a estos objetos. En la introducción se explican los conceptos de qué es la detección y qué es el reconocimiento. Esto es necesario ya que muchos papers científicos, especialmente los que hablan de cromosomas, confunden estos dos términos que no podían ser más sencillos. Por un lado tendríamos la detección del objeto, que sería simplemente coger las partes que nos interesasen de la imagen y eliminar aquellas partes que no nos fueran útiles para un futuro. Resumiendo, sería reconocer los bordes del objeto de estudio. Cuando hablamos de reconocimiento, estamos refiriéndonos al proceso que tiene el ordenador, o la máquina, para decir qué clase de objeto estamos tratando. Seguidamente nos encontramos con un recopilatorio de las tecnologías más utilizadas para la detección de objetos, en general. Aquí nos encontraríamos con dos grandes grupos de tecnologías: Las basadas en las derivadas de imágenes y las basadas en los puntos ASIFT. El grupo de tecnologías basadas en derivadas de imágenes tienen en común que hay que tratar a las imágenes mediante una convolución con una matriz creada previamente. Esto se hace para detectar bordes en las imágenes que son básicamente cambios en la intensidad de los píxeles. Dentro de estas tecnologías nos encontramos con dos grupos: Los basados en gradientes, los cuales buscan máximos y mínimos de intensidad en la imagen puesto que sólo utilizan la primera derivada; y los Laplacianos, los cuales buscan ceros en la intensidad de los píxeles puesto que estos utilizan la segunda derivada de la imagen. Dependiendo del nivel de detalles que queramos utilizar en el resultado final nos decantaremos por un método u otro puesto que, como es lógico, si utilizamos los basados en el gradiente habrá menos operaciones por lo que consumirá más tiempo y recursos pero por la contra tendremos menos calidad de imagen. Y al revés pasa con los Laplacianos, puesto que necesitan más operaciones y recursos pero tendrán un resultado final con mejor calidad. Después de explicar los tipos de operadores que hay, se hace un recorrido explicando los distintos tipos de algoritmos que hay en cada uno de los grupos. El otro gran grupo de tecnologías para el reconocimiento de objetos son los basados en puntos ASIFT, los cuales se basan en 6 parámetros de la imagen y la comparan con otra imagen teniendo en cuenta dichos parámetros. La desventaja de este método, para nuestros propósitos futuros, es que sólo es valido para un objeto en concreto. Por lo que si vamos a reconocer dos hojas diferentes, aunque sean de la misma especie, no vamos a poder reconocerlas mediante este método. Aún así es importante explicar este tipo de tecnologías puesto que estamos hablando de técnicas de reconocimiento en general. Al final del capítulo podremos ver una comparación con los pros y las contras de todas las tecnologías empleadas. Primeramente comparándolas de forma separada y, finalmente, compararemos todos los métodos existentes en base a nuestros propósitos. Las técnicas de reconocimiento, el siguiente apartado, no es muy extenso puesto que, aunque haya pasos generales para el reconocimiento de objetos, cada objeto a reconocer es distinto por lo que no hay un método específico que se pueda generalizar. Pasamos ahora a las técnicas de detección de hojas mediante ordenador. Aquí usaremos la técnica explicada previamente explicada basada en las derivadas de las imágenes. La continuación de este paso sería diseccionar la hoja en diversos parámetros. Dependiendo de la fuente a la que se consulte pueden haber más o menos parámetros. Unos documentos aconsejan dividir la morfología de la hoja en 3 parámetros principales (Forma, Dentina y ramificación] y derivando de dichos parámetros convertirlos a 16 parámetros secundarios. La otra propuesta es dividir la morfología de la hoja en 5 parámetros principales (Diámetro, longitud fisiológica, anchura fisiológica, área y perímetro] y de ahí extraer 12 parámetros secundarios. Esta segunda propuesta es la más utilizada de todas por lo que es la que se utilizará. Pasamos al reconocimiento de hojas, en la cual nos hemos basado en un documento que provee un código fuente que cucando en los dos extremos de la hoja automáticamente nos dice a qué especie pertenece la hoja que estamos intentando reconocer. Para ello sólo hay que formar una base de datos. En los test realizados por el citado documento, nos aseguran que tiene un índice de acierto del 90.312% en 320 test en total (32 plantas insertadas en la base de datos por 10 test que se han realizado por cada una de las especies]. El siguiente apartado trata de la detección de cromosomas, en el cual se debe de pasar de la célula metafásica, donde los cromosomas están desorganizados, al cariotipo, que es como solemos ver los 23 cromosomas de forma ordenada. Hay dos tipos de técnicas para realizar este paso: Por el proceso de esquelotonización y barriendo ángulos. El proceso de esqueletonización consiste en eliminar los píxeles del interior del cromosoma para quedarse con su silueta; Este proceso es similar a los métodos de derivación de los píxeles pero se diferencia en que no detecta bordes si no que detecta el interior de los cromosomas. La segunda técnica consiste en ir barriendo ángulos desde el principio del cromosoma y teniendo en cuenta que un cromosoma no puede doblarse más de X grados detecta las diversas regiones de los cromosomas. Una vez tengamos el cariotipo, se continua con el reconocimiento de cromosomas. Para ello existe una técnica basada en las bandas de blancos y negros que tienen los cromosomas y que son las que los hacen únicos. Para ello el programa detecta los ejes longitudinales del cromosoma y reconstruye los perfiles de las bandas que posee el cromosoma y que lo identifican como único. En cuanto al trabajo que se podría desempeñar en el futuro, tenemos por lo general dos técnicas independientes que no unen la detección con el reconocimiento por lo que se habría de preparar un programa que uniese estas dos técnicas. Respecto a las hojas hemos visto que ambos métodos, detección y reconocimiento, están vinculados debido a que ambos comparten la opinión de dividir las hojas en 5 parámetros principales. El trabajo que habría que realizar sería el de crear un algoritmo que conectase a ambos ya que en el programa de reconocimiento se debe clicar a los dos extremos de la hoja por lo que no es una tarea automática. En cuanto a los cromosomas, se debería de crear un algoritmo que busque el inicio del cromosoma y entonces empiece a barrer ángulos para después poder dárselo al programa que busca los perfiles de bandas de los cromosomas. Finalmente, en el resumen se explica el por qué hace falta este tipo de investigación, esto es que con el calentamiento global, muchas de las especies (tanto animales como plantas] se están empezando a extinguir. Es por ello que se necesitará una base de datos que contemple todas las posibles especies tanto del reino animal como del reino vegetal. Para reconocer a una especie animal, simplemente bastará con tener sus 23 cromosomas; mientras que para reconocer a una especie vegetal, existen diversas formas. Aunque la más sencilla de todas es contar con la hoja de la especie puesto que es el elemento más fácil de escanear e introducir en el ordenador.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta Tesis aborda los problemas de eficiencia de las redes eléctrica desde el punto de vista del consumo. En particular, dicha eficiencia es mejorada mediante el suavizado de la curva de consumo agregado. Este objetivo de suavizado de consumo implica dos grandes mejoras en el uso de las redes eléctricas: i) a corto plazo, un mejor uso de la infraestructura existente y ii) a largo plazo, la reducción de la infraestructura necesaria para suplir las mismas necesidades energéticas. Además, esta Tesis se enfrenta a un nuevo paradigma energético, donde la presencia de generación distribuida está muy extendida en las redes eléctricas, en particular, la generación fotovoltaica (FV). Este tipo de fuente energética afecta al funcionamiento de la red, incrementando su variabilidad. Esto implica que altas tasas de penetración de electricidad de origen fotovoltaico es perjudicial para la estabilidad de la red eléctrica. Esta Tesis trata de suavizar la curva de consumo agregado considerando esta fuente energética. Por lo tanto, no sólo se mejora la eficiencia de la red eléctrica, sino que también puede ser aumentada la penetración de electricidad de origen fotovoltaico en la red. Esta propuesta conlleva grandes beneficios en los campos económicos, social y ambiental. Las acciones que influyen en el modo en que los consumidores hacen uso de la electricidad con el objetivo producir un ahorro energético o un aumento de eficiencia son llamadas Gestión de la Demanda Eléctrica (GDE). Esta Tesis propone dos algoritmos de GDE diferentes para cumplir con el objetivo de suavizado de la curva de consumo agregado. La diferencia entre ambos algoritmos de GDE reside en el marco en el cual estos tienen lugar: el marco local y el marco de red. Dependiendo de este marco de GDE, el objetivo energético y la forma en la que se alcanza este objetivo son diferentes. En el marco local, el algoritmo de GDE sólo usa información local. Este no tiene en cuenta a otros consumidores o a la curva de consumo agregado de la red eléctrica. Aunque esta afirmación pueda diferir de la definición general de GDE, esta vuelve a tomar sentido en instalaciones locales equipadas con Recursos Energéticos Distribuidos (REDs). En este caso, la GDE está enfocada en la maximización del uso de la energía local, reduciéndose la dependencia con la red. El algoritmo de GDE propuesto mejora significativamente el auto-consumo del generador FV local. Experimentos simulados y reales muestran que el auto-consumo es una importante estrategia de gestión energética, reduciendo el transporte de electricidad y alentando al usuario a controlar su comportamiento energético. Sin embargo, a pesar de todas las ventajas del aumento de auto-consumo, éstas no contribuyen al suavizado del consumo agregado. Se han estudiado los efectos de las instalaciones locales en la red eléctrica cuando el algoritmo de GDE está enfocado en el aumento del auto-consumo. Este enfoque puede tener efectos no deseados, incrementando la variabilidad en el consumo agregado en vez de reducirlo. Este efecto se produce porque el algoritmo de GDE sólo considera variables locales en el marco local. Los resultados sugieren que se requiere una coordinación entre las instalaciones. A través de esta coordinación, el consumo debe ser modificado teniendo en cuenta otros elementos de la red y buscando el suavizado del consumo agregado. En el marco de la red, el algoritmo de GDE tiene en cuenta tanto información local como de la red eléctrica. En esta Tesis se ha desarrollado un algoritmo autoorganizado para controlar el consumo de la red eléctrica de manera distribuida. El objetivo de este algoritmo es el suavizado del consumo agregado, como en las implementaciones clásicas de GDE. El enfoque distribuido significa que la GDE se realiza desde el lado de los consumidores sin seguir órdenes directas emitidas por una entidad central. Por lo tanto, esta Tesis propone una estructura de gestión paralela en lugar de una jerárquica como en las redes eléctricas clásicas. Esto implica que se requiere un mecanismo de coordinación entre instalaciones. Esta Tesis pretende minimizar la cantidad de información necesaria para esta coordinación. Para lograr este objetivo, se han utilizado dos técnicas de coordinación colectiva: osciladores acoplados e inteligencia de enjambre. La combinación de estas técnicas para llevar a cabo la coordinación de un sistema con las características de la red eléctrica es en sí mismo un enfoque novedoso. Por lo tanto, este objetivo de coordinación no es sólo una contribución en el campo de la gestión energética, sino también en el campo de los sistemas colectivos. Los resultados muestran que el algoritmo de GDE propuesto reduce la diferencia entre máximos y mínimos de la red eléctrica en proporción a la cantidad de energía controlada por el algoritmo. Por lo tanto, conforme mayor es la cantidad de energía controlada por el algoritmo, mayor es la mejora de eficiencia en la red eléctrica. Además de las ventajas resultantes del suavizado del consumo agregado, otras ventajas surgen de la solución distribuida seguida en esta Tesis. Estas ventajas se resumen en las siguientes características del algoritmo de GDE propuesto: • Robustez: en un sistema centralizado, un fallo o rotura del nodo central provoca un mal funcionamiento de todo el sistema. La gestión de una red desde un punto de vista distribuido implica que no existe un nodo de control central. Un fallo en cualquier instalación no afecta el funcionamiento global de la red. • Privacidad de datos: el uso de una topología distribuida causa de que no hay un nodo central con información sensible de todos los consumidores. Esta Tesis va más allá y el algoritmo propuesto de GDE no utiliza información específica acerca de los comportamientos de los consumidores, siendo la coordinación entre las instalaciones completamente anónimos. • Escalabilidad: el algoritmo propuesto de GDE opera con cualquier número de instalaciones. Esto implica que se permite la incorporación de nuevas instalaciones sin afectar a su funcionamiento. • Bajo coste: el algoritmo de GDE propuesto se adapta a las redes actuales sin requisitos topológicos. Además, todas las instalaciones calculan su propia gestión con un bajo requerimiento computacional. Por lo tanto, no se requiere un nodo central con un alto poder de cómputo. • Rápido despliegue: las características de escalabilidad y bajo coste de los algoritmos de GDE propuestos permiten una implementación rápida. No se requiere una planificación compleja para el despliegue de este sistema. ABSTRACT This Thesis addresses the efficiency problems of the electrical grids from the consumption point of view. In particular, such efficiency is improved by means of the aggregated consumption smoothing. This objective of consumption smoothing entails two major improvements in the use of electrical grids: i) in the short term, a better use of the existing infrastructure and ii) in long term, the reduction of the required infrastructure to supply the same energy needs. In addition, this Thesis faces a new energy paradigm, where the presence of distributed generation is widespread over the electrical grids, in particular, the Photovoltaic (PV) generation. This kind of energy source affects to the operation of the grid by increasing its variability. This implies that a high penetration rate of photovoltaic electricity is pernicious for the electrical grid stability. This Thesis seeks to smooth the aggregated consumption considering this energy source. Therefore, not only the efficiency of the electrical grid is improved, but also the penetration of photovoltaic electricity into the grid can be increased. This proposal brings great benefits in the economic, social and environmental fields. The actions that influence the way that consumers use electricity in order to achieve energy savings or higher efficiency in energy use are called Demand-Side Management (DSM). This Thesis proposes two different DSM algorithms to meet the aggregated consumption smoothing objective. The difference between both DSM algorithms lie in the framework in which they take place: the local framework and the grid framework. Depending on the DSM framework, the energy goal and the procedure to reach this goal are different. In the local framework, the DSM algorithm only uses local information. It does not take into account other consumers or the aggregated consumption of the electrical grid. Although this statement may differ from the general definition of DSM, it makes sense in local facilities equipped with Distributed Energy Resources (DERs). In this case, the DSM is focused on the maximization of the local energy use, reducing the grid dependence. The proposed DSM algorithm significantly improves the self-consumption of the local PV generator. Simulated and real experiments show that self-consumption serves as an important energy management strategy, reducing the electricity transport and encouraging the user to control his energy behavior. However, despite all the advantages of the self-consumption increase, they do not contribute to the smooth of the aggregated consumption. The effects of the local facilities on the electrical grid are studied when the DSM algorithm is focused on self-consumption maximization. This approach may have undesirable effects, increasing the variability in the aggregated consumption instead of reducing it. This effect occurs because the algorithm only considers local variables in the local framework. The results suggest that coordination between these facilities is required. Through this coordination, the consumption should be modified by taking into account other elements of the grid and seeking for an aggregated consumption smoothing. In the grid framework, the DSM algorithm takes into account both local and grid information. This Thesis develops a self-organized algorithm to manage the consumption of an electrical grid in a distributed way. The goal of this algorithm is the aggregated consumption smoothing, as the classical DSM implementations. The distributed approach means that the DSM is performed from the consumers side without following direct commands issued by a central entity. Therefore, this Thesis proposes a parallel management structure rather than a hierarchical one as in the classical electrical grids. This implies that a coordination mechanism between facilities is required. This Thesis seeks for minimizing the amount of information necessary for this coordination. To achieve this objective, two collective coordination techniques have been used: coupled oscillators and swarm intelligence. The combination of these techniques to perform the coordination of a system with the characteristics of the electric grid is itself a novel approach. Therefore, this coordination objective is not only a contribution in the energy management field, but in the collective systems too. Results show that the proposed DSM algorithm reduces the difference between the maximums and minimums of the electrical grid proportionally to the amount of energy controlled by the system. Thus, the greater the amount of energy controlled by the algorithm, the greater the improvement of the efficiency of the electrical grid. In addition to the advantages resulting from the smoothing of the aggregated consumption, other advantages arise from the distributed approach followed in this Thesis. These advantages are summarized in the following features of the proposed DSM algorithm: • Robustness: in a centralized system, a failure or breakage of the central node causes a malfunction of the whole system. The management of a grid from a distributed point of view implies that there is not a central control node. A failure in any facility does not affect the overall operation of the grid. • Data privacy: the use of a distributed topology causes that there is not a central node with sensitive information of all consumers. This Thesis goes a step further and the proposed DSM algorithm does not use specific information about the consumer behaviors, being the coordination between facilities completely anonymous. • Scalability: the proposed DSM algorithm operates with any number of facilities. This implies that it allows the incorporation of new facilities without affecting its operation. • Low cost: the proposed DSM algorithm adapts to the current grids without any topological requirements. In addition, every facility calculates its own management with low computational requirements. Thus, a central computational node with a high computational power is not required. • Quick deployment: the scalability and low cost features of the proposed DSM algorithms allow a quick deployment. A complex schedule of the deployment of this system is not required.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Las técnicas de speckle tienen un gran interés científico e ingenieril, ya que son métodos de ejecución rápida y no destructiva, con base en el análisis de las fluctuaciones de intensidad de la radiación producida cuando la luz coherente de un haz láser es esparcida por un material dado. En este caso se produce un patrón aleatorio de interferencia y difracción donde la suma de las componentes desfasadas dará lugar a máximos y mínimos de intensidad en distintos puntos del espacio. Éste, pese a tratarse de un ruido nocivo en multitud de áreas tales como la transmisión de señales o la holografía, tiene importantes propiedades físicas que lo caracterizan y lo hacen útil como medio para analizar sistemas reales de muy diversa índole. En el presente estudio, se ha llevado a cabo un análisis polarimétrico de la radiación aleatoria esparcida por una serie de muestras metálicas y dieléctricas con el objetivo de establecer una base comparativa que nos permita poder distinguir unas de otras. Para este fin se han comparado los parámetros de polarización de Stokes, el grado de polarización de la luz, las distribuciones de intensidad y el tamaño medio del speckle registrado en los distintos patrones de intensidad. Además, se analizará la dependencia de la rugosidad en el grado de polarización de la luz para los distintos medios sometidos a estudio. Abstract Speckle techniques have a great scientific and engineering interest as they are methods of rapid and non-destructive execution, based on the analysis of the fluctuations of intensity of the radiation produced when coherent light of a laser beam is scattered by a material given. In this case, a random pattern of interference and diffraction occurs where the sum of phase shifted components will result in maximum or minimum of intensity at different points in space. This, despite being a harmful noise in many areas such as signal transmission or holography, has important physical properties that characterize it and make it useful as a means to analyze real systems of various kinds. In the present study, we have conducted a polarimetric analysis of the random radiation scattered by a series of metal and dielectric samples in order to establish a comparative basis to allow us to distinguish one from another. To this end we have compared, the stokes polarization parameters, the degree of polarization (DOP), the intensity distributions and the average size of the speckle registered in the different intensity patterns. Furthermore, dependence of roughness in the DOP of light for the different means under study will be analyzed.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La marcha humana es el mecanismo de locomoción por el cual el cuerpo humano se traslada en línea recta gracias a una serie de movimientos coordinados de la pelvis y de las articulaciones del miembro inferior. Frecuentemente se encuentra influenciada por factores biomecánicos, anatómicos o patologías del sistema neuromusculoesquelético que modifican la forma de caminar de cada individuo. La lesión de médula espinal es una de las patologías que afectan el desarrollo normal de los patrones de la marcha por alteración de la movilidad, de la sensibilidad o del sistema nervioso autónomo. Aunque la lesión medular afecta otras funciones, además de la pérdida de función motora y sensorial, la recuperación de la capacidad de caminar es la mayor prioridad identificada por los pacientes durante la rehabilitación. Por ello, el desarrollo de dispositivos que faciliten la rehabilitación o compensación de la marcha es uno de los principales objetivos de diferentes grupos de investigación y empresas. En el contexto del proyecto Hybrid Technological Platform for Rehabilitation, Functional Compensation and Training of Gait in Spinal Cord Injury Patients se ha desarrollado un dispositivo que combina una órtesis activa (exoesqueleto) y un andador motorizado. Este sistema, como otros dispositivos, tiene el movimiento humano como estándar de referencia, no obstante no se evalúa de manera habitual, cómo es el patrón de la marcha reproducido y su similitud o diferencias con la marcha humana, o las modificaciones o adaptaciones en la interacción con el cuerpo del paciente. El presente estudio trata de examinar las características de la marcha normal en diversos grupos de población, y las diferencias con el patrón de marcha lenta. Finalmente, se pretende evaluar qué modificaciones y adaptaciones sufre el patrón de marcha lenta teórico al ser reproducido por el exoesqueleto. La presente investigación consiste en un estudio cuantitativo transversal desarrollado en dos etapas: estudio 1 y estudio 2. En el estudio 1 se analizó el patrón de la marcha a velocidad libremente seleccionada (normal) y el patrón de la marcha a velocidad lenta (0.25m/s) en 62 sujetos distribuidos en grupos considerando el sexo y los percentiles 25, 50 y 75 de estatura de la población española. Durante el estudio 2 se analizó el patrón de la marcha lenta reproducido por el dispositivo Hybrid a diferentes porcentajes de peso corporal (30%, 50% y 70%) en diez sujetos seleccionados aleatoriamente de la muestra del estudio 1. En ambos estudios se obtuvieron variables espacio-temporales y cinemáticas mediante un sistema de captura de movimiento con 6 cámaras distribuidas a lo largo de un pasillo de marcha. Se calcularon las medias, las desviaciones estándar y el 95% de intervalo de confianza, y el nivel alfa de significación se estableció en α=0.05 para todas las pruebas estadísticas. Las principales diferencias en el patrón normal de la marcha se encontraron en los parámetros cinemáticos de hombres y mujeres, aunque también se presentaron diferencias entre los grupos en función de la estatura. Las mujeres mostraron mayor flexión de cadera y rodilla, y mayor extensión de tobillo que los hombres durante el ciclo normal, aunque la basculación lateral de la pelvis, mayor en las mujeres, y el desplazamiento lateral del centro de gravedad, mayor en los hombres, fueron los parámetros identificados como principales discriminantes entre sexos. La disminución de la velocidad de la marcha mostró similares adaptaciones y modificaciones en hombres y en mujeres, presentándose un aumento de la fase de apoyo y una disminución de la fase de oscilación, un retraso de los máximos y mínimos de flexoextensión de cadera, rodilla y tobillo, y una disminución del rango articular en las tres articulaciones. Asimismo, la basculación lateral de la pelvis y el movimiento vertical del centro de gravedad disminuyeron, mientras que el movimiento lateral del centro de gravedad y el ancho de paso aumentaron. Durante la evaluación del patrón de la marcha reproducido por el exoesqueleto se observó que las tres articulaciones del miembro inferior disminuían el rango de movimiento por la falta de fuerza de los motores para contrarrestar el peso corporal, incluso con un 70% de descarga de peso. Además, la transferencia de peso se encontró limitada por la falta de movimiento de la pelvis en el plano frontal y se sustituyó por un aumento de la inclinación del tronco y, por tanto, del movimiento lateral del centro de gravedad. Este hecho, junto al aumento del desplazamiento vertical del centro de gravedad, hizo del patrón de la marcha reproducido por el exoesqueleto un movimiento poco eficiente. En conclusión, se establecen patrones de marcha normal diferenciados por sexos, siendo la basculación lateral de la pelvis y el movimiento lateral del centro de gravedad los parámetros discriminantes más característicos entre sexos. Comparando la marcha a velocidad libremente seleccionada y la velocidad lenta, se concluye que ambos sexos utilizan estrategias similares para adaptar el patrón de la marcha a una velocidad lenta y se mantienen las características diferenciadoras entre hombres y mujeres. En relación a la evaluación del dispositivo Hybrid, se deduce que la falta de movimiento lateral de la pelvis condiciona la transferencia de peso y el aumento del rango de movimiento del centro de gravedad y, en consecuencia, tiene como resultado un patrón de la marcha poco eficiente. Este patrón no resultaría indicado para los procesos de rehabilitación o recuperación de la marcha, aunque podría considerarse adecuado para la compensación funcional de la bipedestación y la locomoción. ABSTRACT The human walking is a means of moving body forward using a repetitious and coordinated sequence of pelvis and lower limb motions. It is frequently influenced by biomechanical and anatomical factors or by musculoskeletal pathologies which modify the way of walking. The spinal injury is one of those pathologies which affect the normal pattern of walking, due to the alteration of the mobility, the sensory or the autonomic nervous system. Although the spinal injury affects many other body functions, apart from the motor and sensory ones, the main priority for patients is to recover the ability of walking. Consequently, the main objective of many research groups and private companies is the development of rehabilitation and compensation devices for walking. In this context, the Hybrid Technological Platform for Rehabilitation, Functional Compensation and Training of Gait in Spinal Cord Injury Patients project has developed a device which integrates an exoskeleton and a motorized smart walker. This system, as other similar devices, has the human movement as standard reference. Nevertheless, these devices are not usually evaluated on the way they reproduce the normal human pattern or on the modifications and in the interactions with the patient’s body. The aim of the present study is to examine the normal walking characteristics, to analyze the differences between self-selected and low speed walking patterns, and to evaluate the modifications and adaptations of walking pattern when it is reproduced by the exoskeleton. The present research is a quantitative cross-sectional study carried out in two phases: study 1 and study 2. During the study 1, the self-selected and the low speed (0.25m/s) walking patterns were analyzed in sixty-two people distributed in groups, according to sex and 25th, 50th and 75th percentiles of height for Spanish population. The study 2 analyzed the low speed walking pattern reproduced by the Hybrid system in three conditions: 30%, 50% and 70% of body weight support. To do this, ten subjects were randomly selected and analyzed from the people of study 1. An optoelectronic system with six cameras was used to obtain spatial, temporal and kinematic parameters in both studies. Means, standard deviations and 95% confidence intervals of the study were calculated. The alpha level of significance was set at α=0.05 for all statistical tests. The main differences in normal gait pattern were found in kinematic parameters between men and women. The hip and the knee were more flexed and the ankle plantar flexion was higher in women than in men during normal gait cycle. Although the greater pelvic obliquity of women and the higher lateral movement of center of gravity of men were the most relevant discriminators between male and female gait patterns. Comparing self-selected and low speed walking patterns, both sexes showed similar adaptations and modifications. At low speed walking, men and women increased the stance phase ratio and decreased the swing phase ratio. The maximum and minimum peak flexion of hip, knee and ankle appeared after and the range of motion of them decreased during low speed walking. Furthermore, the pelvic obliquity and the vertical movement of the center of gravity decreased, whereas the lateral movement of center of gravity and step width increased. Evaluating the gait pattern reproduced by the exoskeleton, a decrease of lower limb range of motion was observed. This was probably due to the lack of strength of the engines, which were not able to control the body weight, even with the 70% supported. Moreover, the weight transfer from one limb to the contralateral side was restricted due to the lack of pelvis obliquity. This movement deficiency was replaced by the lateral torso sway and, consequently, the increase of lateral movement of the center of gravity. This fact, as well as the increase of the vertical displacement of the center of gravity, made inefficient the gait pattern reproduced by the exoskeleton. In conclusion, different gait patterns of both sexes have been determined, being pelvis obliquity and lateral movement of center of gravity the most relevant discriminators between male and female gait patterns. Comparing self-selected and low speed walking patterns, it was concluded that both sexes use similar strategies for adapting the gait pattern to a low speed, and therefore, the differentiating characteristics of normal gait are maintained. Regarding the Hybrid system evaluation, it was determined that the gait pattern reproduced by the exoskeleton is inefficient. This was due to the lack of pelvis obliquity and the increase of the center of gravity displacement. Consequently, whereas the walking pattern reproduced by the exoskeleton would not be appropriated for the rehabilitation process, it could be considered suitable for functional compensation of walking and standing.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este texto Elementos de Geometría comprende: Geometría Euclidiana y Geometría del Compás. La Geometría Euclidiana se basa en el uso de la regla (no graduada) y el compás, para la construcción de las figuras geométricas. La Geometría Euclidiana se divide, a su vez, en geometría plana y geometría del espacio; la geometría plana trata de las figuras geométricas cuyos puntos están todos situados en el mismo plano y la geometría del espacio del estudio de figuras tridimensionales. El texto aborda, además, el teorema de Gauss que trata de la condición necesaria y suficiente para que una circunferencia se pueda dividir en partes iguales, mediante el uso de la regla y el compás, y teoremas notables como: teorema de Menelaus, teorema de Ceva, teorema de Stewart y teorema de a Alembert. En la geometría del espacio se incluyó un estudio de los cinco poliedros regulares: tetraedro, exaedro, octaedro, icosaedro y dodecaedro. El libro contiene ejercicios al finalizar cada capítulo, en el orden:\' teoremas, lugares geométricos, máximos y mínimos, y problemas varios, con el fin de desarrollar en el estudiante su espíritu investigativo y creativo. Este texto, es una iniciativa de los profesores del Departamento de Ciencias Básicas de la Universidad de Medellín (Medellín - Colombia) y su grupo de investigación SUMMA, yes un programa del Proyecto Institucional Permanencia con Calidad, cuyo objetivo fundamental es disminuir los niveles de deserción y pérdida académica de los estudiantes.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El artículo logra sistematizar y analizar con un enfoque económico diferente a los tradicionales, la problemática introducida por las políticas de precios mínimos y máximos. El estudio del sector arrocero costarricense para tal propósito, busca evidenciar la solvencia teórica para casos concretos. El modelo aplicado en tal caso, demuestra su capacidad para generar elementos adecuados a una cierta estrategia planeada a nivel de las esferas de la producción y de la circulación propias de la cadena agroalimentaria del arroz.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El presente trabajo trata sobre la caracterización y evaluación preliminar de 21 genotipos de maíz (Zea mays L.) de los cuales el 95% fue recolectado en diferentes regiones de Nicaragua por el programa Recursos Genéticos Nicaragüense (REGEN), y la variedad comercial NB-6 como Testigo. El experimento se llevó a cabo en Julio de 1992 en los terrenos del REGEN, adscrito a la Universidad Nacional Agraria (UNA) Km 12-1/2carretera norte. El diseño empleado fué un Látice Balanceado (modificado) contabilizándose 3 réplicas con un testigo en cada bloque. Se utilizaron 49 descriptores, de los cuales el 92% de ellos ayudaron a diferenciar los genotipos estudiados. El mayor rendimiento lo expresaron el Testigo y la accesión 2511 sobrepasando los 4,000 kg/ha, asimismo se evaluó el ciclo vegetativo de los cultivares sobresaliendo la accesión 3061 (Pujagua) como material precoz. También se elaboró un catálogo de las accesiones conteniendo loe valores máximos, medios, mínimos, desviación estándar y coeficientes de variación para los descriptores cuantitativos y la moda para los caracteres cualitativos

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabajo trata sobre la caracterización y evaluación preliminar del posible ancestro del maíz, el teocintle anual (Zea luxurians Durie), el cual fue recolectado en la región Nor-occidental de Nicaragua (Villanueva, Chinandega). El experimento se llevó a efecto en el área experimental del Programa Recursos Genéticos Nicaragüenses (REGEN), adscrito a la Universidad Nacional Agraria (UNA), ubicado en el Km 12 1/2 carretera Norte. Dicha investigación se realizó en el periodo comprendido de Enero a Octubre de 1995. los meses de Enero y Febrero no fueron evaluados debido al fuerte acame de las plantas, y el mes de Octubre no se evaluó debido al deficiente crecimiento y desarrollo. El diseño empleado fue un bifactorial en parcelas divididas con dos bloques. En las parcelas grandes se ubicaron los tratamientos épocas de siembra (meses), y en las parcelas pequeñas se realizó el control de malezas (con maleza y sin maleza en todo el ciclo de la planta. Se utilizaron 45 descriptores, de los cuales cuantitativos y 11 son cualitativos. Según el realizado se observó diferencia significativa 34 son ANDEVA en los caracteres cuantitativos, a excepción de los caracteres de grano. Las mayores alturas de plantas se obtuvieron en las primeras fechas de siembra, sobrepasando los 3m de altura y en cuanto al rendimiento los mayores promedios se presentaron bajo el tratamiento sin maleza. Esta especie responde al fotoperiodo, ya que la floración se produjo entre los meses de Noviembre y Diciembre para los meses de Enero hasta Septiembre y la época de siembra del mes de Octubre se registró entre Diciembre y Enero. De los resultados obtenidos se elaboró un catálogo (valores máximos,medios, mínimos, desviación estándar y coeficiente de variación para los descriptores cuantitativos) para los diferentes tratamientos.Debido a la importancia que esta especie representa se debe tomar en cuenta la caracterización In situ y declarar zona protegida el área de origen por riesgos de erosión genética.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este documento propone dar a conocer los antecedentes, la razón de ser de los Precios de Transferencia Internacionales basado en los lineamientos de OCDE, los nuevos conceptos en el proceso de Control Interno según el informe COSO, y también ofrecer un análisis de la Evolución de la Legislación Ecuatoriana en relación con el tema base que es “los Precios de Transferencia”, como refuerzo al análisis se profundiza los procesos de negociación de Acuerdos de Precios Anticipados y su relación con los Convenio de Doble Imposición. El documento resalta la importancia y las interrelaciones entre todos los elementos mencionados, de fiscalidad internacional y busca dar lineamientos que permita a los directivos de empresas multinacionales implantar procesos de diseño de sistemas de Control Interno que aseguren sus operaciones, a través de esquemas probados de los mismos estudios base de esta investigación y las conclusiones que se han obtenido en el desarrollo de la presente Tesis.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Incluye Bibliografía