431 resultados para Métricas


Relevância:

10.00% 10.00%

Publicador:

Resumo:

A comercialização de energia elétrica de fontes renováveis, ordinariamente, constitui-se uma atividade em que as operações são estruturadas sob condições de incerteza, por exemplo, em relação ao preço \"spot\" no mercado de curto prazo e a geração de energia dos empreendimentos. Deriva desse fato a busca dos agentes pela formulação de estratégias e utilização de ferramentais para auxiliá-los em suas tomadas de decisão, visando não somente o retorno financeiro, mas também à mitigação dos riscos envolvidos. Análises de investimentos em fontes renováveis compartilham de desafios similares. Na literatura, o estudo da tomada de decisão considerada ótima sob condições de incerteza se dá por meio da aplicação de técnicas de programação estocástica, que viabiliza a modelagem de problemas com variáveis randômicas e a obtenção de soluções racionais, de interesse para o investidor. Esses modelos permitem a incorporação de métricas de risco, como por exemplo, o Conditional Value-at-Risk, a fim de se obter soluções ótimas que ponderem a expectativa de resultado financeiro e o risco associado da operação, onde a aversão ao risco do agente torna-se um condicionante fundamental. O objetivo principal da Tese - sob a ótica dos agentes geradores, consumidores e comercializadores - é: (i) desenvolver e implementar modelos de otimização em programação linear estocástica com métrica CVaR associada, customizados para cada um desses agentes; e (ii) aplicá-los na análise estratégica de operações como forma de apresentar alternativas factíveis à gestão das atividades desses agentes e contribuir com a proposição de um instrumento conceitualmente robusto e amigável ao usuário, para utilização por parte das empresas. Nesse contexto, como antes frisado, dá-se ênfase na análise do risco financeiro dessas operações por meio da aplicação do CVaR e com base na aversão ao risco do agente. Considera-se as fontes renováveis hídrica e eólica como opções de ativos de geração, de forma a estudar o efeito de complementaridade entre fontes distintas e entre sites distintos da mesma fonte, avaliando-se os rebatimentos nas operações.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La adecuación al nuevo escenario educativo definido en el Espacio Europeo de Educación Superior (EEES) ha supuesto una transformación de la Universidad Española. El cambio en el proceso de enseñanza-aprendizaje implica favorecer el aprendizaje autónomo de competencias genéricas y específicas en el estudiante. La adopción de una nueva metodología centrada en el discente supone que los profesores y los estudiantes deben adoptar nuevos roles, que conllevan nuevas formas de pensar, de sentir y de actuar. El cambio en la concepción pedagógica y la renovación metodológica en el proceso de enseñanza-aprendizaje lleva consigo, a su vez, el uso de diferentes métodos educativos y medios pedagógicos en entornos virtuales de aprendizaje. Al objeto de analizar el modelo y estrategias de enseñanza-aprendizaje aplicado a la formación universitaria, en entornos virtuales, se ha realizado una exhaustiva revisión bibliográfica con el propósito de conseguir un instrumento, con garantías métricas de calidad, que evaluara adecuadamente dicha metodología. Una vez realizada esta revisión, se seleccionó el cuestionario The Distance Education Learning Environments Survey (DELES) de S.L. Walker (2005), como el instrumento más adecuado y con mayor validez aparente para nuestro objetivo de investigación. Ha participado en nuestro proyecto de investigación una muestra de 265 estudiantes matriculados en diversas asignaturas, impartidas por profesorado del Departamento de Psicología de la Salud de la Universidad de Alicante, con metodología de enseñanza-aprendizaje semipresencial y a distancia. El instrumento seleccionado, DELES, evalúa a través de 34 ítems y 5 opciones de respuesta, seis áreas de interés: (1) Apoyo del Profesorado; (2) Interacción y Colaboración entre Estudiantes; (3) Relevancia Personal; (4) Aprendizaje Real; (5) Aprendizaje Activo y (6) Autonomía. Además, este instrumento incluye una escala adicional que permite evaluar el grado de satisfacción del estudiante con la metodología de enseñanza-aprendizaje utilizada en la asignatura. La investigación realizada ha mostrado una buena viabilidad, fiabilidad y validez del instrumento de medida. La adaptación del cuestionario a nuestro medio universitario es satisfactoria. El instrumento muestra buenos criterios de calidad métrica. A través del mismo se comprueba que los estudiantes valoran de manera muy positiva el apoyo e interacción con el profesorado, manifiestan un alto grado de acuerdo en relación a la aplicabilidad de los conocimientos adquiridos en la asignaturat estiman favorablemente la utilización de casos reales en las sesiones y consideran muy provechoso el aprendizaje activo y autónomo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Hardware/Software partitioning (HSP) is a key task for embedded system co-design. The main goal of this task is to decide which components of an application are to be executed in a general purpose processor (software) and which ones, on a specific hardware, taking into account a set of restrictions expressed by metrics. In last years, several approaches have been proposed for solving the HSP problem, directed by metaheuristic algorithms. However, due to diversity of models and metrics used, the choice of the best suited algorithm is an open problem yet. This article presents the results of applying a fuzzy approach to the HSP problem. This approach is more flexible than many others due to the fact that it is possible to accept quite good solutions or to reject other ones which do not seem good. In this work we compare six metaheuristic algorithms: Random Search, Tabu Search, Simulated Annealing, Hill Climbing, Genetic Algorithm and Evolutionary Strategy. The presented model is aimed to simultaneously minimize the hardware area and the execution time. The obtained results show that Restart Hill Climbing is the best performing algorithm in most cases.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El particionado hardware/software es una tarea fundamental en el co-diseño de sistemas embebidos. En ella se decide, teniendo en cuenta las métricas de diseño, qué componentes se ejecutarán en un procesador de propósito general (software) y cuáles en un hardware específico. En los últimos años se han propuesto diversas soluciones al problema del particionado dirigidas por algoritmos metaheurísticos. Sin embargo, debido a la diversidad de modelos y métricas utilizadas, la elección del algoritmo más apropiado sigue siendo un problema abierto. En este trabajo se presenta una comparación de seis algoritmos metaheurísticos: Búsqueda aleatoria (Random search), Búsqueda tabú (Tabu search), Recocido simulado (Simulated annealing), Escalador de colinas estocástico (Stochastic hill climbing), Algoritmo genético (Genetic algorithm) y Estrategia evolutiva (Evolution strategy). El modelo utilizado en la comparación está dirigido a minimizar el área ocupada y el tiempo de ejecución, las restricciones del modelo son consideradas como penalizaciones para incluir en el espacio de búsqueda otras soluciones. Los resultados muestran que los algoritmos Escalador de colinas estocástico y Estrategia evolutiva son los que mejores resultados obtienen en general, seguidos por el Algoritmo genético.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El análisis multitemporal permite detectar cambios entre diferentes fechas de referencia, deduciendo la evolución del medio natural o las repercusiones de la acción humana sobre el medio. El propósito del estudio fue evaluar el cambio de uso del suelo en el Paisaje Terrestre Miraflor Moropotente en el período 1993-2011, a través de imágenes satelitales, a fin de determinar el estado de fragmentación del paisaje. Los cambios de usos de suelo fueron derivados de la clasificación de tres imágenes Landsat TM, con una resolución espacial de 30 metros tomadas en febrero de 1993, abril de 2000 y enero 2011. Se realizó una verificación en campo para la identificación de coberturas de suelo y la corroboración en las imágenes satelitales. La fragmentación se realizó con el cálculo de métricas e índices de fragmentación a nivel del paisaje. Los principales resultados muestran que los cambios de uso de suelo están determinados por la degradación antrópica, principalmente en la conversión de la vegetación nativa a espacios agrícolas y la expansión de la ganadería. El crecimiento demográfico y los monocultivos van ejerciendo presión sobre el bosque, transformando zonas de vocación forestal a cultivos agrícolas. Los cambios de cobertura han significado un paisaje fragmentado con diferentes grados de perturbación, que conllevan a una disminución de la superficie de hábitats naturales, reducción del tamaño de los fragmentos y aislamientos de los mismos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La partición hardware/software es una etapa clave dentro del proceso de co-diseño de los sistemas embebidos. En esta etapa se decide qué componentes serán implementados como co-procesadores de hardware y qué componentes serán implementados en un procesador de propósito general. La decisión es tomada a partir de la exploración del espacio de diseño, evaluando un conjunto de posibles soluciones para establecer cuál de estas es la que mejor balance logra entre todas las métricas de diseño. Para explorar el espacio de soluciones, la mayoría de las propuestas, utilizan algoritmos metaheurísticos; destacándose los Algoritmos Genéticos, Recocido Simulado. Esta decisión, en muchos casos, no es tomada a partir de análisis comparativos que involucren a varios algoritmos sobre un mismo problema. En este trabajo se presenta la aplicación de los algoritmos: Escalador de Colinas Estocástico y Escalador de Colinas Estocástico con Reinicio, para resolver el problema de la partición hardware/software. Para validar el empleo de estos algoritmos se presenta la aplicación de este algoritmo sobre un caso de estudio, en particular la partición hardware/software de un codificador JPEG. En todos los experimentos es posible apreciar que ambos algoritmos alcanzan soluciones comparables con las obtenidas por los algoritmos utilizados con más frecuencia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nowadays wireless communication has emerged as a tendency in industry environments. In part this interest is due to the ease of deployment and maintenance, which dispenses sophisticated designs and wired infrastructure (which in industrial environment often prohibitively expensive) besides enabling the addition of new applications when compared to their wired counterparts. Despite its high degree of applicability, an industrial wireless sensor network faces some challenges. One of the most challenging problems are its reliability, energy consumption and the environment interference. In this dissertation will discuss the problem of asset analysis in wireless industrial networks for the WirelessHART standard by implementing a monitoring system. The system allows to carry out various activities of independent asset management manufacturers, such as prediction of battery life, maintenance, reliability data, topology, and the possibility of creating new metrics from open and standardized development libraries. Through the implementation of this tool is intended to contribute to integration of wireless technologies in industrial environments.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The reverse time migration algorithm (RTM) has been widely used in the seismic industry to generate images of the underground and thus reduce the risk of oil and gas exploration. Its widespread use is due to its high quality in underground imaging. The RTM is also known for its high computational cost. Therefore, parallel computing techniques have been used in their implementations. In general, parallel approaches for RTM use a coarse granularity by distributing the processing of a subset of seismic shots among nodes of distributed systems. Parallel approaches with coarse granularity for RTM have been shown to be very efficient since the processing of each seismic shot can be performed independently. For this reason, RTM algorithm performance can be considerably improved by using a parallel approach with finer granularity for the processing assigned to each node. This work presents an efficient parallel algorithm for 3D reverse time migration with fine granularity using OpenMP. The propagation algorithm of 3D acoustic wave makes up much of the RTM. Different load balancing were analyzed in order to minimize possible losses parallel performance at this stage. The results served as a basis for the implementation of other phases RTM: backpropagation and imaging condition. The proposed algorithm was tested with synthetic data representing some of the possible underground structures. Metrics such as speedup and efficiency were used to analyze its parallel performance. The migrated sections show that the algorithm obtained satisfactory performance in identifying subsurface structures. As for the parallel performance, the analysis clearly demonstrate the scalability of the algorithm achieving a speedup of 22.46 for the propagation of the wave and 16.95 for the RTM, both with 24 threads.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The Atlantic Forest in Rio Grande do Norte (RN) is included in Pernambuco biogeographic sub-region and it is composed by Semi-deciduous Forest, deciduous Forest, Mangrove and Restinga. We assessed the conservation status of Atlantic Forest in the RN through remnants mapping using high resolution satellite images and landscape ecology approaches. We evaluated if there is difference between the north and south coastal regions considering their natural a historical land use differences. We also assessed the influence of the small remnants on landscape cover and configuration. The proportion of the original biome area with remnants larger than 3 hectares is 15.60% for the official governmental limit and is 16.60% for the alternative limit (SNE, 2002). This remnants proportion varies between 0.56 and 46.52% in the hydrographic basins. 89.70% of the remnants are smaller than 50 hectares. Only 6.00% of the remnants are greater than 100 hectares, and these remnants are responsible by 65% of remaining area. The patches with smaller area influence all calculated metrics. The south coastal hydrographic basins have higher percentage of coverage of remnants, larger patch densities and fragments with larger areas than north coastal hydrographic basins. The diffuse drainage basins of the southern coastal have the highest percentage of coverage with remnants. 18.28% and 10% of the biome area are protected by reserves, according to the official governmental and alternative limits respectively. The reserves are mainly of sustainable use (IUCN V-VI). Therefore, the Atlantic Forest in Rio Grande do Norte is in critical situation, with low proportion of remaining area and high fragmentation level. It’s indispensable to biome conservation keep all the remaining area, especially the large remnants, and restore areas to increase remnants proportion and to increase landscape connectivity

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The substantial increase in the number of applications offered through the computer networks, as well as in the volume of traffic forwarded through the network, have hampered to assure adequate service level to users. The Quality of Service (QoS) offer, honoring specified parameters in Service Level Agreements (SLA), established between the service providers and their clients, composes a traditional and extensive computer networks’ research area. Several schemes proposals for the provision of QoS were presented in the last three decades, but the acting scope of these proposals is always limited due to some factors, including the limited development of the network hardware and software, generally belonging to a single manufacturer. The advent of Software Defined Networking (SDN), along with the maturation of its main materialization, the OpenFlow protocol, allowed the decoupling between network hardware and software, through an architecture which provides a control plane and a data plane. This eases the computer networks scenario, allowing that new abstractions are applied in the hardware composing the data plane, through the development of new software pieces which are executed in the control plane. This dissertation investigates the QoS offer through the use and extension of the SDN architecture. Based on the proposal of two new modules, one to perform the data plane monitoring, SDNMon, and the second, MP-ROUTING, developed to determine the use of multiple paths in the forwarding of data referring to a flow, we demonstrated in this work that some QoS metrics specified in the SLAs, such as bandwidth, can be honored. Both modules were implemented and evaluated through a prototype. The evaluation results referring to several aspects of both proposed modules are presented in this dissertation, showing the obtained accuracy of the monitoring module SDNMon and the QoS gains due to the utilization of multiple paths defined by the MP-Routing, when forwarding data flow through the SDN.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las Redes Definidas por Software (Software Defined Networking) permiten la monitorización y el control centralizado de la red, de forma que los administradores pueden tener una visión real y completa de la misma. El análisis y visualización de los diferentes parámetros obtenidos representan la forma más viable y práctica de programar la red en función de las necesidades del usuario. Por este motivo, en este proyecto se desarrolla una arquitectura modular cuyo objetivo es presentar en tiempo real la información que se monitoriza en una red SDN. En primera instancia, las diferentes métricas monitorizadas (error, retardo y tasa de datos) son almacenadas en una base de datos, para que en una etapa posterior se realice el análisis de dichas métricas. Finalmente, los resultados obtenidos, tanto de métricas en tiempo real como de los datos estadísticos, son presentados en una aplicación web. La información es obtenida a través de la interfaz REST que expone el controlador Floodlight y para el análisis de la información se plantea una comparación entre los valores medios y máximos del conjunto de datos. Los resultados obtenidos muestran gráficamente de forma clara y precisa las diferentes métricas de monitorización. Además, debido al carácter modular de la arquitectura, se ofrece un valor añadido a los sistemas actuales de monitorización SDN.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Social media is changing the way we interact, present ideas and information and judge the quality of content and contributions. In recent years there have been hundreds of platforms to freely share all kinds of information and connect across networks. These new tools generate activity statistics and interactions among users such as mentions, retweets, conversations, comments on blogs or Facebook; managers references showing popularity ratings of more references shared by other researchers or repositories that generate statistics of visits or downloads of articles. This paper analyzes that have meaning and implications altmetrics, what are its advantages and critical platforms (Almetric.com, ImpactStory, Plos altmetrics, PlumX), reports progress and benefits for authors, publishers and librarians. It concluded that the value of alternative metrics as a complementary tool citation analysis is evident, although it is suggested that you should dig deeper into this issue to unravel the meaning and the potential value of these indicators to assess their potential.