999 resultados para sistema de ficheros paralelos


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Uno de los grandes retos de la HPC (High Performance Computing) consiste en optimizar el subsistema de Entrada/Salida, (E/S), o I/O (Input/Output). Ken Batcher resume este hecho en la siguiente frase: "Un supercomputador es un dispositivo que convierte los problemas limitados por la potencia de cálculo en problemas limitados por la E/S" ("A Supercomputer is a device for turning compute-bound problems into I/O-bound problems") . En otras palabras, el cuello de botella ya no reside tanto en el procesamiento de los datos como en la disponibilidad de los mismos. Además, este problema se exacerbará con la llegada del Exascale y la popularización de las aplicaciones Big Data. En este contexto, esta tesis contribuye a mejorar el rendimiento y la facilidad de uso del subsistema de E/S de los sistemas de supercomputación. Principalmente se proponen dos contribuciones al respecto: i) una interfaz de E/S desarrollada para el lenguaje Chapel que mejora la productividad del programador a la hora de codificar las operaciones de E/S; y ii) una implementación optimizada del almacenamiento de datos de secuencias genéticas. Con más detalle, la primera contribución estudia y analiza distintas optimizaciones de la E/S en Chapel, al tiempo que provee a los usuarios de una interfaz simple para el acceso paralelo y distribuido a los datos contenidos en ficheros. Por tanto, contribuimos tanto a aumentar la productividad de los desarrolladores, como a que la implementación sea lo más óptima posible. La segunda contribución también se enmarca dentro de los problemas de E/S, pero en este caso se centra en mejorar el almacenamiento de los datos de secuencias genéticas, incluyendo su compresión, y en permitir un uso eficiente de esos datos por parte de las aplicaciones existentes, permitiendo una recuperación eficiente tanto de forma secuencial como aleatoria. Adicionalmente, proponemos una implementación paralela basada en Chapel.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Manual adaptado a los ciclos formativos superiores de informática sobre teoría de sistemas operativos, estructurado en cinco capítulos cuyos contenidos son: introducción a los sistemas operativos, gestión del procesador, gestión de memoria, gestión de entrada y salida y gestión del sistema de ficheros.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La computación ubicua está extendiendo su aplicación desde entornos específicos hacia el uso cotidiano; el Internet de las cosas (IoT, en inglés) es el ejemplo más brillante de su aplicación y de la complejidad intrínseca que tiene, en comparación con el clásico desarrollo de aplicaciones. La principal característica que diferencia la computación ubicua de los otros tipos está en como se emplea la información de contexto. Las aplicaciones clásicas no usan en absoluto la información de contexto o usan sólo una pequeña parte de ella, integrándola de una forma ad hoc con una implementación específica para la aplicación. La motivación de este tratamiento particular se tiene que buscar en la dificultad de compartir el contexto con otras aplicaciones. En realidad lo que es información de contexto depende del tipo de aplicación: por poner un ejemplo, para un editor de imágenes, la imagen es la información y sus metadatos, tales como la hora de grabación o los ajustes de la cámara, son el contexto, mientras que para el sistema de ficheros la imagen junto con los ajustes de cámara son la información, y el contexto es representado por los metadatos externos al fichero como la fecha de modificación o la de último acceso. Esto significa que es difícil compartir la información de contexto, y la presencia de un middleware de comunicación que soporte el contexto de forma explícita simplifica el desarrollo de aplicaciones para computación ubicua. Al mismo tiempo el uso del contexto no tiene que ser obligatorio, porque si no se perdería la compatibilidad con las aplicaciones que no lo usan, convirtiendo así dicho middleware en un middleware de contexto. SilboPS, que es nuestra implementación de un sistema publicador/subscriptor basado en contenido e inspirado en SIENA [11, 9], resuelve dicho problema extendiendo el paradigma con dos elementos: el Contexto y la Función de Contexto. El contexto representa la información contextual propiamente dicha del mensaje por enviar o aquella requerida por el subscriptor para recibir notificaciones, mientras la función de contexto se evalúa usando el contexto del publicador y del subscriptor. Esto permite desacoplar la lógica de gestión del contexto de aquella de la función de contexto, incrementando de esta forma la flexibilidad de la comunicación entre varias aplicaciones. De hecho, al utilizar por defecto un contexto vacío, las aplicaciones clásicas y las que manejan el contexto pueden usar el mismo SilboPS, resolviendo de esta forma la incompatibilidad entre las dos categorías. En cualquier caso la posible incompatibilidad semántica sigue existiendo ya que depende de la interpretación que cada aplicación hace de los datos y no puede ser solucionada por una tercera parte agnóstica. El entorno IoT conlleva retos no sólo de contexto, sino también de escalabilidad. La cantidad de sensores, el volumen de datos que producen y la cantidad de aplicaciones que podrían estar interesadas en manipular esos datos está en continuo aumento. Hoy en día la respuesta a esa necesidad es la computación en la nube, pero requiere que las aplicaciones sean no sólo capaces de escalar, sino de hacerlo de forma elástica [22]. Desgraciadamente no hay ninguna primitiva de sistema distribuido de slicing que soporte un particionamiento del estado interno [33] junto con un cambio en caliente, además de que los sistemas cloud actuales como OpenStack u OpenNebula no ofrecen directamente una monitorización elástica. Esto implica que hay un problema bilateral: cómo puede una aplicación escalar de forma elástica y cómo monitorizar esa aplicación para saber cuándo escalarla horizontalmente. E-SilboPS es la versión elástica de SilboPS y se adapta perfectamente como solución para el problema de monitorización, gracias al paradigma publicador/subscriptor basado en contenido y, a diferencia de otras soluciones [5], permite escalar eficientemente, para cumplir con la carga de trabajo sin sobre-provisionar o sub-provisionar recursos. Además está basado en un algoritmo recientemente diseñado que muestra como añadir elasticidad a una aplicación con distintas restricciones sobre el estado: sin estado, estado aislado con coordinación externa y estado compartido con coordinación general. Su evaluación enseña como se pueden conseguir notables speedups, siendo el nivel de red el principal factor limitante: de hecho la eficiencia calculada (ver Figura 5.8) demuestra cómo se comporta cada configuración en comparación con las adyacentes. Esto permite conocer la tendencia actual de todo el sistema, para saber si la siguiente configuración compensará el coste que tiene con la ganancia que lleva en el throughput de notificaciones. Se tiene que prestar especial atención en la evaluación de los despliegues con igual coste, para ver cuál es la mejor solución en relación a una carga de trabajo dada. Como último análisis se ha estimado el overhead introducido por las distintas configuraciones a fin de identificar el principal factor limitante del throughput. Esto ayuda a determinar la parte secuencial y el overhead de base [26] en un despliegue óptimo en comparación con uno subóptimo. Efectivamente, según el tipo de carga de trabajo, la estimación puede ser tan baja como el 10 % para un óptimo local o tan alta como el 60 %: esto ocurre cuando se despliega una configuración sobredimensionada para la carga de trabajo. Esta estimación de la métrica de Karp-Flatt es importante para el sistema de gestión porque le permite conocer en que dirección (ampliar o reducir) es necesario cambiar el despliegue para mejorar sus prestaciones, en lugar que usar simplemente una política de ampliación. ABSTRACT The application of pervasive computing is extending from field-specific to everyday use. The Internet of Things (IoT) is the shiniest example of its application and of its intrinsic complexity compared with classical application development. The main characteristic that differentiates pervasive from other forms of computing lies in the use of contextual information. Some classical applications do not use any contextual information whatsoever. Others, on the other hand, use only part of the contextual information, which is integrated in an ad hoc fashion using an application-specific implementation. This information is handled in a one-off manner because of the difficulty of sharing context across applications. As a matter of fact, the application type determines what the contextual information is. For instance, for an imaging editor, the image is the information and its meta-data, like the time of the shot or camera settings, are the context, whereas, for a file-system application, the image, including its camera settings, is the information and the meta-data external to the file, like the modification date or the last accessed timestamps, constitute the context. This means that contextual information is hard to share. A communication middleware that supports context decidedly eases application development in pervasive computing. However, the use of context should not be mandatory; otherwise, the communication middleware would be reduced to a context middleware and no longer be compatible with non-context-aware applications. SilboPS, our implementation of content-based publish/subscribe inspired by SIENA [11, 9], solves this problem by adding two new elements to the paradigm: the context and the context function. Context represents the actual contextual information specific to the message to be sent or that needs to be notified to the subscriber, whereas the context function is evaluated using the publisher’s context and the subscriber’s context to decide whether the current message and context are useful for the subscriber. In this manner, context logic management is decoupled from context management, increasing the flexibility of communication and usage across different applications. Since the default context is empty, context-aware and classical applications can use the same SilboPS, resolving the syntactic mismatch that there is between the two categories. In any case, the possible semantic mismatch is still present because it depends on how each application interprets the data, and it cannot be resolved by an agnostic third party. The IoT environment introduces not only context but scaling challenges too. The number of sensors, the volume of the data that they produce and the number of applications that could be interested in harvesting such data are growing all the time. Today’s response to the above need is cloud computing. However, cloud computing applications need to be able to scale elastically [22]. Unfortunately there is no slicing, as distributed system primitives that support internal state partitioning [33] and hot swapping and current cloud systems like OpenStack or OpenNebula do not provide elastic monitoring out of the box. This means there is a two-sided problem: 1) how to scale an application elastically and 2) how to monitor the application and know when it should scale in or out. E-SilboPS is the elastic version of SilboPS. I t is the solution for the monitoring problem thanks to its content-based publish/subscribe nature and, unlike other solutions [5], it scales efficiently so as to meet workload demand without overprovisioning or underprovisioning. Additionally, it is based on a newly designed algorithm that shows how to add elasticity in an application with different state constraints: stateless, isolated stateful with external coordination and shared stateful with general coordination. Its evaluation shows that it is able to achieve remarkable speedups where the network layer is the main limiting factor: the calculated efficiency (see Figure 5.8) shows how each configuration performs with respect to adjacent configurations. This provides insight into the actual trending of the whole system in order to predict if the next configuration would offset its cost against the resulting gain in notification throughput. Particular attention has been paid to the evaluation of same-cost deployments in order to find out which one is the best for the given workload demand. Finally, the overhead introduced by the different configurations has been estimated to identify the primary limiting factor for throughput. This helps to determine the intrinsic sequential part and base overhead [26] of an optimal versus a suboptimal deployment. Depending on the type of workload, this can be as low as 10% in a local optimum or as high as 60% when an overprovisioned configuration is deployed for a given workload demand. This Karp-Flatt metric estimation is important for system management because it indicates the direction (scale in or out) in which the deployment has to be changed in order to improve its performance instead of simply using a scale-out policy.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

[ES]El objetivo principal del presente Trabajo Fin de Grado es diseñar un interpolador de trayectorias y programarlo en Labview. Para ello, se ha de analizar primeramente la cinemática del mecanismo a utilizar, un robot de cinemática paralela 5R, y calcular su espacio de trabajo. Después, se deducirán y programarán diversos perfiles de velocidades (trapezoidal de velocidades, trapezoidal de aceleraciones y sinusoidal) para moverse en rectas, así como el movimiento en curvas mediante splines. También se hallarán experimentalmente las características de los motores disponibles y se averiguarán las velocidades máximas que puede alcanzar el mecanismo. Así podremos presentar un software que sirva para generar trayectorias para el robot 5R. Se presentan también, entre otros, el presupuesto del proyecto y los riesgos en los que se puede incurrir. El documento finaliza con unos anexos de planos CAD, resultados y código de programación.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Essa dissertação apresenta a implementação de um algoritmo genético paralelo utilizando o modelo de granularidade grossa, também conhecido como modelo das ilhas, para sistemas embutidos multiprocessados. Os sistemas embutidos multiprocessados estão tornando-se cada vez mais complexos, pressionados pela demanda por maior poder computacional requerido pelas aplicações, principalmente de multimídia, Internet e comunicações sem fio, que são executadas nesses sistemas. Algumas das referidas aplicações estão começando a utilizar algoritmos genéticos, que podem ser beneficiados pelas vantagens proporcionadas pelo processamento paralelo disponível em sistemas embutidos multiprocessados. No algoritmo genético paralelo do modelo das ilhas, cada processador do sistema embutido é responsável pela evolução de uma população de forma independente dos demais. A fim de acelerar o processo evolutivo, o operador de migração é executado em intervalos definidos para realizar a migração dos melhores indivíduos entre as ilhas. Diferentes topologias lógicas, tais como anel, vizinhança e broadcast, são analisadas na fase de migração de indivíduos. Resultados experimentais são gerados para a otimização de três funções encontradas na literatura.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A evolução científica e tecnológica que se fez sentir nas últimas décadas criou novos desafios relacionados com uma crescente complexidade dos processos de calibração, bem como a exigência e o rigor dos métodos utilizados. A presente dissertação foi realizada no âmbito de um estágio curricular no Laboratório de Propriedades dos Líquidos do Departamento de Metrologia do Instituto Português da Qualidade (IPQ). A temática do estudo resulta da procura continuada, por parte desta entidade, pelo aperfeiçoamento das metodologias de calibração. Devido à ampla utilização, em diferentes áreas da indústria e serviços, de hidrómetros, a calibração destes tornou-se uma atividade de relevo no Departamento de Metrologia do IPQ. O foco da presente dissertação prendeu-se com a melhoria do processo de calibração de hidrómetros, segundo o método de Cuckow, mais especificamente, com a necessidade de diminuir a componente da incerteza proveniente do operador no alinhamento do traço da escala a calibrar com a superfície do líquido de referência no método de calibração de hidrómetros por pesagem hidrostática. Com este objetivo, foi desenvolvido e validado um automatismo, constituído por uma câmara, um servomotor e um software de controlo. O objetivo principal do trabalho foi alcançado com a implementação do automatismo, permitindo uma redução, na ordem de duas a quatro vezes, da incerteza final do método de calibração de hidrómetros. Durante o desenvolvimento do trabalho, surgiram objetivos paralelos ao projeto inicial, nomeadamente, a validação da folha de cálculo utilizada no IPQ para calibração de hidrómetros, assim como um estudo referente á validação da medição manual da divisão de escala dos hidrómetros. O referido sistema de automatização encontra-se implementado e plenamente integrado nas atividades correntes do laboratório.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La evaluación de la educación es un proceso muy costoso que sólo se debe emprender si con ello se pretende contribuir a mejorar la educación. Se evalúa para rendir cuentas, para conocer y para comparar a través de indicadores tanto los resultados a lo largo del tiempo como entre instituciones. Se revisan brevemente las principales evaluaciones internacionales y nacionales llevadas a cabo desde la década de los 80. Se analiza en especial el 'Programa para la Evaluación Internacional de Alumnos', resultados de España en PISA 2003 en la asignatura de Matemáticas. Por último, se enmarcan los objetivos educativos en el ámbito europeo desde la estrategia de Lisboa.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Análisis comparado de los distintos cuestionarios utilizados por los distintos estamentos e instituciones educativas, y elaborar el diseño de una gama de cuestionarios encaminados a captar informaciones básicas para mejorar la gestión de la enseñanza, así como la elaboracion de los instrumentos y la planificación del proceso de recogida de la información. Todos los elementos que integran la realidad educativa: alumnado, personal y centro docente. Se realiza un trabajo de campo recogiendo información de los centros docentes por medio del análisis de los cuestionarios existentes, para, posteriormente, depurarlos y codificarlos con el fin de informatizarlos. Cuestionarios. Análisis comparativo de los distintos cuestionarios de los diferentes estamentos e instituciones educativas. Se han obtenido los siguientes resultados: A/ Análisis comparado de los distintos cuestionarios utilizados por diferentes estamentos o instituciones educativas. B/ Cuestionarios a utilizar por la Consejería de Cultura, Educación y Turismo hasta que se implante un sistema integrado de gestión. C/ Plan de grabación. D/ Plan de explotación estadística. E/ Plan de trabajos previos a la toma de datos. F/ Líneas de actuación a medio plazo. La implantación de un sistema de gestión informatizado con teleproceso exige, por un lado, poner en marcha un plan de informatización de los ficheros existentes a la vez que se crean otros nuevos. Por otro lado, iniciar las tareas necesarias para la implantación de dicho sistema de gestión. Fecha finalización tomada del código del documento.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El departamento de Desarrollo Local del Ayuntamiento de Guía de Isora, en Tenerife, ha realizado un inventario de los caminos históricos del municipio con el fin de recuperarlos y hacerlos accesible a los ciudadanos. Los caminos se han recogido con la ayuda de señores/as mayores del municipio que han transitado por los mismos, en muchas ocasiones diariamente, hace más de 30-40 años. El inventario realizado está disponible actualmente a través de la página del Ayuntamiento, http://www.guiadeisora.org/, mediante la descarga de ficheros PDF. Para mejorar la gestión de los caminos, así como para mejorar la divulgación de la información relacionada con las rutas (seguridad, impactos humanos, señalización, puntos de interés y elementos descriptivos.), el ayuntamiento desarrolla un Geoportal basado en la IDE. El modelo de datos espaciales atiende a dos usos. Por un lado, el de portal informativo para ciudadanos y turistas y por otro lado, el de herramienta interna del propio ayuntamiento para la gestión de los caminos históricos (renovación, limpieza, homologación, etc.). En este segundo uso se tiene en cuenta múltiples criterios entre los que destaca por ejemplo, si el camino pasa por un espacio natural protegido o las relaciones de propiedad existentes (catastro). Para obtener una mejor idea del estado actual de las rutas históricas es imprescindible contar con información amplia y detallada sobre el estado actual de los caminos incluyendo los (I) impactos medioambientales existentes, la (II) seguridad que afecta al senderista, los (III) puntos de interés y la señalización que se encuentra en el camino. Con este fin, se tiene previsto organizar un concurso fotográfico junto con talleres de geotagging gratuitos para ciudadanos. Se prevé premiar fotos digitales relacionadas con estos 4 aspectos. El sistema permite la carga directa de estas fotos a una capa en la base de datos extrayendo la información Exif de las mismas. Esta información se visualizará directamente en el portal o a través de informes PDF que se generan de manera automática por el aplicativo. Dichos informes pueden ser entregados directamente a entidades que se encargan de la limpieza de los caminos o también sirven para la homologación de los mismos

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esse trabalho de dissertação está incluído no contexto das pesquisas realizadas no Grupo de Processamento Paralelo e Distribuído da UFRGS. Ele aborda as áreas da computação de alto desempenho, interfaces simples de programação e de sistemas de interconexão de redes velozes. A máquina paralela formada por agregados (clusters) tem se destacado por apresentar os recursos computacionais necessários às aplicações intensivas que necessitam de alto desempenho. Referente a interfaces de programação, Java tem se mostrado uma boa opção para a escrita de aplicações paralelas por oferecer os sistemas de RMI e de soquetes que realizam comunicação entre dois computadores, além de todas as facilidades da orientação a objetos. Na área a respeito de interconexão de rede velozes está emergindo como uma tentativa de padronização a nova tecnologia Infiniband. Ela proporciona uma baixa latência de comunicação e uma alta vazão de dados, além de uma série de vantagens implementadas diretamente no hardware. É neste contexto que se desenvolve o presente trabalho de dissertação de mestrado. O seu tema principal é o sistema Aldeia que reimplementa a interface bastante conhecida de soquetes Java para realizar comunicação assíncrona em agregados formados por redes de sistema. Em especial, o seu foco é redes configuradas com equipamentos Infiniband. O Aldeia objetiva assim preencher a lacuna de desempenho do sistema padrão de soquetes Java, que além de usar TCP/IP possui um caráter síncrono. Além de Infiniband, o Aldeia também procura usufruir dos avanços já realizados na biblioteca DECK, desenvolvida no GPPD da UFRGS. Com a sua adoção, é possível realizar comunicação com uma interface Java sobre redes Myrinet, SCI, além de TCP/IP. Somada a essa vantagem, a utilização do DECK também proporciona a propriedade de geração de rastros para a depuração de programas paralelos escritos com o Aldeia. Uma das grandes vantagens do Aldeia está na sua capacidade de transmitir dados assincronamente. Usando essa técnica, cálculos da aplicação podem ser realizados concorrentemente com as operações pela rede. Por fim, os canais de dados do Aldeia substituem perfeitamente aqueles utilizados para a serialização de objetos. Nesse mesmo caminho, o Aldeia pode ser integrado à sistemas que utilizem a implementação de soquetes Java, agora para operar sobre redes de alta velocidade. Palavras-chave: Arquitetura Infiniband, agregado de computadores, linguagem de programação Java, alto desempenho, interface de programação.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Pós-graduação em Engenharia Elétrica - FEIS

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Pós-graduação em Odontologia Restauradora - ICT