1000 resultados para Programació (Ordinadors)
Resumo:
Con la mayor capacidad de los nodos de procesamiento en relación a la potencia de cómputo, cada vez más aplicaciones intensivas de datos como las aplicaciones de la bioinformática, se llevarán a ejecutar en clusters no dedicados. Los clusters no dedicados se caracterizan por su capacidad de combinar la ejecución de aplicaciones de usuarios locales con aplicaciones, científicas o comerciales, ejecutadas en paralelo. Saber qué efecto las aplicaciones con acceso intensivo a dados producen respecto a la mezcla de otro tipo (batch, interativa, SRT, etc) en los entornos no-dedicados permite el desarrollo de políticas de planificación más eficientes. Algunas de las aplicaciones intensivas de E/S se basan en el paradigma MapReduce donde los entornos que las utilizan, como Hadoop, se ocupan de la localidad de los datos, balanceo de carga de forma automática y trabajan con sistemas de archivos distribuidos. El rendimiento de Hadoop se puede mejorar sin aumentar los costos de hardware, al sintonizar varios parámetros de configuración claves para las especificaciones del cluster, para el tamaño de los datos de entrada y para el procesamiento complejo. La sincronización de estos parámetros de sincronización puede ser demasiado compleja para el usuario y/o administrador pero procura garantizar prestaciones más adecuadas. Este trabajo propone la evaluación del impacto de las aplicaciones intensivas de E/S en la planificación de trabajos en clusters no-dedicados bajo los paradigmas MPI y Mapreduce.
Resumo:
La gestión de recursos en los procesadores multi-core ha ganado importancia con la evolución de las aplicaciones y arquitecturas. Pero esta gestión es muy compleja. Por ejemplo, una misma aplicación paralela ejecutada múltiples veces con los mismos datos de entrada, en un único nodo multi-core, puede tener tiempos de ejecución muy variables. Hay múltiples factores hardware y software que afectan al rendimiento. La forma en que los recursos hardware (cómputo y memoria) se asignan a los procesos o threads, posiblemente de varias aplicaciones que compiten entre sí, es fundamental para determinar este rendimiento. La diferencia entre hacer la asignación de recursos sin conocer la verdadera necesidad de la aplicación, frente a asignación con una meta específica es cada vez mayor. La mejor manera de realizar esta asignación és automáticamente, con una mínima intervención del programador. Es importante destacar, que la forma en que la aplicación se ejecuta en una arquitectura no necesariamente es la más adecuada, y esta situación puede mejorarse a través de la gestión adecuada de los recursos disponibles. Una apropiada gestión de recursos puede ofrecer ventajas tanto al desarrollador de las aplicaciones, como al entorno informático donde ésta se ejecuta, permitiendo un mayor número de aplicaciones en ejecución con la misma cantidad de recursos. Así mismo, esta gestión de recursos no requeriría introducir cambios a la aplicación, o a su estrategia operativa. A fin de proponer políticas para la gestión de los recursos, se analizó el comportamiento de aplicaciones intensivas de cómputo e intensivas de memoria. Este análisis se llevó a cabo a través del estudio de los parámetros de ubicación entre los cores, la necesidad de usar la memoria compartida, el tamaño de la carga de entrada, la distribución de los datos dentro del procesador y la granularidad de trabajo. Nuestro objetivo es identificar cómo estos parámetros influyen en la eficiencia de la ejecución, identificar cuellos de botella y proponer posibles mejoras. Otra propuesta es adaptar las estrategias ya utilizadas por el Scheduler con el fin de obtener mejores resultados.
Resumo:
En la actualidad, la computación de altas prestaciones está siendo utilizada en multitud de campos científicos donde los distintos problemas estudiados se resuelven mediante aplicaciones paralelas/distribuidas. Estas aplicaciones requieren gran capacidad de cómputo, bien sea por la complejidad de los problemas o por la necesidad de solventar situaciones en tiempo real. Por lo tanto se debe aprovechar los recursos y altas capacidades computacionales de los sistemas paralelos en los que se ejecutan estas aplicaciones con el fin de obtener un buen rendimiento. Sin embargo, lograr este rendimiento en una aplicación ejecutándose en un sistema es una dura tarea que requiere un alto grado de experiencia, especialmente cuando se trata de aplicaciones que presentan un comportamiento dinámico o cuando se usan sistemas heterogéneos. En estos casos actualmente se plantea realizar una mejora de rendimiento automática y dinámica de las aplicaciones como mejor enfoque para el análisis del rendimiento. El presente trabajo de investigación se sitúa dentro de este ámbito de estudio y su objetivo principal es sintonizar dinámicamente mediante MATE (Monitoring, Analysis and Tuning Environment) una aplicación MPI empleada en computación de altas prestaciones que siga un paradigma Master/Worker. Las técnicas de sintonización integradas en MATE han sido desarrolladas a partir del estudio de un modelo de rendimiento que refleja los cuellos de botella propios de aplicaciones situadas bajo un paradigma Master/Worker: balanceo de carga y número de workers. La ejecución de la aplicación elegida bajo el control dinámico de MATE y de la estrategia de sintonización implementada ha permitido observar la adaptación del comportamiento de dicha aplicación a las condiciones actuales del sistema donde se ejecuta, obteniendo así una mejora de su rendimiento.
Resumo:
Computer chips implementation technologies evolving to obtain more performance are increasing the probability of transient faults. As this probability grows and on-chip solutions are expensive or tend to degrade processor performance, the efforts to deal with these transient faults in higher levels (such as the operating system or even at the application level) are increasing. Mostly, these efforts are trying to avoid silent data corruptions using hardware, software and hybrid based techniques to add redundancy to detect the errors generated by the transient faults. This work presents our proposal to improve the robustness of applications with source code based transformation adding redundancy. Also, our proposal takes account of the tradeoff between the improved robustness and the overhead generated by the added redundancy.
Resumo:
Current parallel applications running on clusters require the use of an interconnection network to perform communications among all computing nodes available. Imbalance of communications can produce network congestion, reducing throughput and increasing latency, degrading the overall system performance. On the other hand, parallel applications running on these networks posses representative stages which allow their characterization, as well as repetitive behavior that can be identified on the basis of this characterization. This work presents the Predictive and Distributed Routing Balancing (PR-DRB), a new method developed to gradually control network congestion, based on paths expansion, traffic distribution and effective traffic load, in order to maintain low latency values. PR-DRB monitors messages latencies on intermediate routers, makes decisions about alternative paths and record communication pattern information encountered during congestion situation. Based on the concept of applications repetitiveness, best solution recorded are reapplied when saved communication pattern re-appears. Traffic congestion experiments were conducted in order to evaluate the performance of the method, and improvements were observed.
Resumo:
La computación de altas prestaciones es una área de la informática que evoluciona rápidamente, en la que actualmente aparecen nuevos computadores que llegan a los petaflops. Al principio del trabajo, se estudian los distintos tipos de redes de interconexión y los modelos de red que se utilizan para medir su latencia. El objetivo de este trabajo, es el diseño, implementación y simulación de un modelo de red de interconexión basado en enlace, que tiene en cuenta la información de topología y enrutamiento de la red de interconexión. Teniendo en cuenta que los modelos son una abstracción del sistema, en éste trabajo se hace la verificación y validación del modelo, para asegurar que éste se aproxima a lo planteado en el diseño y también que se parece al sistema que se quiere modelar.
Resumo:
Per a determinar la dinàmica espai-temporal completa d’un sistema quàntic tridimensional de N partícules cal integrar l’equació d’Schrödinger en 3N dimensions. La capacitat dels ordinadors actuals permet fer-ho com a molt en 3 dimensions. Amb l’objectiu de disminuir el temps de càlcul necessari per a integrar l’equació d’Schrödinger multidimensional, es realitzen usualment una sèrie d’aproximacions, com l’aproximació de Born–Oppenheimer o la de camp mig. En general, el preu que es paga en realitzar aquestes aproximacions és la pèrdua de les correlacions quàntiques (o entrellaçament). Per tant, és necessari desenvolupar mètodes numèrics que permetin integrar i estudiar la dinàmica de sistemes mesoscòpics (sistemes d’entre tres i unes deu partícules) i en els que es tinguin en compte, encara que sigui de forma aproximada, les correlacions quàntiques entre partícules. Recentment, en el context de la propagació d’electrons per efecte túnel en materials semiconductors, X. Oriols ha desenvolupat un nou mètode [Phys. Rev. Lett. 98, 066803 (2007)] per al tractament de les correlacions quàntiques en sistemes mesoscòpics. Aquesta nova proposta es fonamenta en la formulació de la mecànica quàntica de de Broglie– Bohm. Així, volem fer notar que l’enfoc del problema que realitza X. Oriols i que pretenem aquí seguir no es realitza a fi de comptar amb una eina interpretativa, sinó per a obtenir una eina de càlcul numèric amb la que integrar de manera més eficient l’equació d’Schrödinger corresponent a sistemes quàntics de poques partícules. En el marc del present projecte de tesi doctoral es pretén estendre els algorismes desenvolupats per X. Oriols a sistemes quàntics constituïts tant per fermions com per bosons, i aplicar aquests algorismes a diferents sistemes quàntics mesoscòpics on les correlacions quàntiques juguen un paper important. De forma específica, els problemes a estudiar són els següents: (i) Fotoionització de l’àtom d’heli i de l’àtom de liti mitjançant un làser intens. (ii) Estudi de la relació entre la formulació de X. Oriols amb la aproximació de Born–Oppenheimer. (iii) Estudi de les correlacions quàntiques en sistemes bi- i tripartits en l’espai de configuració de les partícules mitjançant la formulació de de Broglie–Bohm.
Resumo:
En aquest treball s’ha dissenyat i fabricat una antena monopol en estructura planar capaç de treballar correctament a les freqüències WLAN de 2,45-2,5 GHz (802.11b/g) i 4,9-5,875 GHz (802.11a/h/j). Per arribar a aquest objectiu primer s’ha presentat el model de línia de transmissió acabada en circuit obert per simular el comportament d’una antena. S’han comparat i verificat els resultats amb el model d’antena de fil. Seguidament, s’ha estudiat el comportament que introdueix el fet de carregar l’antena amb un ressonador LC. Finalment, s’ha passat del model d’antena de fil a una estructura planar. Aquesta geometria ha permès la realització del trap LC de forma distribuïda a través d’un ressonador CLL. El principi de disseny de l’antena està basat en la introducció d’aquest ressonador CLL amb freqüència de ressonància situada entre les dos bandes de treball i que junt amb l’ajust dels diversos paràmetres que defineixen l’antena han permès obtenir més 1 GHz d’ample de banda a la freqüència de 5 GHz.
Resumo:
L'objectiu del projecte era la creació d’una eina de tipus intranet que permetés al personal docent de la Facultat enregistrar i documentar les feines d’innovació docent, així com desenvolupar els processos associats per a la seva gestió. La utilitat que es volia donar a aquest registre és triple: 1) permetre compartir entre els professors les experiències, tant positives com negatives, d’innovació i millora de la docència i 2) permetre a la Facultat detectar iniciatives interessants, per promoure-les i estendre-les, així com eventualment reconèixer la feina dels professors que innoven i 3) permetre a la Facultat mostrar a entitats externes la feina de renovació que els seus professors duen a terme.
Resumo:
El projecte s'ha centrat en el disseny i desenvolupament de laboratoris virtuals per a la docència del dispositius i mètodes de gestió d’energia. Això s’ha realitzat a dos nivells clarament diferenciats, el primer grup de laboratoris correspon als convertidors electrònics de potencia i el segon grup de laboratoris correspon a un conjunt de casos d’aplicacions concretes. En el primer grup es descriu el detall del funcionament dels diferents elements mentre que en el segon els descriuen les idees i conceptes bàsics de funcionament. Els laboratoris virtuals de convertidors electrònics de potència inclouen el convertidor elevador (boost), el convertidor reductor (buck), i convertidors acobladors magnèticament. Aquestes permeten estudiar el comportament dinàmica des d’un punt de vista commutat o bé promitjat, les aplicacions incorporen també la possibilitat de sintonitzar els controladors. Aquestes aplicacions han estat desenvolupades per ser un complement per les sessions de pràctiques presencials. Els laboratoris virtuals d’aplicacions, inclouen els sistema de transport metropolità, el vehicle híbrid i els sistemes de gestió de talls transitoris en el subministrament d’energia principalment. Aquestes laboratoris permeten introduir els estudiants de forma qualitativa en els diferents conceptes i tècniques emprades en els sistemes de generació, transport i transformació d’energia. Totes les aplicacions han estat desenvolupades emprant Easy JAVA Simulations, aquesta eina permet desenvolupar laboratoris multiplataforma fàcilment distribuïbles a través d’internet.
Resumo:
Els canvi recents en els plans d’estudis de la UPC i la UOC tenen en compte el nou espai europeu d’educació superior (EEES). Una de les conseqüències directes a aquests canvis es la necessitat d'aprofitar i optimitzar el temps dedicat a les activitats d'aprenentatge que requereixen la participació activa de l’estudiant i que es realitzen de manera continuada durant el semestre. A més, I'EEES destaca la importància de les pràctiques, les relacions interpersonals i la capacitat per treballar en equip, suggerint la reducció de classes magistrals i l’augment d’activitats que fomentin tant el treball personal de l’estudiant com el cooperatiu. En l’àmbit de la docència informàtica d’assignatures de bases de dades el problema és especialment complex degut a que els enunciats de les proves no acostumen a tenir una solució única. Nosaltres hem desenvolupat una eina anomenada LEARN-SQL, l’objectiu de la qual és corregir automàticament qualsevol tipus de sentència SQL (consultes, actualitzacions, procediments emmagatzemats, disparadors, etc.) i discernir si la resposta aportada per l’estudiant és o no és correcta amb independència de la solució concreta que aquest proposi. D’aquesta manera potenciem l’autoaprenentatge i l’autoavaluació, fent possible la semi-presencialitat supervisada i facilitant l’aprenentatge individualitzat segons les necessitats de cada estudiant. Addicionalment, aquesta eina ajuda als professors a dissenyar les proves d’avaluació, permetent també la opció de revisar qualitativament les solucions aportades pels estudiants. Per últim, el sistema proporciona ajuda als estudiants per a que aprenguin dels seus propis errors, proporcionant retroalimentació de qualitat.
Resumo:
L'objectiu del projecte ha estat la millora de la qualitat docent de l'assignatura Estructura de Computadors I, impartida a la Facultat d'Informàtica de Barcelona (UPC) dins els estudis d'Enginyeria Informàtica, Enginyeria Tècnica en Informàtica de Sistemes i Enginyeria Tècnica en Informàtica de Gestió. S'ha treballat en quatre línies d'actuació: (i) aplicació de tècniques d'aprenentatge actiu a les classes; (ii) aplicació de tècniques d'aprenentage cooperatiu no presencials; (iii) implantació de noves TIC i adaptació de les ja emprades per tal d'habilitar mecanismes d'autoavaluació i de realimentació de la informació referent a l'avaluació; i (iv) difusió de les experiències derivades de les diferents actuacions. Referent a les dues primeres mesures s'avalua l'impacte de metodologies docents que afavoreixen l'aprenentatge actiu tant de forma presencial com no presencial, obtenint-se clares millores en el rendiment respecte a altres metodologies utilitzades anteriorment enfocades a la realització de classes del tipus magistral, en què únicament es posa a l'abast dels alumnes la documentació de l'assignatura per a què puguin treballar de forma responsable. Les noves metodologies fan especial èmfasi en el treball en grup a classe i la compartició de les experiències fora de classe a través de fòrums de participació. La mesura que ha requerit més esforç en aquest projecte és la tercera, amb el desenvolupament d'un entorn d'interfície web orientat a la correcció automàtica de programes escrits en llenguatge assemblador. Aquest entorn permet l'autoavaluació per part dels alumnes dels exercicis realitzats a l'assignatura, amb obtenció d'informació detallada sobre les errades comeses. El treball realitzat dins d'aquest projecte s'ha publicat en congressos rellevants en l'àrea docent tant a nivell estatal com internacional. El codi font de l'entorn esmentat anteriorment es posa a disposició pública a través d'un enllaç a la web.
Resumo:
L'objectiu del projecte QUALITEL dut a terme durant el curs 2007/2008 fou millorar l'aprenentatge dels estudiants de primer curs (fase selectiva) d'enginyeria de telecomunicació de l'ETSETB, introduint una nova metodologia docent basada en l'EEES. Es a dir, programació del treball de l'estudiant dins i fora de l'aula, increment de la interacció entre el professors i els seus estudiants mitjançant un sistema de tutories i la utilització d'eines de suport a l'aprenentatge com la utilització del Campus Digital ATENEA. La millora de l'aprenentatge s'hauria de traduir en un augment significatiu del percentatge d'aprovats a la fase selectiva que permetés capgirar la dinàmica de l'ETSETB en els darrers anys que ha sofert una davallada molt important d'estudiants matriculats. Aquesta davallada es va originar per una disminució de la demanda dels nostres estudis, la qual va provocar una baixada de la nota de tall que, a la seva vegada, va comportar un elevat fracàs a la fase selectiva.
Resumo:
El present treball de recerca es centra en l’estudi de la programació general de l’aula en entorns inclusius. Concretament, s’ha dut a terme un estudi de cas a la comarca del Solsonès ja que les característiques demogràfiques i educatives d’aquesta comarca han facilitat la inclusió escolar de tot l’alumnat amb discapacitat a l’aula ordinària. Els principals objectius de la investigació són descriure les pràctiques de planificació general del professorat de la comarca del Solsonès que ha atès a alumnat amb necessitats educatives especials i conèixer els aspectes relacionats amb la programació didàctica que es poden millorar a partir de processos de formació permanent i assessorament. L’anàlisi de la informació recollida a través de qüestionaris realitzats al professorat del Solsonès i un grup de discussió als professionals dels serveis externs, ens ha permès conèixer les pràctiques de planificació del professorat del Solsonès i fins a quin punt són similars a bones pràctiques, com l’Ensenyament Multinivell o el Disseny Universal de l’Aprenentatge, desenvolupades en altres contextos; així com, quins són els principals problemes i dificultats amb què es troben els i les professionals a l’hora de dur a terme les programacions a l’aula.
Resumo:
La validació de mètodes és un dels pilars fonamentals de l’assegurament de la qualitat en els laboratoris d’anàlisi, tal i com queda reflectit en la norma ISO/IEC 17025. És, per tant, un aspecte que cal abordar en els plans d’estudis dels presents i dels futurs graus en Química. Existeix molta bibliografia relativa a la validació de mètodes, però molt sovint aquesta s’utilitza poc, degut a la dificultat manifesta de processar tota la informació disponible i aplicar-la al laboratori i als problemes concrets. Una altra de les limitacions en aquest camps és la manca de programaris adaptats a les necessitats del laboratori. Moltes de les rutines estadístiques que es fan servir en la validació de mètodes són adaptacions fetes amb Microsoft Excel o venen incorporades en paquets estadístics gegants, amb un alt grau de complexitat. És per aquest motiu que l’objectiu del projecte ha estat generar un programari per la validació de mètodes i l’assegurament de la qualitat dels resultats analítics, que incorporés únicament les rutines necessàries. Específicament, el programari incorpora les funcions estadístiques necessàries per a verificar l’exactitud i avaluar la precisió d’un mètode analític. El llenguatge de programació triat ha estat el Java en la seva versió 6. La part de creació del programari ha constat de les següents etapes: recollida de requisits, anàlisi dels requisits, disseny del programari en mòduls, programació d les funcions del programa i de la interfície gràfica, creació de tests d’integració i prova amb usuaris reals, i, finalment, la posada en funcionament del programari (creació de l’instal·lador i distribució del programari).