1000 resultados para Comunicació sense fil, Sistemes de -- Investigació
Resumo:
El principal problema de les teràpies actuals contra el càncer es la baixa especificitat envers les cèl•lules tumorals, cosa que comporta gran quantitat d’efectes secundaris. Per això es important el desenvolupament de nous tipus de teràpies i sistemes d’alliberament efectius per als fàrmacs ja existents al mercat. En la immunoteràpia contra el càncer es pretén estimular el sistema immunològic per a eliminar les cèl•lules canceroses de manera selectiva. En aquest projecte s’han sintetitzat derivats de l’antigen peptídic de melanoma NY-ESO1 i s’ha estudiat la seva capacitat per a estimular el sistema immunològic com a vacunes contra el càncer. També s’han encapsulat el antígens peptídics en liposomes com a adjuvants i sistemes d’alliberament. De totes les variants peptídiques la que resultà més immunogènica fou la que contenia el grup palmitoil i el fragment toxoide tetànic en la seva estructura. La utilització de liposomes com a sistema adjuvant sembla una estratègia interessant per al disseny de vacunes contra el càncer donat que l’encapsulació del pèptid en liposomes va augmentar notablement la resposta immunològica de l’antigen. Per altra banda, s’han desenvolupat dendrímers basats en polietilenglicol com a sistemes alliberadors de fàrmacs per al tractament de tumors. El polietilenglicol és àmpliament utilitzat com a sistema d’alliberament de fàrmacs degut a les seves interessants propietats, augment de la solubilitat i dels temps de residència en plasma, entre d’altres. La metodologia química descrita permet la diferenciació controlada de varies posicions en la superfície del dendrímer a més del creixement del dendrímer fins a una segona generació. S’ha sintetitzat la primera generació del dendrímer contenint el fàrmac antitumoral 5-fluorouracil i s’han realitzat estudis de citotoxicitat comprovant que l’activitat del nanoconjugat és del mateix ordre de magnitud que el 5-fluorouracil sense conjugar.
Resumo:
Con la mayor capacidad de los nodos de procesamiento en relación a la potencia de cómputo, cada vez más aplicaciones intensivas de datos como las aplicaciones de la bioinformática, se llevarán a ejecutar en clusters no dedicados. Los clusters no dedicados se caracterizan por su capacidad de combinar la ejecución de aplicaciones de usuarios locales con aplicaciones, científicas o comerciales, ejecutadas en paralelo. Saber qué efecto las aplicaciones con acceso intensivo a dados producen respecto a la mezcla de otro tipo (batch, interativa, SRT, etc) en los entornos no-dedicados permite el desarrollo de políticas de planificación más eficientes. Algunas de las aplicaciones intensivas de E/S se basan en el paradigma MapReduce donde los entornos que las utilizan, como Hadoop, se ocupan de la localidad de los datos, balanceo de carga de forma automática y trabajan con sistemas de archivos distribuidos. El rendimiento de Hadoop se puede mejorar sin aumentar los costos de hardware, al sintonizar varios parámetros de configuración claves para las especificaciones del cluster, para el tamaño de los datos de entrada y para el procesamiento complejo. La sincronización de estos parámetros de sincronización puede ser demasiado compleja para el usuario y/o administrador pero procura garantizar prestaciones más adecuadas. Este trabajo propone la evaluación del impacto de las aplicaciones intensivas de E/S en la planificación de trabajos en clusters no-dedicados bajo los paradigmas MPI y Mapreduce.
Resumo:
La gestión de recursos en los procesadores multi-core ha ganado importancia con la evolución de las aplicaciones y arquitecturas. Pero esta gestión es muy compleja. Por ejemplo, una misma aplicación paralela ejecutada múltiples veces con los mismos datos de entrada, en un único nodo multi-core, puede tener tiempos de ejecución muy variables. Hay múltiples factores hardware y software que afectan al rendimiento. La forma en que los recursos hardware (cómputo y memoria) se asignan a los procesos o threads, posiblemente de varias aplicaciones que compiten entre sí, es fundamental para determinar este rendimiento. La diferencia entre hacer la asignación de recursos sin conocer la verdadera necesidad de la aplicación, frente a asignación con una meta específica es cada vez mayor. La mejor manera de realizar esta asignación és automáticamente, con una mínima intervención del programador. Es importante destacar, que la forma en que la aplicación se ejecuta en una arquitectura no necesariamente es la más adecuada, y esta situación puede mejorarse a través de la gestión adecuada de los recursos disponibles. Una apropiada gestión de recursos puede ofrecer ventajas tanto al desarrollador de las aplicaciones, como al entorno informático donde ésta se ejecuta, permitiendo un mayor número de aplicaciones en ejecución con la misma cantidad de recursos. Así mismo, esta gestión de recursos no requeriría introducir cambios a la aplicación, o a su estrategia operativa. A fin de proponer políticas para la gestión de los recursos, se analizó el comportamiento de aplicaciones intensivas de cómputo e intensivas de memoria. Este análisis se llevó a cabo a través del estudio de los parámetros de ubicación entre los cores, la necesidad de usar la memoria compartida, el tamaño de la carga de entrada, la distribución de los datos dentro del procesador y la granularidad de trabajo. Nuestro objetivo es identificar cómo estos parámetros influyen en la eficiencia de la ejecución, identificar cuellos de botella y proponer posibles mejoras. Otra propuesta es adaptar las estrategias ya utilizadas por el Scheduler con el fin de obtener mejores resultados.
Resumo:
En la actualidad, la computación de altas prestaciones está siendo utilizada en multitud de campos científicos donde los distintos problemas estudiados se resuelven mediante aplicaciones paralelas/distribuidas. Estas aplicaciones requieren gran capacidad de cómputo, bien sea por la complejidad de los problemas o por la necesidad de solventar situaciones en tiempo real. Por lo tanto se debe aprovechar los recursos y altas capacidades computacionales de los sistemas paralelos en los que se ejecutan estas aplicaciones con el fin de obtener un buen rendimiento. Sin embargo, lograr este rendimiento en una aplicación ejecutándose en un sistema es una dura tarea que requiere un alto grado de experiencia, especialmente cuando se trata de aplicaciones que presentan un comportamiento dinámico o cuando se usan sistemas heterogéneos. En estos casos actualmente se plantea realizar una mejora de rendimiento automática y dinámica de las aplicaciones como mejor enfoque para el análisis del rendimiento. El presente trabajo de investigación se sitúa dentro de este ámbito de estudio y su objetivo principal es sintonizar dinámicamente mediante MATE (Monitoring, Analysis and Tuning Environment) una aplicación MPI empleada en computación de altas prestaciones que siga un paradigma Master/Worker. Las técnicas de sintonización integradas en MATE han sido desarrolladas a partir del estudio de un modelo de rendimiento que refleja los cuellos de botella propios de aplicaciones situadas bajo un paradigma Master/Worker: balanceo de carga y número de workers. La ejecución de la aplicación elegida bajo el control dinámico de MATE y de la estrategia de sintonización implementada ha permitido observar la adaptación del comportamiento de dicha aplicación a las condiciones actuales del sistema donde se ejecuta, obteniendo así una mejora de su rendimiento.
Resumo:
Los servicios de salud son sistemas muy complejos, pero de alta importancia, especialmente en algunos momentos críticos, en todo el mundo. Los departamentos de urgencias pueden ser una de las áreas más dinámicas y cambiables de todos los servicios de salud y a la vez más vulnerables a dichos cambios. La mejora de esos departamentos se puede considerar uno de los grandes retos que tiene cualquier administrador de un hospital, y la simulación provee una manera de examinar este sistema tan complejo sin poner en peligro los pacientes que son atendidos. El objetivo de este trabajo ha sido el modelado de un departamento de urgencias y el desarrollo de un simulador que implementa este modelo con la finalidad de explorar el comportamiento y las características de dicho servicio de urgencias. El uso del simulador ofrece la posibilidad de visualizar el comportamiento del modelo con diferentes parámetros y servirá como núcleo de un sistema de ayuda a la toma de decisiones que pueda ser usado en departamentos de urgencias. El modelo se ha desarrollado con técnicas de modelado basado en agentes (ABM) que permiten crear modelos funcionalmente más próximos a la realidad que los modelos de colas o de dinámicas de sistemas, al permitir la inclusión de la singularidad que implica el modelado a nivel de las personas. Los agentes del modelo presentado, descritos internamente como máquinas de estados, representan a todo el personal del departamento de urgencias y los pacientes que usan este servicio. Un análisis del modelo a través de su implementación en el simulador muestra que el sistema se comporta de manera semejante a un departamento de urgencias real.
Resumo:
This PhD project aims to study paraphrasing, initially understood as the different ways in which the same content is expressed linguistically. We will go into that concept in depth trying to define and delimit its scope more accurately. In that sense, we also aim to discover which kind of structures and phenomena it covers. Although there exist some paraphrasing typologies, the great majority of them only apply to English, and focus on lexical and syntactic transformations. Our intention is to go further into this subject and propose a paraphrasing typology for Spanish and Catalan combining lexical, syntactic, semantic and pragmatic knowledge. We apply a bottom-up methodology trying to collect evidence of this phenomenon from the data. For this purpose, we are initially using the Spanish Wikipedia as our corpus. The internal structure of this encyclopedia makes it a good resource for extracting paraphrasing examples for our investigation. This empirical approach will be complemented with the use of linguistic knowledge, and by comparing and contrasting our results to previously proposed paraphrasing typologies in order to enlarge the possible paraphrasing forms found in our corpus. The fact that the same content can be expressed in many different ways presents a major challenge for Natural Language Processing (NLP) applications. Thus, research on paraphrasing has recently been attracting increasing attention in the fields of NLP and Computational Linguistics. The results obtained in this investigation would be of great interest in many of these applications.
Resumo:
Per a determinar la dinàmica espai-temporal completa d’un sistema quàntic tridimensional de N partícules cal integrar l’equació d’Schrödinger en 3N dimensions. La capacitat dels ordinadors actuals permet fer-ho com a molt en 3 dimensions. Amb l’objectiu de disminuir el temps de càlcul necessari per a integrar l’equació d’Schrödinger multidimensional, es realitzen usualment una sèrie d’aproximacions, com l’aproximació de Born–Oppenheimer o la de camp mig. En general, el preu que es paga en realitzar aquestes aproximacions és la pèrdua de les correlacions quàntiques (o entrellaçament). Per tant, és necessari desenvolupar mètodes numèrics que permetin integrar i estudiar la dinàmica de sistemes mesoscòpics (sistemes d’entre tres i unes deu partícules) i en els que es tinguin en compte, encara que sigui de forma aproximada, les correlacions quàntiques entre partícules. Recentment, en el context de la propagació d’electrons per efecte túnel en materials semiconductors, X. Oriols ha desenvolupat un nou mètode [Phys. Rev. Lett. 98, 066803 (2007)] per al tractament de les correlacions quàntiques en sistemes mesoscòpics. Aquesta nova proposta es fonamenta en la formulació de la mecànica quàntica de de Broglie– Bohm. Així, volem fer notar que l’enfoc del problema que realitza X. Oriols i que pretenem aquí seguir no es realitza a fi de comptar amb una eina interpretativa, sinó per a obtenir una eina de càlcul numèric amb la que integrar de manera més eficient l’equació d’Schrödinger corresponent a sistemes quàntics de poques partícules. En el marc del present projecte de tesi doctoral es pretén estendre els algorismes desenvolupats per X. Oriols a sistemes quàntics constituïts tant per fermions com per bosons, i aplicar aquests algorismes a diferents sistemes quàntics mesoscòpics on les correlacions quàntiques juguen un paper important. De forma específica, els problemes a estudiar són els següents: (i) Fotoionització de l’àtom d’heli i de l’àtom de liti mitjançant un làser intens. (ii) Estudi de la relació entre la formulació de X. Oriols amb la aproximació de Born–Oppenheimer. (iii) Estudi de les correlacions quàntiques en sistemes bi- i tripartits en l’espai de configuració de les partícules mitjançant la formulació de de Broglie–Bohm.
Resumo:
Imaginemos que un observador quiere analizar el sistema político de los países de Europa Occidental. Si compara el sistema de partidos que hay a nivel nacional con los presentes en cada uno de los distritos de esta elección, apreciará notables diferencias entre países. Por ejemplo, si repara en Alemania, verá como los mismos cinco partidos presentes en el Bundestag compiten también en todos los distritos. Si por otra parte se fija en España, comprobará como en las Elecciones Generales españolas algunos partidos se presentan en todas las circunscripciones pero otros sólo lo hacen en una o en un puñado de ellas. Por lo tanto, mientras que en el primer caso tenemos que el sistema político nacional se reproduce de manera idéntica en cada distrito, en el segundo hay diferencias entre los partidos a nivel nacional y los presentes en determinados distritos. ¿Por qué existen estas divergencias? ¿Qué es lo que explica que esta situación sea estática o que cambie a lo largo del tiempo? En este anexo presento una memoria para justificar los principales avances en la investigación doctoral durante el periodo en que he disfrutado de la beca FI.
Resumo:
El procés de fusió de dues o més imatges de la mateixa escena en una d'única i més gran és conegut com a Image Mosaicing. Un cop finalitzat el procés de construcció d'un mosaic, els límits entre les imatges són habitualment visibles, degut a imprecisions en els registres fotomètric i geomètric. L'Image Blending és l'etapa del procediment de mosaicing a la que aquests artefactes són minimitzats o suprimits. Existeixen diverses metodologies a la literatura que tracten aquests problemes, però la majoria es troben orientades a la creació de panorames terrestres, imatges artístiques d'alta resolució o altres aplicacions a les quals el posicionament de la càmera o l'adquisició de les imatges no són etapes rellevants. El treball amb imatges subaquàtiques presenta desafiaments importants, degut a la presència d'scattering (reflexions de partícules en suspensió) i atenuació de la llum i a condicions físiques extremes a milers de metres de profunditat, amb control limitat dels sistemes d'adquisició i la utilització de tecnologia d'alt cost. Imatges amb il·luminació artificial similar, sense llum global com la oferta pel sol, han de ser unides sense mostrar una unió perceptible. Les imatges adquirides a gran profunditat presenten una qualitat altament depenent de la profunditat, i la seva degradació amb aquest factor és molt rellevant. El principal objectiu del treball és presentar dels principals problemes de la imatge subaquàtica, seleccionar les estratègies més adequades i tractar tota la seqüència adquisició-procesament-visualització del procés. Els resultats obtinguts demostren que la solució desenvolupada, basada en una Estratègia de Selecció de Límit Òptim, Fusió en el Domini del Gradient a les regions comunes i Emfatització Adaptativa d'Imatges amb baix nivell de detall permet obtenir uns resultats amb una alta qualitat. També s'ha proposat una estratègia, amb possibilitat d'implementació paral·lela, que permet processar mosaics de kilòmetres d'extensió amb resolució de centímetres per píxel.
Resumo:
En aquest treball s’ha dissenyat i fabricat una antena monopol en estructura planar capaç de treballar correctament a les freqüències WLAN de 2,45-2,5 GHz (802.11b/g) i 4,9-5,875 GHz (802.11a/h/j). Per arribar a aquest objectiu primer s’ha presentat el model de línia de transmissió acabada en circuit obert per simular el comportament d’una antena. S’han comparat i verificat els resultats amb el model d’antena de fil. Seguidament, s’ha estudiat el comportament que introdueix el fet de carregar l’antena amb un ressonador LC. Finalment, s’ha passat del model d’antena de fil a una estructura planar. Aquesta geometria ha permès la realització del trap LC de forma distribuïda a través d’un ressonador CLL. El principi de disseny de l’antena està basat en la introducció d’aquest ressonador CLL amb freqüència de ressonància situada entre les dos bandes de treball i que junt amb l’ajust dels diversos paràmetres que defineixen l’antena han permès obtenir més 1 GHz d’ample de banda a la freqüència de 5 GHz.
Resumo:
El projecte pretèn conceptualitzar, dissenyar, aplicar i avaluar l'ús de determinades eines tecnològiques (weblogg, wiki, WebQuest) en els processos d'ensenyament-aprenentatge d'assignatures que es desenvolupen, total o parcialment, en entorns virtuals d'educació superior. Avaluar els resultats d'aquesta aplicació des del punt de vista dels objectius docents, l'adquisició de competències dels estudiants i de l'adequació d'aquest tipus d'eines segons la doble perspectiva d'estudiants i docents. Les aportacions del projecte són, d'una banda, la innovació i la millora d'un nombre determinat d'assignatures per mitjà de la introducció d'aquestes eines en la seva docència. D'altra banda, l'obtenció d'una sèrie de criteris per a l'ús apropiat d'aquestes eines, amb finalitats educatives i, en tercer lloc, una relació contrastada de beneficis que es poden obtenir mitjançant el seu ús.
Resumo:
El projecte ha estat realitzat en la Unitat de Farmàcia Clínica i Farmacoteràpia de la Facultat de Farmàcia de la Universitat de Barcelona i ha estat a desenvolupar en dos anys. La finalitat del projecte ha estat oferir a l'alumne un material docent en suport digital, adaptat a una metodologia més creativa i de treball en grup, orientat a la millora de la seva formació, autonomia i rendiment acadèmic, en els aspectes relacionats amb la Farmàcia Clínica i Farmacoteràpia i l'Atenció Farmacèutica, i que consistirà en una primera aproximació a les directrius europees. Aquest material docent en suport digital són WebQuest (WQ) estructurades per temes i via Internet, la qual cosa possibilita un sistema dinàmic de fàcil retroalimentació i en constant actualització. Mitjançant la utilització d'aquest material docent es treballen aspectes com l'ús de metodologies docents centrades en l'alumne, autoaprenentatge a distància, aprenentatge seqüencial, treball en grup, participació activa i responsabilitat de l'alumne en el procés d'ensenyament aprenentatge i l'aproximació del mateix a la realitat professional entre altres, i tot això encaminat a promoure l'adaptació dels plans docents a l'Espai Europeu d'Educació Superior (EEES). En aquest sentit podem indicar que s'han elaborat cinc WQs, els títols del qual són Sistemes Personalitzats de Dosificació, Compliment terapèutic: el gran repte actual: informació al pacient, Compliment terapèutic: el gran repte actual: informació al professional sanitari, Dispensació activa en Diabetis mellitus tipus 2 i Dispensació activa en Hipertensión arterial. Cadascuna de les WQs elaborades consta dels apartats Introducció, Tasca, Procés, Recursos, Avaluació, Conclusió, Guia Didàctica i Crèdits. Les WQs estan allotjades en la pàgina web de la Unitat de Farmàcia Clínica i Farmacoteràpia, i a elles s'accedeix a través de l'adreça web http://www.ub.és/farcli/wp0.htm
Resumo:
Aquest projecte de dos anys de durada, ha tingut com a objectius: el disseny i la creació de recursos multimèdia, així com, l’optimització de metodologies d'aplicació de sistemes telemàtics interactius per a la millora de la docència universitària. Com a entorn telemàtic s’ha utilitzat la plataforma de treball cooperatiu BSCW (Basic Support for Cooperative Work). S'ha dissenyat i produït un recurs multimèdia enfocat a l'alumnat de l'assignatura troncal Ciències naturals i la seva didàctica de la diplomatura de Mestre d'Educació Primària, que porta per títol 'Alimentació i nutrició humanes i la seva didàctica’ i es pot consultar a: http://www.ub.edu/didactica_ciencies/mqd06/. Aquest material està format per dues unitats: a) Alimentació i nutrició; b) L'ensenyament-aprenentatge de la digestió humana des d'una perspectiva constructivista. Les unitats s'han orientat a la millora de la formació inicial dels futurs mestres i tenen un enfocament de clar caire constructivista, amb exercicis interactius de detecció de concepcions alternatives, així com organitzadors previs, posteriors nodes expositius i d'obtenció d'informació, exercicis interactius destinats al canvi conceptual i una interactivitat d'avaluació final amb un cert caràcter sumatiu. Cada unitat es tanca amb un mapa conceptual dels continguts tractats. La metodologia emprada en la seva elaboració és una evolució de la que l'equip de la Universitat Pompeu Fabra va encetar en la web ‘Aracné. Ciència en xarxa’: http://www.edu365.com/aulanet/aracne/ (usuari i contrasenya: guest100), i va perfeccionar a 'Idees i vincles en el segle XX. La ciència': http://www.xtec.es/aulanet/seglexx/ (cal permetre que s'obrin finestres emergents), en ambdós casos hi ha col·laborat professorat del nostre grup d'innovació docent de la UB.
Resumo:
El projecte consisteix en la captura de dades per mitjà del sistema GPS, mitjançant aquestes dades hem d'endevinar en quin vehicle ens desplacem per a portar el càlcul del consum del CO2 dels nostres desplaçaments. El programa ha estat desenvolupat per ser funcional a sobre de dispositius mòbils que tinguin targeta de memòria externa i Java J2ME, inclou interfície gràfica.