1000 resultados para DISEÑO DE BASES DE DATOS
Resumo:
El presente plan de trabajo consiste en el desarrollo de un modelo numérico para la simulación de la hidrodinamia en lagos, así como de los procesos de transporte turbulentos asociados que rigen la calidad del recurso. Este modelo a su vez se apoyará en mediciones de campo propias que permitan la verificación de resultados de simulación. Inicialmente se simulará y caracterizará la respuesta hidrodinámica, termodinámica y química (biológica) de un volumen de control bidimensional a un "input" atmosférico representado tanto por variaciones en la radiación solar como en la acción del viento sobre la superficie libre del cuerpo de agua, o por el efecto de efluentes/afluentes líquidos a un embalse con diferentes temperaturas medias. (...) El objetivo a largo alcance del proyecto lo constituye la modelación tridimensional de corrientes en cuerpos de agua, inducidas tanto por el viento como por estratificaciones térmicas así como por flujos líquidos de entrada/salida, para finalmente acoplarla con modelos de calidad de agua que resuelvan ecuaciones de transporte para oxígeno disuelto, demanda biológica de oxígeno, fósforo, nitrógeno, etc., considerando asimismo procesos de intercambio de calor y masa (oxígeno) en los contornos del sistema (principalmente en su superficie libre). Como sistema de estudio para los trabajo de campo se selecciona el embalse del Lago San Roque, donde se desarrollarán campañas de monitoreo periódico empleando la infraestructura del CIHRSA y la experiencia de su personal. Para la calibración y verificación del código numérico se emplearán también bases de datos externas y, dependiendo del grado de avance del proyecto PIC, se incorporarán resultados inéditos de laboratorio, los que serán claves para la especificación del rol desempeñado por estructuras turbulentas coherentes.
Resumo:
El subsuelo de la ciudad de Córdoba ha sido objeto de estudios por parte de nuestro grupo de investigación que han permitido desarrollar: * Un esquema geotécnico basado en la definición de unidades de mapeo de diferentes grados de detalle. * Bases de datos provenientes de estudios de suelos efectuados en sitios de construcción de obras de ingeniería. * Un sistema de procesamiento de datos implementado en Geobase (software específico). (...) Objetivos generales y específicos: El objetivo final de este programa es el de poder contar con un sistema que permita conocer los suelos presentes en cada lugar de la ciudad y su comportamiento geotécnico, con alto grado de confiabilidad. (...) Como objetivos específicos de esta etapa de trabajo se planea: 1. La retroalimentación del modelo generado a nivel de detalle. Se verificará la delimitación de las zonas que fueran dibujadas en los mapas como consecuencia de un análisis regional y la presencia de diversas unidades de mapeo geotécnico en cada perfil de suelo. Este es un objetivo permanente y es el que permite aumentar la dimensión de la Base[de datos]. (...) 2. Análisis estadístico de las variables geotérmicas acumuladas puntualmente en la Base de datos mediante el uso de técnicas geo-estadísticas de manera de obtener los valores probables de cada propiedad físico-mecánica del terreno de la ciudad y la homogeneidad estadística de las zonas trazadas. 3. Chequeo in situ de los valores probables: se ha planificado la verificación en el terreno de los parámetros obtenidos previamente. Para ello se realizarán tareas de campaña y ensayos de laboratorio. La comunidad de Córdoba podrá valerse del conocimiento de la distribución y del comportamiento geotécnico de los suelos para la planificación y racionalización del uso de la tierra, de los servicios y las construcciones públicas y privadas.
Resumo:
Nuevas biotecnologías, como los marcadores de la molécula de ADN, permiten caracterizar el genoma vegetal. El uso de la información genómica producida para cientos o miles de posiciones cromosómicas permite identificar genotipos superiores en menos tiempo que el requerido por la selección fenotípica tradicional. La mayoría de los caracteres de las especies vegetales cultivadas de importancia agronómica y económica, son controlados por poli-genes causantes de un fenotipo con variación continua, altamente afectados por el ambiente. Su herencia es compleja ya que resulta de la interacción entre genes, del mismo o distinto cromosoma, y de la interacción del genotipo con el ambiente, dificultando la selección. Estas biotecnologías producen bases de datos con gran cantidad de información y estructuras complejas de correlación que requieren de métodos y modelos biométricos específicos para su procesamiento. Los modelos estadísticos focalizados en explicar el fenotipo a partir de información genómica masiva requieren la estimación de un gran número de parámetros. No existen métodos, dentro de la estadística paramétrica capaces de abordar este problema eficientemente. Además los modelos deben contemplar no-aditividades (interacciones) entre efectos génicos y de éstos con el ambiente que son también dificiles de manejar desde la concepción paramétrica. Se hipotetiza que el análisis de la asociación entre caracteres fenotípicos y genotipos moleculares, caracterizados por abundante información genómica, podría realizarse eficientemente en el contexto de los modelos mixtos semiparamétricos y/o de métodos no-paramétricos basados en técnicas de aprendizaje automático. El objetivo de este proyecto es desarrollar nuevos métodos para análisis de datos que permitan el uso eficiente de información genómica masiva en evaluaciones genéticas de interés agro-biotecnológico. Los objetivos específicos incluyen la comparación, respecto a propiedades estadísticas y computacionales, de estrategias analíticas paramétricas con estrategias semiparamétricas y no-paramétricas. Se trabajará con aproximaciones por regresión del análisis de loci de caracteres cuantitativos bajo distintas estrategias y escenarios (reales y simulados) con distinto volúmenes de datos de marcadores moleculares. En el área paramétrica se pondrá especial énfasis en modelos mixtos, mientras que en el área no paramétrica se evaluarán algoritmos de redes neuronales, máquinas de soporte vectorial, filtros multivariados, suavizados del tipo LOESS y métodos basados en núcleos de reciente aparición. La propuesta semiparamétrica se basará en una estrategia de análisis en dos etapas orientadas a: 1) reducir la dimensionalidad de los datos genómicos y 2) modelar el fenotipo introduciendo sólo las señales moleculares más significativas. Con este trabajo se espera poner a disposición de investigadores de nuestro medio, nuevas herramientas y procedimientos de análisis que permitan maximizar la eficiencia en el uso de los recursos asignados a la masiva captura de datos genómicos y su aplicación en desarrollos agro-biotecnológicos.
Resumo:
El uso desmedido de antibióticos, en especial en los animales que son destinados al consumo humano, produjo la aparición de cepas bacterianas resistentes y favoreció la presencia de residuos de esas sustancias en los alimentos. Esta situación ha sido relacionada con la aparición de alergias, trastornos gastrointestinales y otros problemas que han puesto en riesgo la salud de la población y han promovido una presión creciente de los consumidores y de los entes reguladores para que el sector de la producción de alimentos no utilice antimicrobianos y evite la presencia de sus residuos. El objetivo del trabajo es evaluar la capacidad de las sustancias con actividad antimicrobiana, producida por la microbiota natural, para inhibir el desarrollo de bacterias patógenas responsables de causar enfermedades en terneros jóvenes. Se utilizarán bacterias ácido lácticas autóctonas aisladas a partir de intestinos (duodeno, yeyuno, íleon, colon y ciego), cavidad bucal de terneros de crianza artificial y de vagina de vacas en la etapa pre-parto y que forman parte del cepario del Laboratorio de Análisis de alimentos, DSPV. Los microorganismos que demuestren capacidad para producir sustancias antimicrobianas serán identificados utilizando técnicas moleculares (amplificación del 16S rRNA, secuenciación y comparación en bases de datos). Las sustancias producidas por los microorganismos serán purificadas antes de analizar su capacidad inhibitoria. Posteriormente, se evaluará el efecto de los agentes físicos (temperatura) y químicos (solventes orgánicos, ácidos, tripsina, proteinasa K y pepsina) sobre dicha capacidad.
Resumo:
El uso desmedido de antibióticos, en especial en los animales que son destinados al consumo humano, produjo la aparición de cepas bacterianas resistentes y favoreció la presencia de residuos de esas sustancias en los alimentos. Esta situación ha sido relacionada con la aparición de alergias, trastornos gastrointestinales y otros problemas que han puesto en riesgo la salud de la población y han promovido una presión creciente de los consumidores y de los entes reguladores para que el sector de la producción de alimentos no utilice antimicrobianos y evite la presencia de sus residuos. El objetivo del trabajo es evaluar la capacidad de las sustancias con actividad antimicrobiana, producida por la microbiota natural, para inhibir el desarrollo de bacterias patógenas responsables de causar enfermedades en terneros jóvenes. Se utilizarán bacterias ácido lácticas autóctonas aisladas a partir de intestinos (duodeno, yeyuno, íleon, colon y ciego), cavidad bucal de terneros de crianza artificial y de vagina de vacas en la etapa pre-parto y que forman parte del cepario del Laboratorio de Análisis de alimentos, DSPV. Los microorganismos que demuestren capacidad para producir sustancias antimicrobianas serán identificados utilizando técnicas moleculares (amplificación del 16S rRNA, secuenciación y comparación en bases de datos). Las sustancias producidas por los microorganismos serán purificadas antes de analizar su capacidad inhibitoria. Posteriormente, se evaluará el efecto de los agentes físicos (temperatura) y químicos (solventes orgánicos, ácidos, tripsina, proteinasa K y pepsina) sobre dicha capacidad.
Resumo:
El volumen de datos provenientes de experimentos basados en genómica y poteómica es grande y de estructura compleja. Solo a través de un análisis bioinformático/bioestadístico eficiente es posible identificar y caracterizar perfiles de expresión de genes y proteínas que se expresan en forma diferencial bajo distintas condiciones experimentales (CE). El objetivo principal es extender las capacidades computacionales y analíticos de los softwares disponibles de análisis de este tipo de datos, en especial para aquellos aplicables a datos de electroforésis bidimensional diferencial (2D-DIGE). En DIGE el método estadístico más usado es la prueba t de Student cuya aplicación presupone una única fuente de variación y el cumplimiento de ciertos supuestos distribucionales de los datos (como independencia y homogeneidad de varianzas), los cuales no siempre se cumplen en la práctica, pudiendo conllevar a errores en las estimaciones e inferencias de los efectos de interés. Los modelos Generalizados lineales mixtos (GLMM) permiten no solo incorporar los efectos que, se asume, afectan la variación de la respuesta sino que también modelan estructuras de covarianzas y de correlaciones más afines a las que se presentan en la realidad, liberando del supuesto de independencia y de normalidad. Estos modelos, más complejos en esencia, simplificarán el análisis debido a la modelización directa de los datos crudos sin la aplicación de transformaciones para lograr distribuciones más simétricas,produciendo también a una estimación estadísticamente más eficiente de los efectos presentes y por tanto a una detección más certera de los genes/proteínas involucrados en procesos biológicos de interés. La característica relevante de esta tecnología es que no se conoce a priori cuáles son las proteínas presentes. Estas son identificadas mediante otras técnicas más costosas una vez que se detectó un conjunto de manchas diferenciales sobre los geles 2DE. Por ende disminuir los falsos positivos es fundamental en la identificación de tales manchas ya que inducen a resultados erróneas y asociaciones biológica ficticias. Esto no solo se logrará mediante el desarrollo de técnicas de normalización que incorporen explícitamente las CE, sino también con el desarrollo de métodos que permitan salirse del supuesto de gaussianidad y evaluar otros supuestos distribucionales más adecuados para este tipo de datos. También, se desarrollarán técnicas de aprendizaje automática que mediante optimización de funciones de costo específicas nos permitan identificar el subconjunto de proteínas con mayor potencialidad diagnóstica. Este proyecto tiene un alto componente estadístico/bioinformática, pero creemos que es el campo de aplicación, es decir la genómica y la proteómica, los que más se beneficiarán con los resultados esperados. Para tal fin se utilizarán diversas bases de datos de distintos experimentos provistos por distintos centros de investigación nacionales e internacionales.
Resumo:
La preservación y acceso al patrimonio cultural audiovisual (cinematográfico, televisivo, fotográfico, radiofónico) representa uno de los problemas menos atendidos e irresueltos de la Argentina, pese a los desarrollos y recomendaciones producidos en las últimas décadas en el ámbito internacional (UNESCO y otros). La falta de normativas que regulen el rescate, la protección y la puesta en valor de los acervos y que al mismo tiempo garanticen el acceso público a sus componentes ha afectado no sólo la conservación sino también sus usos sociales. Esto tiene importancia debido a que los registros producidos por los medios de comunicación AV en la segunda mitad del siglo XX constituyen materia prima de gran valor para el estudio de dimensiones de la historia reciente y para la realización audiovisual y no pueden ser sustituidos por los de otros medios. Los estudios previos realizados y la experiencia adquirida en la recuperación de acervos audiovisuales a través del Centro de Conservación y Documentación Audiovisual (CDA) de la UNC, nos permiten dar cuenta del problema de la falta de preservación como de accesibilidad de la mayoría de los fondos y, en consecuencia, de las dificultades para su empleo con fines culturales, educativos, sociales e investigativos. En tal sentido sostenemos que la mayor parte de las entidades que guardan acervos AV restringen o no admiten el acceso, sea porque no es su política brindarlo o bien porque las condiciones para generar copias de acceso y catálogos no lo hacen posible. El supuesto es que la preservación y gestión de los fondos AV en entornos digitales, aunados a políticas de accesibilidad y de difusión de sus componentes, pueden contribuir a transformar esa realidad, así como a promover la valoración y los usos sociales del patrimonio AV. OBJETIVOS: Profundizar las políticas de preservación del patrimonio audiovisual de Córdoba y de accesibilidad a la documentación que lleva adelante el CDA, mediante la aplicación creativa de nuevas tecnologías de recuperación, procesamiento y gestión de imágenes y datos. Contribuir al avance del conocimiento de la historia política y cultural de Córdoba y el país de la segunda mitad del siglo XX. - Fortalecer el trabajo interdisciplinar e interinstitucional, la complementación de saberes y experiencias en la formación de RRHH y en la consolidación de la red. Llevar a cabo estudios particulares sobre aspectos de la historia reciente que empleen los recursos ya disponibles en el CDA y los que genere el desarrollo del proyecto. Transferir y difundir los avances y resultados que se logren en distintos ámbitos. MATERIALES Y MÉTODOS: a) retransferir y digitalizar películas convertidas y almacenadas en soportes analógicos, con el equipo de Telecine (2009) disponible en el CDA y vincular los registros con los de la base de datos textual. Se adecuará la base de datos existente; b) transferir y digitalizar películas aún no convertidas, analizarlas y documentarlas en la base de datos vinculando imágenes y textos. c) la información de a y b se guardará en un banco de almacenamiento. d) se continuarán las investigaciones vinculadas al proyecto marco y entre sí por el estudio de aspectos de la historia reciente, mediante el análisis, el empleo y/o la recuperación de documentos audiovisuales.RESULTADOS ESPERADOS: 50 hs anuales de fílmico transferido a video digital y en banco de almacenamiento. Base de datos reformulada para la gestión de textos e imágenes en movimiento; vínculos entre imágenes y textos incorporados. 400 fotos digitalizadas y documentadas en bases de datos. Presentación y/o publicación de ponencias, artículos y libros de sub-líneas de investigación. Una tesis de postgrado concluida. IMPORTANCIA: Su importancia radica en los aportes que espera realizar en rescate y preservación de patrimonio AV de Córdoba, generando medios avanzados de gestión y consulta de documentos para la creación de conocimiento sobre el pasado reciente y otras producciones sociales.
Resumo:
Esta iniciativa está orientada a proponer soluciones plausibles a dos problemas básicos que enfrenta la conservación de la biodiversidad en la provincia de Córdoba: 1) establecer el grado de representación del sistema existente de áreas protegidas de la provincia de Córdoba; y 2) proponer nuevas áreas que deberían protegerse para alcanzar un grado completo de representación de la diversidad de Córdoba. Este nuevo sistema incluirá tanto las áreas estatales que puedan incorporarse, como propuestas de áreas de conservación privadas. A juzgar por estudios previos de los integrantes de la Red, la provincia de Córdoba no difiere de lo reportado para sistemas de áreas protegidas de otros lugares del mundo, y se predice que el sistema actual no conserva adecuadamente la biodiversidad de la región, y que un sistema de áreas protegidas privadas permitiría completar y complementar al sistema de reservas estatales existentes. Con el propósito de establecer la representatividad de la biodiversidad de la región por parte del sistema actual de áreas protegidas, se procederá a realizar la cartografía de la vegetación de toda la provincia, listados florísticos y descripciones de las comunidades vegetales de esas áreas. A través del empleo de indicadores de la biodiversidad (tipo de hábitat y grupos taxonómicos particulares), se establecerá el grado en que el sistema actual es representativo de la diversidad florística de la provincia. Finalmente se establecerán vacíos en el sistema de conservación existente y se propondrán nuevas áreas para ser incorporadas al sistema provincial de áreas protegidas. Además, el Proyecto proveerá una base de datos florístico-corológica en la cual se incorporarán todas las especies y comunidades vegetales registradas en las áreas protegidas del territorio provincial. Además de la cartografía, las listas de especies y comunidades, las bases de datos y la propuesta de un nuevo sistema de áreas protegidas, el proyecto producirá material gráfico (2 libros) de alcance científico-técnico y de divulgación, respectivamente. A los efectos de la ejecución del proyecto, se conformará una Red integrada por científicos, docentes y técnicos de las Universidades Nacionales de Córdoba y Río Cuarto, de una Unidad Ejecutora del CONICET y de integrantes de una Organización No Gubernamental con alto impacto en localidades del interior provincial. Los miembros de la Red registran numerosos antecedentes en relación a estudios florísticos, fitogeográficos y fitosociológicos del territorio de Córdoba, lo que confiere alta factibilidad a esta iniciativa.
Resumo:
El projecte desenvolupat té com a objectiu la millora en la gestió de la configuració de les màquines de rajos X de l'empresa Varpe. La principal funció d’aquestes màquines és la inspecció d'envasos de productes alimentaris, amb l'objectiu de detectar anomalies produïdes durant l'envasat. En l'actualitat la resolució d'incidències d'aquestes màquines requereix el desplaçament físic d'operaris a les localitzacions on estan situades les màquines. El projecte proporciona una nova forma de treball a partir de l'ús de bases de dades distribuïdes en les màquines de rajos X i que són gestionades per un servidor central. Entre d'altres, la principal avantatge d'aquesta gestió és que la reconfiguració i resolució d'indecències es pot realitzar fàcilment a través d'una aplicació web.
Resumo:
RESUM Les exigències actuals de la professió de d’infermeria requereixen que la docència vagi orientada a interrelacionar els diferents rols a desenvolupar enla pràctica diària, per adquirir experiència en l’aprenentatge i així augmentar la qualitat de les cures d’infermeria. Per assolir aquest objectiu és important l’aprenentatge basat enproblemes. Aquest pretén en primer lloc que els estudiants aprenguin allò que permet desenvolupar-se enla vida professional de la manera més natural possible a partir d’una idea clara i profunda de l’evidència sobre la que s’ha d’actuar. Amb aquesta finalitat es vandissenyar casos clínics amb uns objectius que requerien la integració de coneixements, actituds i valors, en diferents fases a desenvolupar en un període de temps predeterminat. També ens vam proposar una estratègia docent que permetés a l’estudiant incorporar el coneixement científic que dóna suport a la pràctica assistencial per aproximar teoria i pràctica. Es pretén que els estudiants busquin una resposta basada en la millor evidència científica disponible, per prendre una decisió respecte a les cures del pacient. Els objectius de l’estudi són: Avaluar globalment l’aprenentatge basat en la simulació de casos Avaluar com els estudiants valoren la integració del model d’infermeria i del procés d’atenció en l’aprenentatge basat en la simulació de casos. Valorar les sensacions percebudes per l’estudiant durant la simulació del cas. Valorar l’actitud d el’estudiant en relació a la incorporació de l’evidència científica per una millora en la pràctica clínica. Avaluar el grau de dificultat manifestat per l’estudiant en relació al procés de documentació. Avaluar la idonietat de l’argumentació i la decisió de l’estudiant a la pregunta formulada en el cas clínic. Metodologia: L’assignatura d’Infermeria Medicoquirúrgica. Adult I del Departament d’Infermeria de la Universitat de Vic, va iniciar una experiència d’aprenentatge basat en la resolució de problemes, amb estudiants de 2on curs. Les professores responsables dels seminaris van realitzar una avaluació de l’experiència a través d’una enquesta. Aquesta es responia al cap d’un mes de la simulació al laboratori, quan es contrastaven els resultats obtinguts en aquesta entre professores i estudiants després de visualitzar la gravació feta durant el mateix. En el context del seminari de simulació de casos, es va introduir una pregunta/problema, a partir de la que els estudiants, en grup, havien de documentar-se amb el suport d’una guia. Per valorar l’actitud davant aquesta pregunta/problema es va dissenyar un qustionari tipus Likert. L’avaluació del grau de dificultat s’ha registrat a través d’unes escales de puntuació. Per a l’avaluació de la decisió presa, es van valorar les síntesis resum entregades en els treballs escrits pels diferents grups. Resultats: La realització de la simulació en el laboratori va ser avaluada per un alt percentatge d’estudiants (68,8%) amb puntuacions entre 6 i 8 mentre que un 26,6% la van situar en tre 9 i 10, només un 4,7 % la van puntuar amb 5. La integració del model d’infermeria va ser valorada pel 86% amb una puntuació entre 7 i 10. La valoració global de la simulació va ser qualificada pels estudiants amb una puntuació de 8 (34,4%) seguida d’un 28,1% amb una consideració de 7. Un 7,2% van puntuar entre 9 i 10. El 93,3% van assegurar que conèixer les fonts documentals els serviria per millorar l’assistència, el 86,7% esperen obtenir arguments sòlids respecte les seves desicions si la documentació consultada és de qualitat. Un 77,8% dels estudiants consideren estar més satisfets al saber incorporar la presa de decisions basada en evidències. Respecte el grau de dificultat en el procés de documentació la dificultat més gran la presenten en com buscar en les bases de dades de referències bibliogràfiques. Conclusions: L’aprenentatge dels estudiants a través de la simulació de casos és una estratègia vàlida que l’estudiant valora positivament al mateix temps que permet desenvolupar habilitats per a la pràctica professional. L’estratègia docent dissenyada per integrar les evidències en la presa de decisions es considera positiva, no obstant, després d’analitzar els resultats, s’han de modificar alguns aspectes per a la seva millora; tutoritzar per a millorar el procés de documentació i incidir més en la crítica i reflexió, de manera que les troballes de la investigació siguin canalitzades cap a la pràctica.
Resumo:
Este trabajo presenta un sistema para detectar y clasificar objetos binarios según la forma de éstos. En el primer paso del procedimiento, se aplica un filtrado para extraer el contorno del objeto. Con la información de los puntos de forma se obtiene un descriptor BSM con características altamente descriptivas, universales e invariantes. En la segunda fase del sistema se aprende y se clasifica la información del descriptor mediante Adaboost y Códigos Correctores de Errores. Se han usado bases de datos públicas, tanto en escala de grises como en color, para validar la implementación del sistema diseñado. Además, el sistema emplea una interfaz interactiva en la que diferentes métodos de procesamiento de imágenes pueden ser aplicados.
Resumo:
En termes de temps d'execució i ús de dades, les aplicacions paral·leles/distribuïdes poden tenir execucions variables, fins i tot quan s'empra el mateix conjunt de dades d'entrada. Existeixen certs aspectes de rendiment relacionats amb l'entorn que poden afectar dinàmicament el comportament de l'aplicació, tals com: la capacitat de la memòria, latència de la xarxa, el nombre de nodes, l'heterogeneïtat dels nodes, entre d'altres. És important considerar que l'aplicació pot executar-se en diferents configuracions de maquinari i el desenvolupador d'aplicacions no port garantir que els ajustaments de rendiment per a un sistema en particular continuïn essent vàlids per a d'altres configuracions. L'anàlisi dinàmica de les aplicacions ha demostrat ser el millor enfocament per a l'anàlisi del rendiment per dues raons principals. En primer lloc, ofereix una solució molt còmoda des del punt de vista dels desenvolupadors mentre que aquests dissenyen i evaluen les seves aplicacions paral·leles. En segon lloc, perquè s'adapta millor a l'aplicació durant l'execució. Aquest enfocament no requereix la intervenció de desenvolupadors o fins i tot l'accés al codi font de l'aplicació. S'analitza l'aplicació en temps real d'execució i es considra i analitza la recerca dels possibles colls d'ampolla i optimitzacions. Per a optimitzar l'execució de l'aplicació bioinformàtica mpiBLAST, vam analitzar el seu comportament per a identificar els paràmetres que intervenen en el rendiment d'ella, com ara: l'ús de la memòria, l'ús de la xarxa, patrons d'E/S, el sistema de fitxers emprat, l'arquitectura del processador, la grandària de la base de dades biològica, la grandària de la seqüència de consulta, la distribució de les seqüències dintre d'elles, el nombre de fragments de la base de dades i/o la granularitat dels treballs assignats a cada procés. El nostre objectiu és determinar quins d'aquests paràmetres tenen major impacte en el rendiment de les aplicacions i com ajustar-los dinàmicament per a millorar el rendiment de l'aplicació. Analitzant el rendiment de l'aplicació mpiBLAST hem trobat un conjunt de dades que identifiquen cert nivell de serial·lització dintre l'execució. Reconeixent l'impacte de la caracterització de les seqüències dintre de les diferents bases de dades i una relació entre la capacitat dels workers i la granularitat de la càrrega de treball actual, aquestes podrien ser sintonitzades dinàmicament. Altres millores també inclouen optimitzacions relacionades amb el sistema de fitxers paral·lel i la possibilitat d'execució en múltiples multinucli. La grandària de gra de treball està influenciat per factors com el tipus de base de dades, la grandària de la base de dades, i la relació entre grandària de la càrrega de treball i la capacitat dels treballadors.
Resumo:
La aplicación presentada trata sobre la sincronización entre diferentes grupos de información dentro de cualquier dispositivo móvil con la intranet Coneix de forma Wi-Fi. El proyecto se ha apoyado en una herramienta OpenSource con la que se puede tratar datos internamente en los dispositivos móviles. Otras tecnologías usadas son HTML, PHP para el desarrollo de interfaz y de algoritmos, y MySQL como soporte para las bases de datos usadas durante el proceso de la sincronización.
Resumo:
El Consorci de Biblioteques Universitàries de Catalunya (CBUC) va ser creat el 1996 amb l'objectiu de fer i mantenir el catàleg col·lectiu de les universitats de Catalunya (CCUC) però aviat va ampliar les seves activitats amb el préstec interbibliotecari i les compres conjuntes d'informació electrònica. Aquesta darrera activitat va iniciar-se a finals de 1997 quan el CBUC va presentar als vicerectors de recerca de les universitats públiques de Catalunya el projecte de comprar bases de dades de manera consorciada. Aquests van estar-hi d'acord i van manifestar el seu interès de que en les compres conjuntes també s'incloguessin revistes electròniques. El CBUC va decidir englobar aquestes activitats sota el nom Biblioteca Digital de Catalunya (BDC) la qual naixia amb la "finalitat de proporcionar un conjunt nuclear comú d'informació electrònica per a la totalitat dels usuaris de les biblioteques del CBUC". A finals de 1998 el projecte de la BDC es va presentar a la Generalitat de Catalunya i es va obtenir un finançament per al projecte que cobria el període 1999-2001. Des de llavors la BDC ha passat per almenys tres fases: Una de formació, 1999-2001, que es va iniciar amb un ajut del llavors Departament d'Universitats, Recerca i Societat de la Informació (DURSI) de la Generalitat de Catalunya, ajut que es va traduir en una inversió de 180.000€/any i que va permetre l'inici de subscripcions conjuntes, principalment bases de dades. Una de creixement, 2002-2004, realitzada a partir d'un increment de l'ajut del DURSI, ajut que s'usa com a "capital llavor" per subscriure de forma especial revistes. En aquest moment la BDC s'amplia a universitats no membres del CBUC. Una d'estabilització, 2005-2009, en la que s'han fet algunes compres per a una part de les universitats (i no per a totes com fins llavors) i s'han iniciat alguns intents d'estendre la BDC a altres institucions de recerca. L'article caracteritza les diferents fases i mostra les causes de la seva evolució. Finalment, s'exposen els principals assoliments de la BDC així com els reptes de futur més immediats.
Resumo:
Aquest memòria explica el desenvolupament d’un projecte per ampliar l’eina de Help Desk ServiceTonic perquè accedeixi a fonts de dades de tipus LDAP i a bases de dades externes a la pròpia, per realitzar l’autentificació dels usuaris i extreure la informació dels contactes, també permetre l’accés d’usuaris ja autentificats externament sense que tornin a introduir les seves dades d’accés (Single Sign On). La realització del projecte ha suposat un increment en la capacitat d’integració de ServiceTonic amb fonts de dades externes, ampliant el mercat de clients a empreses que ja tenen les dades estructurades.