997 resultados para Redes em chip. Processadores. IPNoSyS. Paralelismo.Software Pipelining. Desempenho
Resumo:
En este informe se estudia cómo es posible utilizar redes de sensores inalámbricos (WSN), para la localización de determinados eventos. Se hace un estudio previo de cómo una red de sensores puede llegar a estar sincronizada de una manera cooperativa, interactuando todos los sensores de la red entre sí. Primero se realiza el estudio para la sincronización de dos sensores con frecuencias diferentes, viéndose los parámetros que intervienen para que esta sincronización se realice con éxito, y también los efectos que en ella se produce al añadirle ruido. Seguidamente, se realiza el estudio para la sincronización de redes de N sensores, de manera que interactúen entre ellos de forma cooperativa. Se observan las características de la sincronización cuando todos los sensores llegan a consenso y, después, se busca la forma para que el consenso tienda hacia un valor determinado por mutuo acuerdo de los sensores. Finalmente, a partir de las características obtenidas en el consenso de N sensores, se realiza una aplicación práctica para la localización de eventos por medio del consenso de estas redes de sensores inalámbricos.
Resumo:
This paper reports on: (a) new primary source evidence on; and (b) statistical and econometric analysis of high technology clusters in Scotland. It focuses on the following sectors: software, life sciences, microelectronics, optoelectronics, and digital media. Evidence on a postal and e-mailed questionnaire is presented and discussed under the headings of: performance, resources, collaboration & cooperation, embeddedness, and innovation. The sampled firms are characterised as being small (viz. micro-firms and SMEs), knowledge intensive (largely graduate staff), research intensive (mean spend on R&D GBP 842k), and internationalised (mainly selling to markets beyond Europe). Preliminary statistical evidence is presented on Gibrat’s Law (independence of growth and size) and the Schumpeterian Hypothesis (scale economies in R&D). Estimates suggest a short-run equilibrium size of just 100 employees, but a long-run equilibrium size of 1000 employees. Further, to achieve the Schumpeterian effect (of marked scale economies in R&D), estimates suggest that firms have to grow to very much larger sizes of beyond 3,000 employees. We argue that the principal way of achieving the latter scale may need to be by takeovers and mergers, rather than by internally driven growth.
Resumo:
El present treball compta amb dues parts. La primera es una recopilació sobre temes relacionats amb el correu electrònic i el seu ús: la seva història; els elements que el composen; serveis i programes que ofereix, l´ús d’aquesta eina; l’importància d´aquest dins del e-marketing; la seva efectivitat com a eina de marketing; atributs que se li assignen; les seves principals aplicacions; legislació que el regula; i altres dades que poden ser de gran utilitat a l´hora de fer una tramesa de correu electrònic. La segona part d´aquest treball conté una investigació quantitativa sobre alguns elements o variables que poden influir en l´efectivitat final de la tramesa massiva de correus electrònics realitzada per una empresa amb finalitat comercial.
Resumo:
En aquesta memòria l'autor, fent servir un enfoc modern, redissenya i implementa la plataforma que una empresa de telecomunicacions del segle 21 necessita per poder donar serveis de telefonia i comunicacions als seus usuaris i clients. Al llarg d'aquesta exposició es condueix al lector des d'una fase inicial de disseny fins a la implementació i posada en producció del sistema final desenvolupat, centrant-nos en solucionar les necessitats actuals que això implica. Aquesta memòria cubreix el software, hardware i els processos de negoci associats al repte de fer realitat aquest objectiu, i presenta al lector les múltiples tecnologies emprades per aconseguir-ho, fent emfàsi en la convergència actual de xarxes cap al concepte de xarxes IP i basant-se en aquesta tendència i utilitzant aquesta tecnologia de veu sobre IP per donar forma a la plataforma que finalment, de forma pràctica, es posa en producció.
Resumo:
El projecte exposat té com a propòsit definir i implementar un model de simulació basat en la coordinació i assignació dels serveis d’emergència en accidents de trànsit. La definició del model s’ha realitzat amb l’ús de les Xarxes de Petri Acolorides i la implementació amb el software Rockwell Arena 7.0. El modelatge de la primera simulació ens mostra un model teòric basat en cues mentre que el segon, mostra un model més complet i real gràcies a la connexió mitjançant la plataforma Corba a una base de dades amb informació geogràfica de les flotes i de les rutes. Com a resultat de l’estudi i amb l’ajuda de GoogleEarth, podem realitzar simulacions gràfiques per veure els accidents generats, les flotes dels serveis i el moviment dels vehicles des de les bases fins als accidents.
Resumo:
Aquest projecte consisteix en el disseny i desenvolupament d'una arquitectura de serveis sota el paradigma dels agents inteligents. El propòsit d'ADASMI (Architecture for Dynamic Agent Service Management and Interaction) és permetre la gestió i utilització de serveis per altres agents. L'arquitectura s'ha implementat utilitzant la plataforma d'agents de JADE i es pot utilitzar amb qualsevol altra plataforma que compleixi els estàndards d'IEEE FIPA. A més, és prou flexible com per adaptar-se en entorns dinàmics, com per exemple les xarxes ad-hoc en situacions d'emergència.
Resumo:
Treball de recerca realitzat per un alumne d'ensenyament secundari i guardonat amb un Premi CIRIT per fomentar l'esperit científic del Jovent l'any 2009. L’objectiu d’aquest treball de recerca és la creació d’un dispositiu encarregat de centralitzar totes les necessitats multimèdia de casa nostra i distribuir aquest contingut a tots els terminals de la xarxa local d’una manera senzilla i automatitzada. Aquest dispositiu s’ha dissenyat per estar connectat a una televisió d’alta definició, que permetrà la reproducció i l’organització de tot el nostre multimèdia d’una manera còmoda i fàcil. El media center s’encarrega de gestionar la nostra filmoteca, fototeca, biblioteca musical i sèries de TV de manera transparent i automàtica. A més a més, l’usuari pot accedir a tot el multimèdia emmagatzemat al media center des de qualsevol dispositiu de la xarxa local a través de protocols com CIFS o UPnP, en un intent de replicar el cloud computing a escala local. El dispositiu ha estat dissenyat per a suportar tot tipus de formats i subtítols, assegurant la compatibilitat total amb arxius lliures de DRM. El seu disseny minimalista i silenciós el fa perfecte per a substituir el reproductor de DVD de la sala. Tot això sense oblidar el seu baix consum, de l’ordre d’un 75% inferior al d’un PC convencional.
Resumo:
Los procesadores multi-core y el multi-threading por hardware permiten aumentar el rendimiento de las aplicaciones. Por un lado, los procesadores multi-core combinan 2 o más procesadores en un mismo chip. Por otro lado, el multi-threading por hardware es una técnica que incrementa la utilización de los recursos del procesador. Este trabajo presenta un análisis de rendimiento de los resultados obtenidos en dos aplicaciones, multiplicación de matrices densas y transformada rápida de Fourier. Ambas aplicaciones se han ejecutado en arquitecturas multi-core que explotan el paralelismo a nivel de thread pero con un modelo de multi-threading diferente. Los resultados obtenidos muestran la importancia de entender y saber analizar el efecto del multi-core y multi-threading en el rendimiento.
Resumo:
SUMMARY : Eukaryotic DNA interacts with the nuclear proteins using non-covalent ionic interactions. Proteins can recognize specific nucleotide sequences based on the sterical interactions with the DNA and these specific protein-DNA interactions are the basis for many nuclear processes, e.g. gene transcription, chromosomal replication, and recombination. New technology termed ChIP-Seq has been recently developed for the analysis of protein-DNA interactions on a whole genome scale and it is based on immunoprecipitation of chromatin and high-throughput DNA sequencing procedure. ChIP-Seq is a novel technique with a great potential to replace older techniques for mapping of protein-DNA interactions. In this thesis, we bring some new insights into the ChIP-Seq data analysis. First, we point out to some common and so far unknown artifacts of the method. Sequence tag distribution in the genome does not follow uniform distribution and we have found extreme hot-spots of tag accumulation over specific loci in the human and mouse genomes. These artifactual sequence tags accumulations will create false peaks in every ChIP-Seq dataset and we propose different filtering methods to reduce the number of false positives. Next, we propose random sampling as a powerful analytical tool in the ChIP-Seq data analysis that could be used to infer biological knowledge from the massive ChIP-Seq datasets. We created unbiased random sampling algorithm and we used this methodology to reveal some of the important biological properties of Nuclear Factor I DNA binding proteins. Finally, by analyzing the ChIP-Seq data in detail, we revealed that Nuclear Factor I transcription factors mainly act as activators of transcription, and that they are associated with specific chromatin modifications that are markers of open chromatin. We speculate that NFI factors only interact with the DNA wrapped around the nucleosome. We also found multiple loci that indicate possible chromatin barrier activity of NFI proteins, which could suggest the use of NFI binding sequences as chromatin insulators in biotechnology applications. RESUME : L'ADN des eucaryotes interagit avec les protéines nucléaires par des interactions noncovalentes ioniques. Les protéines peuvent reconnaître les séquences nucléotidiques spécifiques basées sur l'interaction stérique avec l'ADN, et des interactions spécifiques contrôlent de nombreux processus nucléaire, p.ex. transcription du gène, la réplication chromosomique, et la recombinaison. Une nouvelle technologie appelée ChIP-Seq a été récemment développée pour l'analyse des interactions protéine-ADN à l'échelle du génome entier et cette approche est basée sur l'immuno-précipitation de la chromatine et sur la procédure de séquençage de l'ADN à haut débit. La nouvelle approche ChIP-Seq a donc un fort potentiel pour remplacer les anciennes techniques de cartographie des interactions protéine-ADN. Dans cette thèse, nous apportons de nouvelles perspectives dans l'analyse des données ChIP-Seq. Tout d'abord, nous avons identifié des artefacts très communs associés à cette méthode qui étaient jusqu'à présent insoupçonnés. La distribution des séquences dans le génome ne suit pas une distribution uniforme et nous avons constaté des positions extrêmes d'accumulation de séquence à des régions spécifiques, des génomes humains et de la souris. Ces accumulations des séquences artéfactuelles créera de faux pics dans toutes les données ChIP-Seq, et nous proposons différentes méthodes de filtrage pour réduire le nombre de faux positifs. Ensuite, nous proposons un nouvel échantillonnage aléatoire comme un outil puissant d'analyse des données ChIP-Seq, ce qui pourraient augmenter l'acquisition de connaissances biologiques à partir des données ChIP-Seq. Nous avons créé un algorithme d'échantillonnage aléatoire et nous avons utilisé cette méthode pour révéler certaines des propriétés biologiques importantes de protéines liant à l'ADN nommés Facteur Nucléaire I (NFI). Enfin, en analysant en détail les données de ChIP-Seq pour la famille de facteurs de transcription nommés Facteur Nucléaire I, nous avons révélé que ces protéines agissent principalement comme des activateurs de transcription, et qu'elles sont associées à des modifications de la chromatine spécifiques qui sont des marqueurs de la chromatine ouverte. Nous pensons que lés facteurs NFI interagir uniquement avec l'ADN enroulé autour du nucléosome. Nous avons également constaté plusieurs régions génomiques qui indiquent une éventuelle activité de barrière chromatinienne des protéines NFI, ce qui pourrait suggérer l'utilisation de séquences de liaison NFI comme séquences isolatrices dans des applications de la biotechnologie.
Resumo:
Este trabajo tiene el propósito de estudiar la socialización de la sexualidad femenina a través del análisis de las representaciones sociales de un grupo de mujeres que pertenecen a una comunidad virtual. Estas representaciones y disposiciones son rescatadas de los relatos y comentarios escritos provenientes de la comunicación virtual y del posicionamiento relacional entre mujeres. Dado que la base es comunicacional y por tanto relacional, la conceptualización operativa y la orientación metodológica se llevan a cabo por medio del análisis de redes sociales.
Resumo:
Este proyecto se centra en el análisis de señales GPS, utilizando un receptor software desarrollado con Matlab en un proyecto de investigación para la Agencia Espacial Europea (ESA), llevado a cabo por parte del departamento de Telecomunicaciones e Ingeniería de Sistemas de la ETSE. Este software utiliza técnicas de procesado de señal de alta sensibilidad (HS-GNSS) que permite al usuario determinar su posición en entornos de difícil propagación como puede ser el caso de los escenarios interiores. Los datos experimentales se analizan en función del nivel de multipath que afecta a la señal de cada uno de los satélites, y la degradación que los escenarios interiores provocan en las señales, a causa del mobiliario, paredes, personas, etc. Para analizar los datos experimentales, se ha utilizado una métrica presentada en el congreso internacional EuCAP 2009, con la que es posible caracterizar las señales en función del nivel de multipath.
Resumo:
Una característica importante de la robótica es la comunicación entre sistema base y robot que puede establecerse de forma remota. Ello representa la base del proyecto que se describe a continuación, el cual se descompone de dos partes, una por cada miembro del proyecto: sistema software y sistema hardware. En el sistema software analizaremos las diferentes tecnologías inalámbricas (características, funcionamiento, seguridad, etc.), se realizará una comparativa de los diferentes módulos de comunicación y finalmente decidiremos aquellos que nos interesa para la implementación en Radiofrecuencia (RF) y Bluetooth. En este sistema también estudiaremos la interfaz gráfica que se utilizará, así como los programas creados en este entorno para realizar las implementaciones. En el sistema hardware trataremos de realizar el control de dos periféricos de forma independiente, un servomotor y un sonar, que nos servirán como ejemplo para analizar una posible comunicación entre varios robots y un PC. Por lo tanto, en este apartado analizaremos a fondo los diferentes componentes que harán posible tanto la comunicación, vía RF y Bluetooth, como el control de los diferentes dispositivos.
Resumo:
Images obtained from high-throughput mass spectrometry (MS) contain information that remains hidden when looking at a single spectrum at a time. Image processing of liquid chromatography-MS datasets can be extremely useful for quality control, experimental monitoring and knowledge extraction. The importance of imaging in differential analysis of proteomic experiments has already been established through two-dimensional gels and can now be foreseen with MS images. We present MSight, a new software designed to construct and manipulate MS images, as well as to facilitate their analysis and comparison.
Resumo:
La aplicación web creada tiene como objetivo convertirse en un instrumento útil para la consulta de información catastral del municipio de Cerdanyola del Vallès, ampliando el alcance de la información al personal del Ajuntament. Entre esta información, se incluye cartografía catastral urbana y rústica de diferentes años y la posibilidad de efectuar una serie de consultas alfanuméricas sencillas sobre la misma.
Resumo:
La gestión de recursos en los procesadores multi-core ha ganado importancia con la evolución de las aplicaciones y arquitecturas. Pero esta gestión es muy compleja. Por ejemplo, una misma aplicación paralela ejecutada múltiples veces con los mismos datos de entrada, en un único nodo multi-core, puede tener tiempos de ejecución muy variables. Hay múltiples factores hardware y software que afectan al rendimiento. La forma en que los recursos hardware (cómputo y memoria) se asignan a los procesos o threads, posiblemente de varias aplicaciones que compiten entre sí, es fundamental para determinar este rendimiento. La diferencia entre hacer la asignación de recursos sin conocer la verdadera necesidad de la aplicación, frente a asignación con una meta específica es cada vez mayor. La mejor manera de realizar esta asignación és automáticamente, con una mínima intervención del programador. Es importante destacar, que la forma en que la aplicación se ejecuta en una arquitectura no necesariamente es la más adecuada, y esta situación puede mejorarse a través de la gestión adecuada de los recursos disponibles. Una apropiada gestión de recursos puede ofrecer ventajas tanto al desarrollador de las aplicaciones, como al entorno informático donde ésta se ejecuta, permitiendo un mayor número de aplicaciones en ejecución con la misma cantidad de recursos. Así mismo, esta gestión de recursos no requeriría introducir cambios a la aplicación, o a su estrategia operativa. A fin de proponer políticas para la gestión de los recursos, se analizó el comportamiento de aplicaciones intensivas de cómputo e intensivas de memoria. Este análisis se llevó a cabo a través del estudio de los parámetros de ubicación entre los cores, la necesidad de usar la memoria compartida, el tamaño de la carga de entrada, la distribución de los datos dentro del procesador y la granularidad de trabajo. Nuestro objetivo es identificar cómo estos parámetros influyen en la eficiencia de la ejecución, identificar cuellos de botella y proponer posibles mejoras. Otra propuesta es adaptar las estrategias ya utilizadas por el Scheduler con el fin de obtener mejores resultados.