892 resultados para Service-Based Architecture
Resumo:
La question de recherche « Conserver ou restaurer ? » est le point de départ d’une aventure invitant le lecteur à répondre à qu’est-ce qui oriente nos interventions en matière de conservation du patrimoine bâti. Sachant que ces positions rivales ont toutes une prétention à la vérité, cette thèse fait l’hypothèse d’une médiation entre les deux approches en clarifiant ses différentes interprétations. À partir d'un regard critique de la théorie de Cesare Brandi fondée sur la dialectique historique-artistique de l’œuvre d’art ainsi que d'une réflexion sur la nature fonctionnelle de l’œuvre architecturale, cette thèse démontre qu’il n’y a pas lieu a priori de donner une prédominance à l’une des deux options, ni à établir une échelle de valeurs prédéterminées, mais dévoile un dénominateur commun qui est le temps. Ce dernier ne se restreint pas au passé et au présent, mais implique la puissance destructrice du temps de la nature et le temps historique fondé sur un présent durable riche du passé et ouvert sur l'avenir. Les résultats de la recherche révèlent enfin un dialogue possible entre nos deux alternatives, en proposant une éthique disciplinaire axée sur la dialectique du temps. Savoir « quand conserver ou quand restaurer » demande la reconnaissance de ce que l’on retient de plus significatif à travers l’existence de l’œuvre. Situer cette signification dans un passé révolu désigne l’œuvre comme témoignage d’un temps passé, en lui reconnaissant sa fonction mémorielle ou remémorative ; d’où l’approche à prédominance conservative visant à faire reculer la puissance destructrice du temps de la nature et à préserver le témoignage matériel de la dégradation. Au contraire, situer cette signification dans un présent vivant, c’est reconnaître sa vocation identitaire destinée à la représentation d’une culture ; d’où l’approche à prédominance restaurative (ré-intégrative) fondée sur le temps historique, d’un présent durable riche du passé et ouvert sur l'avenir visant à en révéler le sens. En bref, en ce qui concerne tout le patrimoine bâti, on ne peut parler que d’une dialectique fondamentale issue de la nature même de ces œuvres, à interpréter sous leur fonction mémorielle et leur vocation identitaire. Par conséquent, conserver ou restaurer devraient être réinterprétés par préserver la mémoire ou révéler l’identité. Ainsi, la conservation et la restauration ne doivent plus être entendues comme deux options antagonistes, mais comme deux modalités d’interprétation au service de la médiation de l’œuvre architecturale à travers le temps.
Resumo:
Ce mémoire élaboré dans le cadre d'une étude plus vaste sur la santé mentale au travail étudie l'effet de la culture organisationnelle ainsi que certains facteurs du travail comme la supervision abusive, la latitude décisionnelle, l'utilisation des compétences, l'autorité décisionnelle, les demandes psychologiques, le soutien social ainsi que l'horaire de travail sur l'épuisement professionnel et ses trois dimensions. Ces facteurs, à l'exception de la culture organisationnelle ont fait l'objet d'études approfondies dans le passé. Ce mémoire se base sur un modèle connu et régulièrement utilisé mesurant l'effet de ces facteurs du travail sur la santé mentale. Ce modèle est communément appelé le modèle demandes-contrôle de Karasek. L'échantillon à l'étude est constitué de 384 policiers et travailleurs cols blancs travaillant pour le service de police de la Ville de Montréal. La récolte des données à été effectuée en 2008 et 2009. Ce mémoire confirme en partie les résultats fréquemment observés dans les études sur le sujet. La supervision abusive, les demandes psychologiques et certains types de culture augmentent le niveau d'épuisement professionnel. D'autres variables comme la latitude décisionnelle et certains autres types de culture organisationnelle réduisent le niveau d'épuisement professionnel.
Resumo:
Les brosses de polyélectrolytes font l’objet d’une attention particulière pour de nombreuses applications car elles présentent la capacité de changer de conformation et, par conséquent, de propriétés de surface en réponse aux conditions environnementales appliquées. Le contrôle des principaux paramètres de ces brosses telles que l'épaisseur, la composition et l'architecture macromoléculaire, est essentiel pour obtenir des polymères greffés bien définis. Ceci est possible avec la Polymérisation Radicalaire par Transfert d’Atomes - Initiée à partir de la Surface (PRTA-IS), qui permet la synthèse de brosses polymériques de manière contrôlée à partir d’une couche d'amorceurs immobilisés de manière covalente sur une surface. Le premier exemple d’une synthèse directe de brosses de poly(acide acrylique) (PAA) par polymérisation radicalaire dans l’eau a été démontré. Par greffage d’un marqueur fluorescent aux brosses de PAA et via l’utilisation de la microscopie de fluorescence par réflexion totale interne, le dégreffage du PAA en temps réel a pu être investigué. Des conditions environnementales de pH ≥ 9,5 en présence de sel, se sont avérées critiques pour la stabilité de la liaison substrat-amorceur, conduisant au dégreffage du polymère. Afin de protéger de l’hydrolyse cette liaison substrat-amorceur sensible et prévenir le dégreffage non souhaité du polymère, un espaceur hydrophobique de polystyrène (PS) a été inséré entre l'amorceur et le bloc de PAA stimuli-répondant. Les brosses de PS-PAA obtenues étaient stables pour des conditions extrêmes de pH et de force ionique. La réponse de ces brosses de copolymère bloc a été étudiée in situ par ellipsométrie, et le changement réversible de conformation collapsée à étirée, induit par les variations de pH a été démontré. De plus, des différences de conformation provenant des interactions du bloc de PAA avec des ions métalliques de valence variable ont été obtenues. Le copolymère bloc étudié semble donc prometteur pour la conception de matériaux répondant rapidement a divers stimuli. Par la suite, il a été démontré qu’un acide phosphonique pouvait être employé en tant qu’ amorceur PRTA-IS comme alternative aux organosilanes. Cet amorceur phosphonate a été greffé pour la première fois avec succès sur des substrats de silice et une PRTA-IS en milieux aqueux a permis la synthèse de brosses de PAA et de poly(sulfopropyl méthacrylate). La résistance accrue à l’hydrolyse de la liaison Sisubstrat-O- Pamorceur a été confirmée pour une large gamme de pH 7,5 à 10,5 et a permis l’étude des propriétés de friction des brosses de PAA sous différentes conditions expérimentales par mesure de forces de surface. Malgré la stabilité des brosses de PAA à haute charge appliquée, les études des propriétés de friction ne révèlent pas de changement significatif du coefficient de friction en fonction du pH et de la force ionique.
Resumo:
La gestion des ressources, équipements, équipes de travail, et autres, devrait être prise en compte lors de la conception de tout plan réalisable pour le problème de conception de réseaux de services. Cependant, les travaux de recherche portant sur la gestion des ressources et la conception de réseaux de services restent limités. La présente thèse a pour objectif de combler cette lacune en faisant l’examen de problèmes de conception de réseaux de services prenant en compte la gestion des ressources. Pour ce faire, cette thèse se décline en trois études portant sur la conception de réseaux. La première étude considère le problème de capacitated multi-commodity fixed cost network design with design-balance constraints(DBCMND). La structure multi-produits avec capacité sur les arcs du DBCMND, de même que ses contraintes design-balance, font qu’il apparaît comme sous-problème dans de nombreux problèmes reliés à la conception de réseaux de services, d’où l’intérêt d’étudier le DBCMND dans le contexte de cette thèse. Nous proposons une nouvelle approche pour résoudre ce problème combinant la recherche tabou, la recomposition de chemin, et une procédure d’intensification de la recherche dans une région particulière de l’espace de solutions. Dans un premier temps la recherche tabou identifie de bonnes solutions réalisables. Ensuite la recomposition de chemin est utilisée pour augmenter le nombre de solutions réalisables. Les solutions trouvées par ces deux méta-heuristiques permettent d’identifier un sous-ensemble d’arcs qui ont de bonnes chances d’avoir un statut ouvert ou fermé dans une solution optimale. Le statut de ces arcs est alors fixé selon la valeur qui prédomine dans les solutions trouvées préalablement. Enfin, nous utilisons la puissance d’un solveur de programmation mixte en nombres entiers pour intensifier la recherche sur le problème restreint par le statut fixé ouvert/fermé de certains arcs. Les tests montrent que cette approche est capable de trouver de bonnes solutions aux problèmes de grandes tailles dans des temps raisonnables. Cette recherche est publiée dans la revue scientifique Journal of heuristics. La deuxième étude introduit la gestion des ressources au niveau de la conception de réseaux de services en prenant en compte explicitement le nombre fini de véhicules utilisés à chaque terminal pour le transport de produits. Une approche de solution faisant appel au slope-scaling, la génération de colonnes et des heuristiques basées sur une formulation en cycles est ainsi proposée. La génération de colonnes résout une relaxation linéaire du problème de conception de réseaux, générant des colonnes qui sont ensuite utilisées par le slope-scaling. Le slope-scaling résout une approximation linéaire du problème de conception de réseaux, d’où l’utilisation d’une heuristique pour convertir les solutions obtenues par le slope-scaling en solutions réalisables pour le problème original. L’algorithme se termine avec une procédure de perturbation qui améliore les solutions réalisables. Les tests montrent que l’algorithme proposé est capable de trouver de bonnes solutions au problème de conception de réseaux de services avec un nombre fixe des ressources à chaque terminal. Les résultats de cette recherche seront publiés dans la revue scientifique Transportation Science. La troisième étude élargie nos considérations sur la gestion des ressources en prenant en compte l’achat ou la location de nouvelles ressources de même que le repositionnement de ressources existantes. Nous faisons les hypothèses suivantes: une unité de ressource est nécessaire pour faire fonctionner un service, chaque ressource doit retourner à son terminal d’origine, il existe un nombre fixe de ressources à chaque terminal, et la longueur du circuit des ressources est limitée. Nous considérons les alternatives suivantes dans la gestion des ressources: 1) repositionnement de ressources entre les terminaux pour tenir compte des changements de la demande, 2) achat et/ou location de nouvelles ressources et leur distribution à différents terminaux, 3) externalisation de certains services. Nous présentons une formulation intégrée combinant les décisions reliées à la gestion des ressources avec les décisions reliées à la conception des réseaux de services. Nous présentons également une méthode de résolution matheuristique combinant le slope-scaling et la génération de colonnes. Nous discutons des performances de cette méthode de résolution, et nous faisons une analyse de l’impact de différentes décisions de gestion des ressources dans le contexte de la conception de réseaux de services. Cette étude sera présentée au XII International Symposium On Locational Decision, en conjonction avec XXI Meeting of EURO Working Group on Locational Analysis, Naples/Capri (Italy), 2014. En résumé, trois études différentes sont considérées dans la présente thèse. La première porte sur une nouvelle méthode de solution pour le "capacitated multi-commodity fixed cost network design with design-balance constraints". Nous y proposons une matheuristique comprenant la recherche tabou, la recomposition de chemin, et l’optimisation exacte. Dans la deuxième étude, nous présentons un nouveau modèle de conception de réseaux de services prenant en compte un nombre fini de ressources à chaque terminal. Nous y proposons une matheuristique avancée basée sur la formulation en cycles comprenant le slope-scaling, la génération de colonnes, des heuristiques et l’optimisation exacte. Enfin, nous étudions l’allocation des ressources dans la conception de réseaux de services en introduisant des formulations qui modèlent le repositionnement, l’acquisition et la location de ressources, et l’externalisation de certains services. À cet égard, un cadre de solution slope-scaling développé à partir d’une formulation en cycles est proposé. Ce dernier comporte la génération de colonnes et une heuristique. Les méthodes proposées dans ces trois études ont montré leur capacité à trouver de bonnes solutions.
Resumo:
The aim of this study was to investigate service utilization by students and staff in the 18 months following the September 13, 2006, shooting at Dawson College, Montreal, as well as the determinants of this utilization within the context of Canada’s publicly managed healthcare system. Methods A sample of 948 from among the college’s 10,091 students and staff agreed to complete an adapted computer or web-based standardized questionnaire drawn from the Statistics Canada 2002 Canadian Community Health Survey cycle 1.2 on mental health and well-being. Results In the 18 months following the shooting, there was a greater incidence and prevalence not only of PTSD, but also of other anxiety disorders, depression, and substance abuse. Staff and students were as likely to consult a health professional when presenting a mental or substance use disorder, with females more likely to do so than males. Results also indicated that there was relatively high internet use for mental health reasons by students and staff (14% overall). Conclusions Following a major crisis event causing potential mass trauma, even in a society characterized by easy access to public, school and health services and when the population involved is generally well educated, the acceptability of consulting health professionals for mental health or substance use problems represents a barrier. However, safe internet access is one way male and female students and staff can access information and support and it may be useful to further exploit the possibilities afforded by web-based interviews in anonymous environments.
Resumo:
Dans l'apprentissage machine, la classification est le processus d’assigner une nouvelle observation à une certaine catégorie. Les classifieurs qui mettent en œuvre des algorithmes de classification ont été largement étudié au cours des dernières décennies. Les classifieurs traditionnels sont basés sur des algorithmes tels que le SVM et les réseaux de neurones, et sont généralement exécutés par des logiciels sur CPUs qui fait que le système souffre d’un manque de performance et d’une forte consommation d'énergie. Bien que les GPUs puissent être utilisés pour accélérer le calcul de certains classifieurs, leur grande consommation de puissance empêche la technologie d'être mise en œuvre sur des appareils portables tels que les systèmes embarqués. Pour rendre le système de classification plus léger, les classifieurs devraient être capable de fonctionner sur un système matériel plus compact au lieu d'un groupe de CPUs ou GPUs, et les classifieurs eux-mêmes devraient être optimisés pour ce matériel. Dans ce mémoire, nous explorons la mise en œuvre d'un classifieur novateur sur une plate-forme matérielle à base de FPGA. Le classifieur, conçu par Alain Tapp (Université de Montréal), est basé sur une grande quantité de tables de recherche qui forment des circuits arborescents qui effectuent les tâches de classification. Le FPGA semble être un élément fait sur mesure pour mettre en œuvre ce classifieur avec ses riches ressources de tables de recherche et l'architecture à parallélisme élevé. Notre travail montre que les FPGAs peuvent implémenter plusieurs classifieurs et faire les classification sur des images haute définition à une vitesse très élevée.
Resumo:
We developed a nanoparticles (NPs) library from poly(ethylene glycol)–poly lactic acid comb-like polymers with variable amount of PEG. Curcumin was encapsulated in the NPs with a view to develop a delivery platform to treat diseases involving oxidative stress affecting the CNS. We observed a sharp decrease in size between 15 and 20% w/w of PEG which corresponds to a transition from a large solid particle structure to a “micelle-like” or “polymer nano-aggregate” structure. Drug loading, loading efficacy and release kinetics were determined. The diffusion coefficients of curcumin in NPs were determined using a mathematical modeling. The higher diffusion was observed for solid particles compared to “polymer nano-aggregate” particles. NPs did not present any significant toxicity when tested in vitro on a neuronal cell line. Moreover, the ability of NPs carrying curcumin to prevent oxidative stress was evidenced and linked to polymer architecture and NPs organization. Our study showed the intimate relationship between the polymer architecture and the biophysical properties of the resulting NPs and sheds light on new approaches to design efficient NP-based drug carriers.
Resumo:
Global Positioning System (GPS), with its high integrity, continuous availability and reliability, revolutionized the navigation system based on radio ranging. With four or more GPS satellites in view, a GPS receiver can find its location anywhere over the globe with accuracy of few meters. High accuracy - within centimeters, or even millimeters is achievable by correcting the GPS signal with external augmentation system. The use of satellite for critical application like navigation has become a reality through the development of these augmentation systems (like W AAS, SDCM, and EGNOS, etc.) with a primary objective of providing essential integrity information needed for navigation service in their respective regions. Apart from these, many countries have initiated developing space-based regional augmentation systems like GAGAN and IRNSS of India, MSAS and QZSS of Japan, COMPASS of China, etc. In future, these regional systems will operate simultaneously and emerge as a Global Navigation Satellite System or GNSS to support a broad range of activities in the global navigation sector.Among different types of error sources in the GPS precise positioning, the propagation delay due to the atmospheric refraction is a limiting factor on the achievable accuracy using this system. The WADGPS, aimed for accurate positioning over a large area though broadcasts different errors involved in GPS ranging including ionosphere and troposphere errors, due to the large temporal and spatial variations in different atmospheric parameters especially in lower atmosphere (troposphere), the use of these broadcasted tropospheric corrections are not sufficiently accurate. This necessitated the estimation of tropospheric error based on realistic values of tropospheric refractivity. Presently available methodologies for the estimation of tropospheric delay are mostly based on the atmospheric data and GPS measurements from the mid-latitude regions, where the atmospheric conditions are significantly different from that over the tropics. No such attempts were made over the tropics. In a practical approach when the measured atmospheric parameters are not available analytical models evolved using data from mid-latitudes for this purpose alone can be used. The major drawback of these existing models is that it neglects the seasonal variation of the atmospheric parameters at stations near the equator. At tropics the model underestimates the delay in quite a few occasions. In this context, the present study is afirst and major step towards the development of models for tropospheric delay over the Indian region which is a prime requisite for future space based navigation program (GAGAN and IRNSS). Apart from the models based on the measured surface parameters, a region specific model which does not require any measured atmospheric parameter as input, but depends on latitude and day of the year was developed for the tropical region with emphasis on Indian sector.Large variability of atmospheric water vapor content in short spatial and/or temporal scales makes its measurement rather involved and expensive. A local network of GPS receivers is an effective tool for water vapor remote sensing over the land. This recently developed technique proves to be an effective tool for measuring PW. The potential of using GPS to estimate water vapor in the atmosphere at all-weather condition and with high temporal resolution is attempted. This will be useful for retrieving columnar water vapor from ground based GPS data. A good network of GPS could be a major source of water vapor information for Numerical Weather Prediction models and could act as surrogate to the data gap in microwave remote sensing for water vapor over land.
Resumo:
Embedded systems are usually designed for a single or a specified set of tasks. This specificity means the system design as well as its hardware/software development can be highly optimized. Embedded software must meet the requirements such as high reliability operation on resource-constrained platforms, real time constraints and rapid development. This necessitates the adoption of static machine codes analysis tools running on a host machine for the validation and optimization of embedded system codes, which can help meet all of these goals. This could significantly augment the software quality and is still a challenging field.Embedded systems are usually designed for a single or a specified set of tasks. This specificity means the system design as well as its hardware/software development can be highly optimized. Embedded software must meet the requirements such as high reliability operation on resource-constrained platforms, real time constraints and rapid development. This necessitates the adoption of static machine codes analysis tools running on a host machine for the validation and optimization of embedded system codes, which can help meet all of these goals. This could significantly augment the software quality and is still a challenging field.Embedded systems are usually designed for a single or a specified set of tasks. This specificity means the system design as well as its hardware/software development can be highly optimized. Embedded software must meet the requirements such as high reliability operation on resource-constrained platforms, real time constraints and rapid development. This necessitates the adoption of static machine codes analysis tools running on a host machine for the validation and optimization of embedded system codes, which can help meet all of these goals. This could significantly augment the software quality and is still a challenging field.Embedded systems are usually designed for a single or a specified set of tasks. This specificity means the system design as well as its hardware/software development can be highly optimized. Embedded software must meet the requirements such as high reliability operation on resource-constrained platforms, real time constraints and rapid development. This necessitates the adoption of static machine codes analysis tools running on a host machine for the validation and optimization of embedded system codes, which can help meet all of these goals. This could significantly augment the software quality and is still a challenging field.This dissertation contributes to an architecture oriented code validation, error localization and optimization technique assisting the embedded system designer in software debugging, to make it more effective at early detection of software bugs that are otherwise hard to detect, using the static analysis of machine codes. The focus of this work is to develop methods that automatically localize faults as well as optimize the code and thus improve the debugging process as well as quality of the code.Validation is done with the help of rules of inferences formulated for the target processor. The rules govern the occurrence of illegitimate/out of place instructions and code sequences for executing the computational and integrated peripheral functions. The stipulated rules are encoded in propositional logic formulae and their compliance is tested individually in all possible execution paths of the application programs. An incorrect sequence of machine code pattern is identified using slicing techniques on the control flow graph generated from the machine code.An algorithm to assist the compiler to eliminate the redundant bank switching codes and decide on optimum data allocation to banked memory resulting in minimum number of bank switching codes in embedded system software is proposed. A relation matrix and a state transition diagram formed for the active memory bank state transition corresponding to each bank selection instruction is used for the detection of redundant codes. Instances of code redundancy based on the stipulated rules for the target processor are identified.This validation and optimization tool can be integrated to the system development environment. It is a novel approach independent of compiler/assembler, applicable to a wide range of processors once appropriate rules are formulated. Program states are identified mainly with machine code pattern, which drastically reduces the state space creation contributing to an improved state-of-the-art model checking. Though the technique described is general, the implementation is architecture oriented, and hence the feasibility study is conducted on PIC16F87X microcontrollers. The proposed tool will be very useful in steering novices towards correct use of difficult microcontroller features in developing embedded systems.
Resumo:
The service quality of any sector has two major aspects namely technical and functional. Technical quality can be attained by maintaining technical specification as decided by the organization. Functional quality refers to the manner which service is delivered to customer which can be assessed by the customer feed backs. A field survey was conducted based on the management tool SERVQUAL, by designing 28 constructs under 7 dimensions of service quality. Stratified sampling techniques were used to get 336 valid responses and the gap scores of expectations and perceptions are analyzed using statistical techniques to identify the weakest dimension. To assess the technical aspects of availability six months live outage data of base transceiver were collected. The statistical and exploratory techniques were used to model the network performance. The failure patterns have been modeled in competing risk models and probability distribution of service outage and restorations were parameterized. Since the availability of network is a function of the reliability and maintainability of the network elements, any service provider who wishes to keep up their service level agreements on availability should be aware of the variability of these elements and its effects on interactions. The availability variations were studied by designing a discrete time event simulation model with probabilistic input parameters. The probabilistic distribution parameters arrived from live data analysis was used to design experiments to define the availability domain of the network under consideration. The availability domain can be used as a reference for planning and implementing maintenance activities. A new metric is proposed which incorporates a consistency index along with key service parameters that can be used to compare the performance of different service providers. The developed tool can be used for reliability analysis of mobile communication systems and assumes greater significance in the wake of mobile portability facility. It is also possible to have a relative measure of the effectiveness of different service providers.
Resumo:
The thesis entitled Personnel Management Practices in the Kerala-Based Scheduled Commercial Banks. Personnel management function is of cardinal importance, requiring a sophisticated and scientific approach. In a labour-intensive, service industry like banking. Productivity and ultimate profitability of the entire organization depend considerably on the effectiveness with which personnel management function is executed; and the prudence with which personnel problems are handle. The main objectives of the study are to understand the current status of personnel management functions in the banks and to evaluate the practices in the light of the principles and theories of personnel management so as to identify the strengths and weaknesses. The universe of this study is the eight Scheduled Commercial Banks based in Kerala. The major limitation of the study is that as State Bank of Travancore, the lone public sector bank based in Kerala did not grant permission for collection of data, this study had to be confined to private sector banks only. Almost the entire data used for this study are primary and were collected from the files and other records or the concerned banks. This report has chapters dealing with the functional areas of personnel management such as determination of human resource requirements, recruitment and selection, training and development, performance appraisal, promotions and compensation. Findings reveal that the practice of personnel management in the Kerala-based private sector scheduled commercial banks has not gained a degree of sophistication compatible with its role in modern business management.
Resumo:
This thesis attempts to investigate the problems associated with such schemes and suggests a software architecture, which is aimed towards achieving a meaningful discovery. Usage of information elements as a modelling base for efficient information discovery in distributed systems is demonstrated with the aid of a novel conceptual entity called infotron. The investigations are focused on distributed systems and their associated problems. The study was directed towards identifying suitable software architecture and incorporating the same in an environment where information growth is phenomenal and a proper mechanism for carrying out information discovery becomes feasible. An empirical study undertaken with the aid of an election database of constituencies distributed geographically, provided the insights required. This is manifested in the Election Counting and Reporting Software (ECRS) System. ECRS system is a software system, which is essentially distributed in nature designed to prepare reports to district administrators about the election counting process and to generate other miscellaneous statutory reports.
Resumo:
The recent trends envisage multi-standard architectures as a promising solution for the future wireless transceivers to attain higher system capacities and data rates. The computationally intensive decimation filter plays an important role in channel selection for multi-mode systems. An efficient reconfigurable implementation is a key to achieve low power consumption. To this end, this paper presents a dual-mode Residue Number System (RNS) based decimation filter which can be programmed for WCDMA and 802.16e standards. Decimation is done using multistage, multirate finite impulse response (FIR) filters. These FIR filters implemented in RNS domain offers high speed because of its carry free operation on smaller residues in parallel channels. Also, the FIR filters exhibit programmability to a selected standard by reconfiguring the hardware architecture. The total area is increased only by 24% to include WiMAX compared to a single mode WCDMA transceiver. In each mode, the unused parts of the overall architecture is powered down and bypassed to attain power saving. The performance of the proposed decimation filter in terms of critical path delay and area are tabulated.
Resumo:
The recent trends envisage multi-standard architectures as a promising solution for the future wireless transceivers. The computationally intensive decimation filter plays an important role in channel selection for multi-mode systems. An efficient reconfigurable implementation is a key to achieve low power consumption. To this end, this paper presents a dual-mode Residue Number System (RNS) based decimation filter which can be programmed for WCDMA and 802.11a standards. Decimation is done using multistage, multirate finite impulse response (FIR) filters. These FIR filters implemented in RNS domain offers high speed because of its carry free operation on smaller residues in parallel channels. Also, the FIR filters exhibit programmability to a selected standard by reconfiguring the hardware architecture. The total area is increased only by 33% to include WLANa compared to a single mode WCDMA transceiver. In each mode, the unused parts of the overall architecture is powered down and bypassed to attain power saving. The performance of the proposed decimation filter in terms of critical path delay and area are tabulated
Resumo:
Cache look up is an integral part of cooperative caching in ad hoc networks. In this paper, we discuss a cooperative caching architecture with a distributed cache look up protocol which relies on a virtual backbone for locating and accessing data within a cooperate cache. Our proposal consists of two phases: (i) formation of a virtual backbone and (ii) the cache look up phase. The nodes in a Connected Dominating Set (CDS) form the virtual backbone. The cache look up protocol makes use of the nodes in the virtual backbone for effective data dissemination and discovery. The idea in this scheme is to reduce the number of nodes involved in cache look up process, by constructing a CDS that contains a small number of nodes, still having full coverage of the network. We evaluated the effect of various parameter settings on the performance metrics such as message overhead, cache hit ratio and average query delay. Compared to the previous schemes the proposed scheme not only reduces message overhead, but also improves the cache hit ratio and reduces the average delay