936 resultados para Architectures profondes
Resumo:
Aquest projecte consisteix en evolucionar el LittleProc 1.0, un processador simple dissenyat per ser destinat al món de la docència per tres professors de la UAB. Aquestes evolucions consisteixen en aplicar diversos mètodes i arquitectures diferents per tal d’obtenir un millor rendiment del processador, arribant a executar programes amb la meitat de temps que tardava el LittleProc 1.0. Un cop implementades les diferents arquitectures per tal de millorar el rendiment, es realitzarà un estudi de quin tant per cent de millora ha sigut aquest rendiment.
Resumo:
Given the urgence of a new paradigm in wireless digital trasmission which should allow for higher bit rate, lower latency and tigher delay constaints, it has been proposed to investigate the fundamental building blocks that at the circuital/device level, will boost the change towards a more efficient network architecture, with high capacity, higher bandwidth and a more satisfactory end user experience. At the core of each transciever, there are inherently analog devices capable of providing the carrier signal, the oscillators. It is strongly believed that many limitations in today's communication protocols, could be relieved by permitting high carrier frequency radio transmission, and having some degree of reconfigurability. This led us to studying distributed oscillator architectures which work in the microwave range and possess wideband tuning capability. As microvave oscillators are essentially nonlinear devices, a full nonlinear analyis, synthesis, and optimization had to be considered for their implementation. Consequently, all the most used nonlinear numerical techniques in commercial EDA software had been reviewed. An application of all the aforementioned techniques has been shown, considering a systems of three coupled oscillator ("triple push" oscillator) in which the stability of the various oscillating modes has been studied. Provided that a certain phase distribution is maintained among the oscillating elements, this topology permits a rise in the output power of the third harmonic; nevertheless due to circuit simmetry, "unwanted" oscillating modes coexist with the intenteded one. Starting with the necessary background on distributed amplification and distributed oscillator theory, the design of a four stage reverse mode distributed voltage controlled oscillator (DVCO) using lumped elments has been presented. All the design steps have been reported and for the first time a method for an optimized design with reduced variations in the output power has been presented. Ongoing work is devoted to model a wideband DVCO and to implement a frequency divider.
Resumo:
Las herramientas de análisis de secuencias genómicas permiten a los biólogos identificar y entender regiones fundamentales que tienen implicación en enfermedades genéticas. Actualmente existe una necesidad de dotar al ámbito científico de herramientas de análisis eficientes. Este proyecto lleva a cabo una caracterización y análisis del rendimiento de algoritmos utilizados en la comparación de secuencias genómicas completas, y ejecutadas en arquitecturas MultiCore y ManyCore. A partir del análisis se evalúa la idoneidad de este tipo de arquitecturas para resolver el problema de comparar secuencias genómicas. Finalmente se propone una serie de modificaciones en las implementaciones de estos algoritmos con el objetivo de mejorar el rendimiento.
Resumo:
This paper presents general problems and approaches for the spatial data analysis using machine learning algorithms. Machine learning is a very powerful approach to adaptive data analysis, modelling and visualisation. The key feature of the machine learning algorithms is that they learn from empirical data and can be used in cases when the modelled environmental phenomena are hidden, nonlinear, noisy and highly variable in space and in time. Most of the machines learning algorithms are universal and adaptive modelling tools developed to solve basic problems of learning from data: classification/pattern recognition, regression/mapping and probability density modelling. In the present report some of the widely used machine learning algorithms, namely artificial neural networks (ANN) of different architectures and Support Vector Machines (SVM), are adapted to the problems of the analysis and modelling of geo-spatial data. Machine learning algorithms have an important advantage over traditional models of spatial statistics when problems are considered in a high dimensional geo-feature spaces, when the dimension of space exceeds 5. Such features are usually generated, for example, from digital elevation models, remote sensing images, etc. An important extension of models concerns considering of real space constrains like geomorphology, networks, and other natural structures. Recent developments in semi-supervised learning can improve modelling of environmental phenomena taking into account on geo-manifolds. An important part of the study deals with the analysis of relevant variables and models' inputs. This problem is approached by using different feature selection/feature extraction nonlinear tools. To demonstrate the application of machine learning algorithms several interesting case studies are considered: digital soil mapping using SVM, automatic mapping of soil and water system pollution using ANN; natural hazards risk analysis (avalanches, landslides), assessments of renewable resources (wind fields) with SVM and ANN models, etc. The dimensionality of spaces considered varies from 2 to more than 30. Figures 1, 2, 3 demonstrate some results of the studies and their outputs. Finally, the results of environmental mapping are discussed and compared with traditional models of geostatistics.
Resumo:
ABSTRACT : Ostracods are benthic microcrustaceans enclosed in low-Mg calcite bivalves. Stable isotope compositions, Mg/Ca, and Sr/Ca ratios of ostracod fossil valves have proven useful to reconstruct past environmental conditions. Yet, several discrepancies persist and the influence of many factors remains unclear. It is the aim of this study to improve the use of ostracod valve geochemistry as palaeoenvironmental proxies by examining the extent of isotope fractionation and trace element partitioning during valve calcification. To achieve this, the environmental parameters (pH, temperature) and chemical composition of water (C-and O-isotope composition and calcium, magnesium, and strontium content) were measured at sites where living ostracods were sampled. The sampling was on a monthly basis over the course of one year at five different water depths (2, 5, 13, 33, and 70 m) in Lake Geneva, Switzerland. The one-year sampling enabled collection of environmental data for bottom and interstitial pore water. In littoral to sublittoral zones, C-isotope composition of DIC and the Mg/Ca and Sr/Ca ratios of water are found to vary concomitantly with water temperature. This is due to the precipitation of calcite, which is induced by higher photosynthetic activity as temperature and/or solar radiation intensify in summer. In deeper zones, environmental parameters remain largely constant throughout the year. Variations of pH, DIC concentrations and C-isotope compositions in interstitial water result from aerobic as well as anaerobic respiration, calcite dissolution and methanogenesis. Bathymetric distribution, life cycles, and habitats were derived for 15 ostracod species and are predominantly related to water temperature and sediment texture. O-isotope compositions of ostracod valves in Lake Geneva reflect that of water and temperature. However, offsets of up to 3 permil are observed in comparison with proposed inorganic calcite precipitation equilibrium composition. Deprotonation of HCO3- and/or salt effect at crystallisation sites may explain the disequilibrium observed for O-isotopic compositions. C-isotope compositions of ostracod valves are not as well constrained and appear to be controlled by a complex interaction between habitat preferences and seasonal as well as spatial variations of the DIC isotope composition. For infaunal forms, C-isotope compositions reflect mainly the variation of DIC isotope composition in interstitial pore waters. For epifaunal forms, C-isotope compositions reflect the seasonal variation of DIC isotope compositions. C-isotope compositions of ostracod valves is at equilibrium with DIC except for a small number of species (L. inopinata, L. sanctipatricii and possibly C. ophtalmica, and I. beauchampi). Trace element uptake differs considerably from species to species. For most epifaunal forms, trace element content follows the seasonal cycle, recording temperature increases and/or variations of Mg/Ca and Sr/Ca ratios of water. In contrast, infaunal forms are predominantly related to sediment pore water chemistry. RÉSUMÉ EN FRANÇAIS : Les ostracodes sont de petits crustacés benthiques qui possèdent une coquille faite de calcite à faible teneur en magnésium. La composition isotopique et les rapports Mg/Ca et Sr/Ca d'ostracodes fossiles ont été utilisés maintes fois avec succès pour effectuer des reconstructions paléoenvironnementales. Néanmoins, certains désaccords persistent sur l'interprétation de ces données. De plus, l'influence de certains facteurs pouvant biaiser le signal reste encore inconnue. Ainsi, le but de cette étude est de rendre plus performant l'emploi de la composition géochimique des ostracodes comme indicateur paléoenvironnemental. Pour réaliser cela, cinq sites situés dans le Léman à 2, 5, 13, 33 et 70 m de profondeur ont été choisis pour effectuer les échantillonnages. Chaque site a été visité une fois par mois durant une année. Les différents paramètres environnementaux (pH, température) ainsi que la composition géochimique de l'eau (composition isotopique de l'oxygène et du carbone ainsi que teneur en calcium, magnésium et strontium) ont été déterminés pour chaque campagne. Des ostracodes vivants ont été récoltés au cinq sites en même temps que les échantillons d'eau. Ce travail de terrain a permis de caractériser la géochimie de l'eau se trouvant juste au-dessus des sédiments ainsi que celle de l'eau se trouvant dans les interstices du sédiment. Dans les zones littorales à sublittorales, la composition isotopique du carbone inorganique dissout (CID) ainsi que les rapports Mg/Ca et Sr/Ca de l'eau varient linéairement avec la température. Ceci peut être expliqué par la précipitation de calcite qui est contrôlée par l'activité photosynthétique, variant elle même linéairement avec la température. Dans les zones plus profondes, les paramètres environnementaux restent relativement constants tout au long de l'année. Les variations du pH, de la concentration et de la composition isotopique du CID dans les sédiments résultent de la libération de carbone engendrée par la dégradation de la matière organique avec présence d'oxygène ou via réduction de nitrates et de sulfates, par la dissolution de carbonates, ainsi que par la méthanogenèse. La distribution bathymétrique, le cycle de vie ainsi que l'habitat de 15 espèces ont été déterminés. Ceux-ci sont principalement reliés à la température de l'eau et à la texture des sédiments. La composition isotopique de l'oxygène des valves d'ostracodes reflète celle de l'eau et la température qui régnait lors de la calcification. Néanmoins, des écarts pouvant aller jusqu'à 3 0/00 par rapport à l'équilibre théorique ont été obtenus. La déprotonation de HCO3 ou un 'effet de sel' pourrait être à l'origine du déséquilibre observé. La composition isotopique du carbone des valves d'ostracodes n'est pas aussi bien cernée. Celle-ci semble être principalement contrôlée par une interaction complexe entre l'habitat des ostracodes et les variations saisonnières et spatiales de la composition isotopique du CID. Pour les espèces endofaunes, la composition isotopique du carbone reflète principalement la variation de la composition isotopique du CID à l'intérieur des sédiments. Pour les formes épifaunes, c'est la variation saisonnière de la composition du CID qui contrôle celle de la coquille des ostracodes. En général, la composition isotopique du carbone des valves d'ostracodes est en équilibre avec celle de CID, hormis pour quelques rares espèces (L. inopinata, L. sanctipatricii et peut-être C. ophtalmica et I. beauchampi). L'incorporation des éléments traces diffère passablement d'une espèce à l'autre. Pour la plupart des espèces épifaunes, la teneur en éléments traces des coquilles reflète les variations saisonnières. Ces espèces semblent enregistrer les variations soit de la température soit des rapports Mg/Ca et Sr/Ca de l'eau. La teneur en élément traces des formes infaunales, au contraire, est principalement reliée à la chimie de l'eau interstitielle. RÉSUMÉ GRAND-PUBLIC : La connaissance de l'évolution du climat dans le futur est primordiale pour notre société, car elle permet de développer différentes stratégies pour faire face aux problèmes engendrés pas le changement climatique : stratégies environnementale, humanitaire, ou encore économique. Cette problématique est actuellement, à juste titre, sujet d'une vive préoccupation. La géologie peut-elle contribuer à l'effort communautaire entrepris? Naturellement, ce sont les climatologues qui sont sur le devant de la scène. Il n'empêche que ces derniers, pour pouvoir prédire l'avenir, doivent s'appuyer sur le passé. La géologie est alors d'un grand intérêt car c'est effectivement la seule science qui permette d'estimer les variations climatiques à grande échelle sur de longues périodes. Ainsi, voulant moi-même contribuer aux recherches menées dans ce domaine, je me suis tourné à la fin de mes études vers la paléoclimatologie, science qui a pour but de reconstruire le climat des temps anciens. Nous nous sommes rendu compte que l'évolution climatique de la région où nous habitons n'avait pas encore fait le sujet d'études approfondies. Il est pourtant important de connaître la variation locale des changements climatiques pour obtenir des modèles climatiques fiables. En conséquence, un vaste projet a vu le jour : reconstruire, à l'aide des sédiments du lac Léman, les variations paléoclimatiques et paléo-environnementales depuis le retrait du Glacier de Rhône, il y a environ 15'000 ans, jusqu'à nos jours. Pour ce genre de travail, la géochimie, qui est une forme de chimie, utilisée en science de la terre regroupant la chimie classique et la chimie isotopique, est une alliée particulièrement efficace. Elle permet en effet, via différentes mesures faites sur des archives géologiques (par exemple des fossiles ou des sédiments) d'obtenir des informations, souvent quantitatives, sur les conditions (le climat, la flore ou encore la bio productivité, etc...) qui régnaient il y a fort longtemps. Les coquilles d'ostracodes, qui sont de petits animaux vivant au fond des lacs, sont une des archives les plus prometteuses. Ces animaux sont des petits crustacés s'entourant d'une coquille calcaire qu'ils sécrètent eux-mêmes. A la mort de l'animal, la coquille est intégrée dans les sédiments et reste intacte à travers les âges. Des études ont montré qu'en analysant la géochimie de ces coquilles fossiles, il est possible de reconstruire les conditions environnementales qui régnaient à l'époque de vie de ces fossiles. Cette démarche nécessite qu'une condition bien précise soit remplie: la composition géochimique de la coquille doit enregistrer de manière fidèle la chimie de l'eau et/ou la température de l'eau présentes au moment de la sécrétion de la coquille. Le but spécifique de notre recherche a précisément été d'étudier la façon dont la chimie de l'eau ainsi que sa température sont enregistrées dans la coquillé des ostracodes. Une fois les relations entre ces divers paramètres dans l'étant actuel du système établies, il sera alors possible de les utiliser pour interpréter des données issues de coquilles fossiles. Pour ce faire, nous avons mesuré la température de l'eau de manière continue et récolté mensuellement des échantillons d'eau et des ostracodes vivants pendant une année. Cinq sites situés à 2, 5, 13, 33 et 70 mètres de profondeur ont été choisis pour effectuer ces échantillonnages dans le Léman. Le travail de terrain nous a amené à étudier la biologie de 15 espèces. Nous avons pu établir la profondeur à laquelle vivent ces animaux, leur période de développement ainsi que leur habitat respectifs. Ces résultats ont permis de mieux cerner la relation qu'il existe entre la chimie de l'eau, sa température et la composition géochimique des coquilles d'ostracodes. Nous avons ainsi pu confirmer que les coquilles d'ostracodes enregistrent de manière fidèle la composition chimique et isotopique de l'eau. De même, nous avons pu établir de manière plus précise l'effet de la température sur la géochimie des coquilles. Néanmoins, les relations trouvées entre ces trois éléments sont plus complexes pour certaines espèces, cette complexité étant souvent liée à un caractère spécifique de leur écologie. Nous avons mis en lumière certains effets qui biaisent les résultats et défini précisément les conditions dans lesquelles on peut s'attendre à avoir des difficultés dans leur interprétation. Maintenant que nous avons établi les relations entre le climat actuel et la composition géochimique des coquilles d'ostracodes actuels, nous pouvons, sur la base de ce modèle, reconstruire le climat depuis le retrait du Glacier du Rhône jusqu'à nos jours à l'aide d'ostracodes fossiles. Mais cela est une autre histoire et fera, je l'espère, le sujet de nos futures recherches.
Resumo:
Background The 'database search problem', that is, the strengthening of a case - in terms of probative value - against an individual who is found as a result of a database search, has been approached during the last two decades with substantial mathematical analyses, accompanied by lively debate and centrally opposing conclusions. This represents a challenging obstacle in teaching but also hinders a balanced and coherent discussion of the topic within the wider scientific and legal community. This paper revisits and tracks the associated mathematical analyses in terms of Bayesian networks. Their derivation and discussion for capturing probabilistic arguments that explain the database search problem are outlined in detail. The resulting Bayesian networks offer a distinct view on the main debated issues, along with further clarity. Methods As a general framework for representing and analyzing formal arguments in probabilistic reasoning about uncertain target propositions (that is, whether or not a given individual is the source of a crime stain), this paper relies on graphical probability models, in particular, Bayesian networks. This graphical probability modeling approach is used to capture, within a single model, a series of key variables, such as the number of individuals in a database, the size of the population of potential crime stain sources, and the rarity of the corresponding analytical characteristics in a relevant population. Results This paper demonstrates the feasibility of deriving Bayesian network structures for analyzing, representing, and tracking the database search problem. The output of the proposed models can be shown to agree with existing but exclusively formulaic approaches. Conclusions The proposed Bayesian networks allow one to capture and analyze the currently most well-supported but reputedly counter-intuitive and difficult solution to the database search problem in a way that goes beyond the traditional, purely formulaic expressions. The method's graphical environment, along with its computational and probabilistic architectures, represents a rich package that offers analysts and discussants with additional modes of interaction, concise representation, and coherent communication.
Resumo:
In order to successfully deploy multicast services in QoS-aware networks, pricing architectures must take into account the particular characteristics of multicast sessions. With this objective, we propose a charging scheme for QoS multicast services, assuming that the unicast cost of each interconnecting link is determined and that such cost is expressed in terms of quality of service (QoS) parameters. Our scheme allows determining the cost distribution of a multicast session along a cost distribution tree (CDT), and basing such distribution in those pre-existing unicast cost functions. The paper discusses in detail the main characteristics of the problem in a realistic interdomain scenario and how the proposed scheme would contribute to its solution
Resumo:
This paper proposes a hybrid coordination method for behavior-based control architectures. The hybrid method takes advantages of the robustness and modularity in competitive approaches as well as optimized trajectories in cooperative ones. This paper shows the feasibility of applying this hybrid method with a 3D-navigation to an autonomous underwater vehicle (AUV). The behaviors are learnt online by means of reinforcement learning. A continuous Q-learning implemented with a feed-forward neural network is employed. Realistic simulations were carried out. The results obtained show the good performance of the hybrid method on behavior coordination as well as the convergence of the behaviors
Resumo:
This paper surveys control architectures proposed in the literature and describes a control architecture that is being developed for a semi-autonomous underwater vehicle for intervention missions (SAUVIM) at the University of Hawaii. Conceived as hybrid, this architecture has been organized in three layers: planning, control and execution. The mission is planned with a sequence of subgoals. Each subgoal has a related task supervisor responsible for arranging a set of pre-programmed task modules in order to achieve the subgoal. Task modules are the key concept of the architecture. They are the main building blocks and can be dynamically re-arranged by the task supervisor. In our architecture, deliberation takes place at the planning layer while reaction is dealt through the parallel execution of the task modules. Hence, the system presents both a hierarchical and an heterarchical decomposition, being able to show a predictable response while keeping rapid reactivity to the dynamic environment
Resumo:
Most network operators have considered reducing LSR label spaces (number of labels used) as a way of simplifying management of underlaying virtual private networks (VPNs) and therefore reducing operational expenditure (OPEX). The IETF outlined the label merging feature in MPLS-allowing the configuration of multipoint-to-point connections (MP2P)-as a means of reducing label space in LSRs. We found two main drawbacks in this label space reduction a)it should be separately applied to a set of LSPs with the same egress LSR-which decreases the options for better reductions, and b)LSRs close to the edge of the network experience a greater label space reduction than those close to the core. The later implies that MP2P connections reduce the number of labels asymmetrically
Resumo:
Metabolic problems lead to numerous failures during clinical trials, and much effort is now devoted to developing in silico models predicting metabolic stability and metabolites. Such models are well known for cytochromes P450 and some transferases, whereas less has been done to predict the activity of human hydrolases. The present study was undertaken to develop a computational approach able to predict the hydrolysis of novel esters by human carboxylesterase hCES2. The study involved first a homology modeling of the hCES2 protein based on the model of hCES1 since the two proteins share a high degree of homology (congruent with 73%). A set of 40 known substrates of hCES2 was taken from the literature; the ligands were docked in both their neutral and ionized forms using GriDock, a parallel tool based on the AutoDock4.0 engine which can perform efficient and easy virtual screening analyses of large molecular databases exploiting multi-core architectures. Useful statistical models (e.g., r (2) = 0.91 for substrates in their unprotonated state) were calculated by correlating experimental pK(m) values with distance between the carbon atom of the substrate's ester group and the hydroxy function of Ser228. Additional parameters in the equations accounted for hydrophobic and electrostatic interactions between substrates and contributing residues. The negatively charged residues in the hCES2 cavity explained the preference of the enzyme for neutral substrates and, more generally, suggested that ligands which interact too strongly by ionic bonds (e.g., ACE inhibitors) cannot be good CES2 substrates because they are trapped in the cavity in unproductive modes and behave as inhibitors. The effects of protonation on substrate recognition and the contrasting behavior of substrates and products were finally investigated by MD simulations of some CES2 complexes.
Resumo:
Objectif : Etudier les résultats cliniques du traitement de patients atteints pai- une épilepsie mésiale du lobe temporal (MTLE) réfractaire, par stimulation cérébrale profonde (DBS) de l'hippocampe, en fonction de l'emplacement de l'électrode. Méthodes : Huit patients atteints de MTLE implantés dans l'hippocampe et stimulés par DBS à haute fréquence ont été inclus dans cette étude. Cinq ont subi des enregistrements invasifs avec des électrodes profondes dans le but d'estimer la localisation du foyer ictal avant de procéder à une DBS chronique. La position des contacts actifs de l'électrode a été mesurée en utilisant une imagerie post-opératoire. Les distances par rapport au foyer ictal ont été calculées, et les structures hippocampiques influencées par la stimulation ont été identifiées au moyen d'un atlas neuro-anatomique. Ces deux paramètres ont été corrélés avec la réduction de la fréquence d'apparition des crises. Résultats : Les distances entre la localisation estimée des contacts actifs de l'électrode et le foyer ictal étaient respectivement 11.0 +/- 4.3 ou 9.1 +/- 2.3 mm pour les patients présentant une réduction de > 50% ou < 50% de la fréquence des crises. Chez les patients (N = 6) montrant une réduction de > 50% de la fréquence des crises, 100% avaient des contacts actifs situés à < 3 mm du subiculum (p < 0,05). Les 2 patients ne répondant pas au traitement étaient stimulés par des contacts situés à > 3mm du subiculum. Conclusion : La diminution de l'activité épileptogène induite par DBS sur l'hippocampe dans les cas de MTLE réfractaires : 1) ne semble pas directement liée à la proximité des contacts actifs de l'électrode au foyer ictal déterminé par les enregistrements invasifs ; 2) pourrait être obtenue par une neuro-modulation du subiculum.
Resumo:
Cette étude porte sur la recherche biomédicale en Suisse dans une perspective interprétative. Elle s'intéresse à l'usage que font les acteurs scientifiques et institutionnels de la catégorie «biomédical», à la signification qu'ils en donnent et aux processus de structuration de la recherche biomédicale autour de ces enjeux de catégorisation. Nous avons formulé l'hypothèse que le «biomédical» pouvait être considéré comme un label, à savoir une stratégie discursive de positionnement des acteurs, ou pouvait constituer un champ, à savoir un espace social de recherche fortement structuré. Pour pouvoir vérifier la validité de ces hypothèses, trois perspectives analytiques ont été retenues: topographie, discours et pratiques. Dans un premier temps, nous avons établi une topographie de la recherche biomédicale en repérant les acteurs (et leur appartenance disciplinaire) et les institutions qui s'associent au terme «biomédical», que ce soit pour décrire des institutions ou des projets de recherche. Les résultats de cette analyse offrent une première approximation d'un espace de la recherche en donnant une image d'un domaine peu unifié. Ainsi, l'usage de la catégorie «biomédical» dans les projets des chercheurs n'est pas le fait des seuls médecins et biologistes, mais également de représentants d'autres disciplines. La physique, la chimie et les sciences de l'ingénieur occupent ainsi également une place très importante dans cet espace de recherche. Puis, dans une perspective discursive, nous avons analysé le «biomédical» non seulement comme un label, mais également comme un objet-frontière permettant d'articuler différentes significations, de produire du sens là où des univers de recherche pourraient s'opposer, ou à coordonner des politiques qui ne l'étaient pas. L'analyse des différentes définitions du «biomédical» nous a confirmé l'existence d'un espace social marqué par une grande diversité disciplinaire, toutefois articulé autour d'un coeur médical et, plus particulièrement, d'une application médicale (potentielle ou actuelle). De plus, il ne semble pas y avoir de profondes luttes pour l'établissement de limites claires au «biomédical». Finalement, nous avons étudié les différentes activités de la production des savoirs (carrières, financement, collaboration, publication, etc.). Cette analyse a permis de comprendre que la diversité des définitions et des significations que les acteurs attribuent à la catégorie «biomédical» a aussi un ancrage dans la matérialité des réseaux sociotechniques dans lesquels les chercheurs s'inscrivent. Ces éléments confirment l'idée d'une fragmentation et d'une hétérogénéité de l'espace de la recherche biomédicale. En dépit de cette fragmentation, nous avons également montré que différentes mesures et instruments d'action publique visant à organiser et réguler les pratiques des chercheurs sont mis en oeuvre. Néanmoins et paradoxalement, la recherche biomédicale ne constitue pas pour autant un objet de politique scientifique abordé par les autorités politiques, en tous les cas pas sous l'angle de la catégorie «biomédical». Ces différents niveaux d'analyse ont permis d'arriver à la conclusion que la catégorie «biomédical» n'est pas suffisamment institutionnalisée et que le degré d'interaction entre l'ensemble des chercheurs qui en font usage est trop faible pour que l'on puisse considérer le «biomédical» comme un espace social fortement organisé et structuré, à savoir un champ de la recherche biomédicale. Cela est principalement lié au fait que les acteurs ne partagent pas les mêmes définitions de ce qu'est (ou devrait être) le «biomédical», que leurs pratiques de recherche s'inscrivent dans des univers relativement séparés, et que cette diversité ne donne pas lieu à de fortes luttes pour l'imposition d'une définition légitime ou de normes d'excellence scientifiques dominantes. Par contre, les analyses ont permis de confirmer la validité du «biomédical» comme label, puisque les acteurs se servent de cette catégorie pour valoriser leurs pratiques de recherche et se positionner, même si d'autres notions ont émergé ces dernières années («translationnel», «biotech», «medtech», médecine personnalisée, etc.). On peut, in fine, considérer le «biomédical» comme un probable langage commun («objet-frontière») reposant tant sur la scientificisation du médical que sur la médicalisation des sciences («de base» et «techniques »), visant à améliorer les conditions de possibilité d'un dialogue fructueux entre chercheurs fondamentaux et cliniciens.
Resumo:
Technological limitations and power constraints are resulting in high-performance parallel computing architectures that are based on large numbers of high-core-count processors. Commercially available processors are now at 8 and 16 cores and experimental platforms, such as the many-core Intel Single-chip Cloud Computer (SCC) platform, provide much higher core counts. These trends are presenting new sets of challenges to HPC applications including programming complexity and the need for extreme energy efficiency.In this work, we first investigate the power behavior of scientific PGAS application kernels on the SCC platform, and explore opportunities and challenges for power management within the PGAS framework. Results obtained via empirical evaluation of Unified Parallel C (UPC) applications on the SCC platform under different constraints, show that, for specific operations, the potential for energy savings in PGAS is large; and power/performance trade-offs can be effectively managed using a cross-layerapproach. We investigate cross-layer power management using PGAS language extensions and runtime mechanisms that manipulate power/performance tradeoffs. Specifically, we present the design, implementation and evaluation of such a middleware for application-aware cross-layer power management of UPC applications on the SCC platform. Finally, based on our observations, we provide a set of recommendations and insights that can be used to support similar power management for PGAS applications on other many-core platforms.
Resumo:
El rápido crecimiento del los sistemas multicore y los diversos enfoques que estos han tomado, permiten que procesos complejos que antes solo eran posibles de ejecutar en supercomputadores, hoy puedan ser ejecutados en soluciones de bajo coste también denominadas "hardware de comodidad". Dichas soluciones pueden ser implementadas usando los procesadores de mayor demanda en el mercado de consumo masivo (Intel y AMD). Al escalar dichas soluciones a requerimientos de cálculo científico se hace indispensable contar con métodos para medir el rendimiento que los mismos ofrecen y la manera como los mismos se comportan ante diferentes cargas de trabajo. Debido a la gran cantidad de tipos de cargas existentes en el mercado, e incluso dentro de la computación científica, se hace necesario establecer medidas "típicas" que puedan servir como soporte en los procesos de evaluación y adquisición de soluciones, teniendo un alto grado de certeza de funcionamiento. En la presente investigación se propone un enfoque práctico para dicha evaluación y se presentan los resultados de las pruebas ejecutadas sobre equipos de arquitecturas multicore AMD e Intel.