954 resultados para showing your know-how
Resumo:
Proceedings da AUTEX 2015, Bucareste, Roménia.
Resumo:
Dissertação de mestrado integrado em Engenharia e Gestão de Sistemas de Informação
Resumo:
In the trend towards tolerating hardware unreliability, accuracy is exchanged for cost savings. Running on less reliable machines, functionally correct code becomes risky and one needs to know how risk propagates so as to mitigate it. Risk estimation, however, seems to live outside the average programmer’s technical competence and core practice. In this paper we propose that program design by source-to-source transformation be risk-aware in the sense of making probabilistic faults visible and supporting equational reasoning on the probabilistic behaviour of programs caused by faults. This reasoning is carried out in a linear algebra extension to the standard, `a la Bird-Moor algebra of programming. This paper studies, in particular, the propagation of faults across standard program transformation techniques known as tupling and fusion, enabling the fault of the whole to be expressed in terms of the faults of its parts.
Resumo:
Relatório de estágio de mestrado em Ciências da Comunicação (área de especialização em Especialização em Audiovisual e Multimédia)
Resumo:
Dissertação de mestrado em Estatística
Resumo:
La superficie de este proyecto abarca unos 2000 Km, comprendiendo no solo el Gran Córdoba, sino también sectores adyacentes al mismo. En toda la zona involucrada, desde la década del 40, viene desarrollándose un descontrolado proceso de urbanización que ha traído como consecuencia, la aparición de importantes situaciones de inestabilidad. Ante esta realidad, las investigaciones integrales del medio natural resultan imprescindibles para encarar la planificación territorial. Por ello en el proyecto se destaca al medio físico como la componente ambiental que más interactúa con la edificación e infraestructura, determinando gran parte de los problemas territoriales. A los fines de conocer los problemas generados por esta situación y, subsecuentemente, aportar en forma concreta y definitiva las correspondientes soluciones, se ha desarrollado el presente proyecto el cual constituye una investigación Aplicada (...) El desarrollo de Cartas Geotécnicas aplicadas, incluyendo las memorias técnicas y mapas temáticos correspondientes, constituyen una herramienta de aplicación del conocimiento que congrega métodos y técnicas procurando establecer "Unidades Territoriales Homogéneas" y formulando Directrices para la Ocupación de cada una de esas unidades. (...) El objetivo general del proyecto es por lo tanto la evaluación y caracterización integral: Geológica, Geotécnica e Hidrológica del área Urbana y Metropolitana de la ciudad de Córdoba. El objetivo científico-tecnológico es: el "Know-how" multidisciplinario para evaluaciones territoriales integrales orientadas a la Planificación Urbana y Aprovechamiento Integral de Recursos del Medio Físico. Como objetivos específicos dentro del marco Económico Social pueden mencionarse: * La orientación del proyecto tiende a satisfacer una necesidad del Estado en lo que hace a la planificación del territorio, proporcionando una completa información actualizada de los procesos y riesgos actuales y potenciales a que está expuesto el ambiente. Por lo tanto, se espera que mediante la prevención de una adecuada planificación se obtengan altos beneficios sociales y económicos. * Aportes al Ordenamiento Territorial abordando la interacción entre ocupación y medio físico, posibilitando del desarrollo de directrices de ocupación (Planos Directrices E 1:5000) y minimizando riesgos geoambientales. * Documentos Técnicos aplicados al cuidado y mejora de Recursos Paisajísticos de alta belleza escénica del área metropolitana de la ciudad de Córdoba.
Resumo:
El avance en la potencia de cómputo en nuestros días viene dado por la paralelización del procesamiento, dadas las características que disponen las nuevas arquitecturas de hardware. Utilizar convenientemente este hardware impacta en la aceleración de los algoritmos en ejecución (programas). Sin embargo, convertir de forma adecuada el algoritmo en su forma paralela es complejo, y a su vez, esta forma, es específica para cada tipo de hardware paralelo. En la actualidad los procesadores de uso general más comunes son los multicore, procesadores paralelos, también denominados Symmetric Multi-Processors (SMP). Hoy en día es difícil hallar un procesador para computadoras de escritorio que no tengan algún tipo de paralelismo del caracterizado por los SMP, siendo la tendencia de desarrollo, que cada día nos encontremos con procesadores con mayor numero de cores disponibles. Por otro lado, los dispositivos de procesamiento de video (Graphics Processor Units - GPU), a su vez, han ido desarrollando su potencia de cómputo por medio de disponer de múltiples unidades de procesamiento dentro de su composición electrónica, a tal punto que en la actualidad no es difícil encontrar placas de GPU con capacidad de 200 a 400 hilos de procesamiento paralelo. Estos procesadores son muy veloces y específicos para la tarea que fueron desarrollados, principalmente el procesamiento de video. Sin embargo, como este tipo de procesadores tiene muchos puntos en común con el procesamiento científico, estos dispositivos han ido reorientándose con el nombre de General Processing Graphics Processor Unit (GPGPU). A diferencia de los procesadores SMP señalados anteriormente, las GPGPU no son de propósito general y tienen sus complicaciones para uso general debido al límite en la cantidad de memoria que cada placa puede disponer y al tipo de procesamiento paralelo que debe realizar para poder ser productiva su utilización. Los dispositivos de lógica programable, FPGA, son dispositivos capaces de realizar grandes cantidades de operaciones en paralelo, por lo que pueden ser usados para la implementación de algoritmos específicos, aprovechando el paralelismo que estas ofrecen. Su inconveniente viene derivado de la complejidad para la programación y el testing del algoritmo instanciado en el dispositivo. Ante esta diversidad de procesadores paralelos, el objetivo de nuestro trabajo está enfocado en analizar las características especificas que cada uno de estos tienen, y su impacto en la estructura de los algoritmos para que su utilización pueda obtener rendimientos de procesamiento acordes al número de recursos utilizados y combinarlos de forma tal que su complementación sea benéfica. Específicamente, partiendo desde las características del hardware, determinar las propiedades que el algoritmo paralelo debe tener para poder ser acelerado. Las características de los algoritmos paralelos determinará a su vez cuál de estos nuevos tipos de hardware son los mas adecuados para su instanciación. En particular serán tenidos en cuenta el nivel de dependencia de datos, la necesidad de realizar sincronizaciones durante el procesamiento paralelo, el tamaño de datos a procesar y la complejidad de la programación paralela en cada tipo de hardware. Today´s advances in high-performance computing are driven by parallel processing capabilities of available hardware architectures. These architectures enable the acceleration of algorithms when thes ealgorithms are properly parallelized and exploit the specific processing power of the underneath architecture. Most current processors are targeted for general pruposes and integrate several processor cores on a single chip, resulting in what is known as a Symmetric Multiprocessing (SMP) unit. Nowadays even desktop computers make use of multicore processors. Meanwhile, the industry trend is to increase the number of integrated rocessor cores as technology matures. On the other hand, Graphics Processor Units (GPU), originally designed to handle only video processing, have emerged as interesting alternatives to implement algorithm acceleration. Current available GPUs are able to implement from 200 to 400 threads for parallel processing. Scientific computing can be implemented in these hardware thanks to the programability of new GPUs that have been denoted as General Processing Graphics Processor Units (GPGPU).However, GPGPU offer little memory with respect to that available for general-prupose processors; thus, the implementation of algorithms need to be addressed carefully. Finally, Field Programmable Gate Arrays (FPGA) are programmable devices which can implement hardware logic with low latency, high parallelism and deep pipelines. Thes devices can be used to implement specific algorithms that need to run at very high speeds. However, their programmability is harder that software approaches and debugging is typically time-consuming. In this context where several alternatives for speeding up algorithms are available, our work aims at determining the main features of thes architectures and developing the required know-how to accelerate algorithm execution on them. We look at identifying those algorithms that may fit better on a given architecture as well as compleme
Resumo:
Stand alone solar powered refrigeration and water desalination, two of the most popular and sought after applications of solar energy systems, have been selected as the topic of research for the works presented in this thesis. The water desalination system based on evaporation and condensation was found to be the most suitable one to be powered by solar energy. It has been established that highoutput fast-response solar heat collectors used to achieve high rates of evaporation and reliable solar powered cooling system for faster rates of condensation are the most important factors in achieving increased outputs in solar powered desalination systems. Comprehensive reviews of Solar powered cooling/refrigeration and also water desalination techniques have been presented. In view of the fact that the Institute of Technology, Sligo has a well-established long history of research and development in the production of state of the art high-efficiency fast-response evacuated solar heat collectors it was decided to use this know how in the work described in this thesis. For this reason achieving high rates of evaporation was not a problem. It was, therefore, the question of the solar powered refrigeration that was envisaged to be used in the solar powered desalination tofacilitate rapid condensation of the evaporated water that had to be addressed first. The principles of various solar powered refrigeration techniques have also been reviewed. The first step in work on solar powered refrigeration was to successfully modify a conventional refrigerator working on Platen-Munters design to be powered by highoutput fast-response evacuated solar heat collectors. In this work, which was the first ever successful attempt in the field, temperatures as low as —19°C were achieved in the icebox. A new approach in the use of photovoltaic technology to power a conventional domestic refrigerator was also attempted. This was done by modifying a conventional domestic refrigerator to be powered by photovoltaic panels in the most efficient way. In the system developed and successfully tested in this approach, the power demand has been reduced phenomenally and it is possible to achieve 48 hours of cooling power with exposure to just 7 hours of sunshine. The successful development of the first ever multi-cycle intermittent solar powered icemaker is without doubt the most exciting breakthrough in the work described in this thesis. Output of 74.3kg of ice per module with total exposure area of 2.88 m2, or 25.73kg per m2, per day is a major improvement in comparison to about 5-6kg of ice per m2 per day reported for all the single cycle intermittent systems. This system has then become the basis for the development of a new solar powered refrigeration system with even higher output, named the “composite” system described in this thesis. Another major breakthrough associated with the works described in this thesis is the successful development and testing of the high-output water desalination system. This system that uses a combination of the high-output fast-response evacuated solar heat collectors and the multi-cycle icemaker. The system is capable of producing a maximum of 141 litres of distilled water per day per module which has an exposure area of 3.24m2, or a production rate of 43.5 litres per m2 per day. Once again when this result is compared to the reported daily output of 5 litres of desalinated water per m per day the significance of this piece of work becomes apparent. In the presentation of many of the components and systems described in this thesis CAD parametric solid modelling has been used instead of photographs to illustrate them more clearly. The multi-cycle icemaker and the high-output desalination systems are the subject of two patent applications.
Resumo:
Today, doctors can be publishers – computer technology and the internet make it possible, and book projects are tempting in terms of money. A doctor who publishes his own textbooks can earn many times what he would be paid in royalties by a publishing house. More important than this, however, is the fact that a doctor who writes and publishes wants his texts to be read by as many colleagues, students and patients as possible. The best way to achieve this is through free parallel publication of these texts on the internet
Resumo:
Der Körnererbsenanbau hat in den letzten Jahren einen drastischen Rückgang erleiden müssen. Die Ursachen hierfür sind sehr weitläufig geprägt. Dennoch stellt der betriebswirtschaftliche Aspekt den wohl wichtigsten Schwerpunkt beim Anbau dieser Kultur. Das heißt, der Anbaurückgang ist hauptsächlich durch eine wesentlich geringere Wirtschaftlichkeit der Körnererbse im Vergleich zu anderen Kulturen begründet. Trotzdem gibt es einige Betriebe, die mit viel Know-how und jahrelangen Anbauerfahrungen mit dieser Kultur gute Erfahrungen im konventionellen Landbau gemacht haben. Zu dieser Sparte gehört auch der Betriebsleiter der Agrarbetrieb Gröbitz GmbH Kurt Enke. Seit einigen Jahren laufen Untersuchungen über die Anbaueignung von Winterformen der Körnererbse. Diese winterharte Kultur könnte für das Unternehmen eine gute Alternative darstellen, da sie einige vielversprechende Vorteile mit sich bringt. In dieser Arbeit soll ein Vergleich zur Ertragsleistung der Sommerformen von Körnererbsen den Winterformen gegenübergestellt werden. Dabei wurden unterschiedliche Aussaatstärken mit 60 Körnern/m² bzw. 80 Körnern/m² analysiert. Zudem wurde hinsichtlich der Produktionstechnik der Blickwinkel auf zwei unterschiedliche Aussaattechniken gerichtet. Die in dem Unternehmen übliche Drillsaat mit einer pneumatischen Drillmaschine Väderstad "Spirit" und einer Arbeitsbreite von 9 m wurde der Einzelkornsaat mit einer 8-reihigen Einzelkornsämaschine Väderstad "Tempo" gegenübergestellt. (...)
Resumo:
In this paper we analyze the existence of spatial autocorrelation at a local level in Catalonia using variables such as urbanisation economies, population density, human capital and firm entries. From a static approach, our results show that spatial autocorrelation is weak and diminishes as the distance between municipalities increases. From a dynamic approach, however, spatial autocorrelation increased over the period we analysed. These results are important from a policy point of view, since it is essential to know how economic activities are spatially concentrated or disseminated. Key words: spatial autocorrelation, municipalities. JEL classification: R110, R120
Resumo:
The Layout of My Thesis This thesis contains three chapters in Industrial Organization that build on the work outlined above. The first two chapters combine leniency programs with multimarket contact and provide a thorough analysis of the potential effects of Amnesty Plus and Penalty Plus. The third chapter puts the whole discussion on leniency programs into perspective by examining other enforcement tools available to an antitrust authority. The main argument in that last chapter is that a specific instrument can only be as effective as the policy in which it is embedded. It is therefore important for an antitrust authority to know how it best accompanies the introduction or modification of a policy instrument that helps deterrence. INTRODUCTION Chapter 1 examines the efféct of Amnesty Plus and Penalty Plus on the incentives of firms to report cartel activities. The main question is whether the inclusion of these policies in a leniency program undermine the effectiveness of the latter by discouraging the firms to apply for amnesty. The model is static and focus on the ex post incentives of firms to desist from collusion. The results suggest that, because Amnesty Plus and Penalty Plus encourage the reporting of a second cartel after a first detection, a firm, anticipating this, may be reluctant to seek leniency and to report in the first place. However, the effect may also go in the opposite direction, and Amnesty Plus and Penalty Plus may encourage the simultaneous reporting of two cartels. Chapter 2 takes this idea further to the stage of cartel formation. This chapter provides a complete characterization of the potential anticompetitive and procompetitive effects of Amnesty Plus in a infinitely repeated game framework when the firms use their multimarket contact to harshen punishment. I suggest a clear-cut policy rule that prevents potential adverse effects and thereby show that, if policy makers follow this rule, a leniency program with Amnesty Plus performs better than one without. Chapter 3 characterizes the socially optimal enforcement effort of an antitrust authority and shows how this effort changes with the introduction or modification of specific policy instruments. The intuition is that the policy instrument may increase the marginal benefit of conducting investigations. If this effect is strong enough, a more rigorous detection policy becomes socially desirable.
Resumo:
Dans la majorité des cas, les diarrhées aiguës sont bénignes et d'évolution spontanément favorable. Il faut cependant savoir reconnaître les situations pouvant mener à des complications, en l'occurrence identifier les diarrhées invasives, inflammatoires, caractérisées par la présence de fièvre, de douleurs abdominales, de ténesmes, de mucus et, ou de sang dans les selles. Celles-ci sont à distinguer des diarrhées sécrétoires, non invasives, non inflammatoires, sans fièvre, généralement aqueuses et volumineuses. En cas de doute diagnostique, l'identification de leucocytes par microscopie ou test à la lactoferrine dans les selles permet d'évoquer une gastroentérite invasive. Les indications à une antibiothérapie empirique dans l'attente du résultat de la coproculture sont la présence d'un syndrome dysentérique (T > 38°C, > 6 selles/24 heures, douleurs abdominales, diarrhées mucopurulentes), l'âge avancé, des comorbidités significatives, une immunosuppression et la présence d'une prothèse endovasculaire. In the majority of the cases, an acute diarrhea is mild and of spontaneously favorable evolution. It is however necessary to know how to recognize the situations being able to lead to complications, in particular to identify the invasive, inflammatory diarrheas, characterized by the presence of fever, abdominal pains, mucus and\or blood. The identification of leukocytes by microscopy or lactoferrine test is helpful. Empiric quinolones treatment is recommended in the presence of dysenteric syndrome (T > 38 degrees C, > 6 stods/24 h 00, abdominal pain muco-purulent diarrhea), advanced age, significant comorbidities, immunosuppression or presence of an endovascular prothesis
Resumo:
RESUM Les exigències actuals de la professió de d’infermeria requereixen que la docència vagi orientada a interrelacionar els diferents rols a desenvolupar enla pràctica diària, per adquirir experiència en l’aprenentatge i així augmentar la qualitat de les cures d’infermeria. Per assolir aquest objectiu és important l’aprenentatge basat enproblemes. Aquest pretén en primer lloc que els estudiants aprenguin allò que permet desenvolupar-se enla vida professional de la manera més natural possible a partir d’una idea clara i profunda de l’evidència sobre la que s’ha d’actuar. Amb aquesta finalitat es vandissenyar casos clínics amb uns objectius que requerien la integració de coneixements, actituds i valors, en diferents fases a desenvolupar en un període de temps predeterminat. També ens vam proposar una estratègia docent que permetés a l’estudiant incorporar el coneixement científic que dóna suport a la pràctica assistencial per aproximar teoria i pràctica. Es pretén que els estudiants busquin una resposta basada en la millor evidència científica disponible, per prendre una decisió respecte a les cures del pacient. Els objectius de l’estudi són: Avaluar globalment l’aprenentatge basat en la simulació de casos Avaluar com els estudiants valoren la integració del model d’infermeria i del procés d’atenció en l’aprenentatge basat en la simulació de casos. Valorar les sensacions percebudes per l’estudiant durant la simulació del cas. Valorar l’actitud d el’estudiant en relació a la incorporació de l’evidència científica per una millora en la pràctica clínica. Avaluar el grau de dificultat manifestat per l’estudiant en relació al procés de documentació. Avaluar la idonietat de l’argumentació i la decisió de l’estudiant a la pregunta formulada en el cas clínic. Metodologia: L’assignatura d’Infermeria Medicoquirúrgica. Adult I del Departament d’Infermeria de la Universitat de Vic, va iniciar una experiència d’aprenentatge basat en la resolució de problemes, amb estudiants de 2on curs. Les professores responsables dels seminaris van realitzar una avaluació de l’experiència a través d’una enquesta. Aquesta es responia al cap d’un mes de la simulació al laboratori, quan es contrastaven els resultats obtinguts en aquesta entre professores i estudiants després de visualitzar la gravació feta durant el mateix. En el context del seminari de simulació de casos, es va introduir una pregunta/problema, a partir de la que els estudiants, en grup, havien de documentar-se amb el suport d’una guia. Per valorar l’actitud davant aquesta pregunta/problema es va dissenyar un qustionari tipus Likert. L’avaluació del grau de dificultat s’ha registrat a través d’unes escales de puntuació. Per a l’avaluació de la decisió presa, es van valorar les síntesis resum entregades en els treballs escrits pels diferents grups. Resultats: La realització de la simulació en el laboratori va ser avaluada per un alt percentatge d’estudiants (68,8%) amb puntuacions entre 6 i 8 mentre que un 26,6% la van situar en tre 9 i 10, només un 4,7 % la van puntuar amb 5. La integració del model d’infermeria va ser valorada pel 86% amb una puntuació entre 7 i 10. La valoració global de la simulació va ser qualificada pels estudiants amb una puntuació de 8 (34,4%) seguida d’un 28,1% amb una consideració de 7. Un 7,2% van puntuar entre 9 i 10. El 93,3% van assegurar que conèixer les fonts documentals els serviria per millorar l’assistència, el 86,7% esperen obtenir arguments sòlids respecte les seves desicions si la documentació consultada és de qualitat. Un 77,8% dels estudiants consideren estar més satisfets al saber incorporar la presa de decisions basada en evidències. Respecte el grau de dificultat en el procés de documentació la dificultat més gran la presenten en com buscar en les bases de dades de referències bibliogràfiques. Conclusions: L’aprenentatge dels estudiants a través de la simulació de casos és una estratègia vàlida que l’estudiant valora positivament al mateix temps que permet desenvolupar habilitats per a la pràctica professional. L’estratègia docent dissenyada per integrar les evidències en la presa de decisions es considera positiva, no obstant, després d’analitzar els resultats, s’han de modificar alguns aspectes per a la seva millora; tutoritzar per a millorar el procés de documentació i incidir més en la crítica i reflexió, de manera que les troballes de la investigació siguin canalitzades cap a la pràctica.
Resumo:
Résumé La mondialisation des marchés, les mutations du contexte économique et enfin l'impact des nouvelles technologies de l'information ont obligé les entreprises à revoir la façon dont elles gèrent leurs capitaux intellectuel (gestion des connaissances) et humain (gestion des compétences). II est communément admis aujourd'hui que ceux-ci jouent un rôle particulièrement stratégique dans l'organisation. L'entreprise désireuse de se lancer dans une politique gestion de ces capitaux devra faire face à différents problèmes. En effet, afin de gérer ces connaissances et ces compétences, un long processus de capitalisation doit être réalisé. Celui-ci doit passer par différentes étapes comme l'identification, l'extraction et la représentation des connaissances et des compétences. Pour cela, il existe différentes méthodes de gestion des connaissances et des compétences comme MASK, CommonKADS, KOD... Malheureusement, ces différentes méthodes sont très lourdes à mettre en oeuvre, et se cantonnent à certains types de connaissances et sont, par conséquent, plus limitées dans les fonctionnalités qu'elles peuvent offrir. Enfin, la gestion des compétences et la gestion des connaissances sont deux domaines dissociés alors qu'il serait intéressant d'unifier ces deux approches en une seule. En effet, les compétences sont très proches des connaissances comme le souligne la définition de la compétence qui suit : « un ensemble de connaissances en action dans un contexte donné ». Par conséquent, nous avons choisi d'appuyer notre proposition sur le concept de compétence. En effet, la compétence est parmi les connaissances de l'entreprise l'une des plus cruciales, en particulier pour éviter la perte de savoir-faire ou pour pouvoir prévenir les besoins futurs de l'entreprise, car derrière les compétences des collaborateurs, se trouve l'efficacité de l'organisation. De plus, il est possible de décrire grâce à la compétence de nombreux autres concepts de l'organisation, comme les métiers, les missions, les projets, les formations... Malheureusement, il n'existe pas réellement de consensus sur la définition de la compétence. D'ailleurs, les différentes définitions existantes, même si elles sont pleinement satisfaisantes pour les experts, ne permettent pas de réaliser un système opérationnel. Dans notre approche; nous abordons la gestion des compétences à l'aide d'une méthode de gestion des connaissances. En effet, de par leur nature même, connaissance et compétence sont intimement liées et donc une telle méthode est parfaitement adaptée à la gestion des compétences. Afin de pouvoir exploiter ces connaissances et ces compétences nous avons dû, dans un premier temps, définir les concepts organisationnels de façon claire et computationnelle. Sur cette base, nous proposons une méthodologie de construction des différents référentiels d'entreprise (référentiel de compétences, des missions, des métiers...). Pour modéliser ces différents référentiels, nous avons choisi l'ontologie, car elle permet d'obtenir des définitions cohérentes et consensuelles aux concepts tout en supportant les diversités langagières. Ensuite, nous cartographions les connaissances de l'entreprise (formations, missions, métiers...) sur ces différentes ontologies afin de pouvoir les exploiter et les diffuser. Notre approche de la gestion des connaissances et de la gestion des compétences a permis la réalisation d'un outil offrant de nombreuses fonctionnalités comme la gestion des aires de mobilités, l'analyse stratégique, les annuaires ou encore la gestion des CV. Abstract The globalization of markets, the easing of economical regulation and finally the impact of new information and communication technologies have obliged firms to re-examine the way they manage their knowledge capital (knowledge management) and their human capital (competence management). It is commonly admitted that knowledge plays a slightly strategical role in the organization. The firms who want to establish one politic of management of these capitals will have to face with different problems. To manage that knowledge, a long process of capitalization must be done. That one has different steps like identification, extraction and representation of knowledge and competences. There are some different methods of knowledge management like MASK, CommonKADS or KOD. Unfortunately, those methods are very difficult to implement and are using only some types of knowledge and are consequently more limited in the functionalities they can offer. Knowledge management and competence management are two different domain where it could be interesting to unify those to one. Indeed, competence is very close than knowledge as underline this definition: "a set of knowledge in action in a specified context". We choose in our approach to rely on the concept of competence. Indeed, the competence is one of crucial knowledge in the company, particularly to avoid the loss of know-how or to prevent future needs. Because behind collaborator's competence, we can find company efficiency. Unfortunately, there is no real consensus on the definition of the concept of competence. Moreover, existing different definitions don't permit to develop an operational system. Among other key concept, we can find jobs, mission, project, and training... Moreover, we approach different problems of the competence management under the angle of the knowledge management. Indeed, knowledge and competence are closely linked. Then, we propose a method to build different company repositories (competence, jobs, projects repositories). To model those different repositories we choose ontology because it permits to obtain coherent and consensual definitions of the concepts with support of linguistics diversities too. This building repositories method coupled with this knowledge and competence management approach permitted the realization of a tool offering functionalities like mobility management, strategical analysis, yellow pages or CV management.