1000 resultados para Diseño conceptual de bases de datos


Relevância:

100.00% 100.00%

Publicador:

Resumo:

El presente estudio describe una aproximación al análisis y visualización de la investigación sobre inequidades en salud durante los años 1999-2008, mediante la comparación de la producción científica disponible en LILACS y MEDLINE. Se realiza una investigación bibliométrica con diseño descriptivo, cuyos objetivos son: analizar el volumen y la evolución de la producción científica latinoamericana y mundial; identificar la distribución de la producción por país; explorar la evolución de las redes de colaboración científica e identificar cambios en los patrones; analizar la distribución de las instituciones productoras; distinguir las vertientes de publicación y presencia relativa en revistas; comparar la distribución de la producción por áreas temáticas de investigación en determinantes de salud. Para la manipulación de los datos se utiliza CISIS 10/60, herramientas orientadas al análisis como Bibexcel y planillas de cálculo, para la representación gráfica se utiliza Many Eyes de IBM. En este marco, mediante la medición y el análisis de la evidencia disponible a través de las publicaciones, se espera contribuir al conocimiento de la situación y tendencias de la investigación en inequidades en salud, como también propiciar al desarrollo de una cultura de utilización de los indicadores bibliométricos como instrumentos de diagnóstico y prospección en el área de salud como elementos para la acción en busca de una mayor equidad.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En los estudios métricos de la información se utilizan diversas fuentes de datos, sin embargo hay una preferencia, que se constata en la literatura, por las bases de datos internacionales, en particular aquellas que informan sobre referencias y citas. Conocidos son los sesgos de estas fuentes, y también su gran utilidad para estudiar la porción de la investigación científica que tiene mayor visibilidad internacional. Desde inicios del siglo XXI en EE.UU. algunos autores comienzan a utilizar el currículum vitae (CV) como una fuente alternativa para abordar de manera transversal la carrera de los investigadores, particularmente algunos aspectos de éstas no reportados en otras fuentes. El objetivo de esta contribución es caracterizar el CV disponible a través del Sistema CVuy, heredero del CVLattes de Brasil y adaptado para Uruguay. El CVuy es el instrumento de evaluación considerado para definir el ingreso y la categorización de un investigador al Sistema Nacional de Investigadores de la Agencia Nacional de Investigación e Innovación. Se describen las ventajas y limitaciones encontradas a partir de su utilización como fuente de datos en investigaciones en curso, y se contrastan con la literatura

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La interoperabilidad entre distintos sistemas de organización del conocimiento (SOC) ha cobrado gran importancia en los últimos tiempos, con el propósito de facilitar la búsqueda simultánea en varias bases de datos o fusionar distintas bases de datos en una sola. Las nuevas normas para el diseño y desarrollo de SOC, la estadounidense Z39.19:2005 y la británica BS 8723-4:2007, incluyen recomendaciones detalladas para la interoperabilidad. También se encuentra en preparación una nueva norma ISO 25964-1 sobre tesauros e interoperabilidad que se agregará a las anteriores. La tecnología disponible proporciona herramientas para este fin, como son los formatos y requisitos funcionales de autoridades y las herramientas de la Web Semántica RDF/OWL, SKOS Core y XML. Actualmente es difícil diseñar y desarrollar nuevos SOC debido a los problemas económicos, de modo que la interoperabilidad hace posible aprovechar los SOC existentes. En este trabajo se revisan los conceptos, modelos y métodos recomendados por las normas, así como numerosas experiencias de interoperabilidad entre SOC que han sido documentadas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El trabajo inicia con un análisis de las obras de ficción y su tratamiento tanto para la ubicación en el estante como para su inclusión en un OPAC, evaluándose propuestas internacionales y locales implementadas en bibliotecas públicas y populares, e incluyendo a continuación una propuesta metodológica para la descripción de contenido de las obras de ficción en catálogos en línea. También se señalan los pasos seguidos para la elaboración de un tesauro de géneros de ficción, desde el diseño de la base de datos hasta la recolección, selección y control de los términos de indización y la asignación de notaciones de CDU a cada una de las entradas. El tesauro puede consultarse en su versión impresa en el Anexo de la Tesina, o bien en formato digital accediendo al CD-ROM que acompaña al documento.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En los estudios métricos de la información se utilizan diversas fuentes de datos, sin embargo hay una preferencia, que se constata en la literatura, por las bases de datos internacionales, en particular aquellas que informan sobre referencias y citas. Conocidos son los sesgos de estas fuentes, y también su gran utilidad para estudiar la porción de la investigación científica que tiene mayor visibilidad internacional. Desde inicios del siglo XXI en EE.UU. algunos autores comienzan a utilizar el currículum vitae (CV) como una fuente alternativa para abordar de manera transversal la carrera de los investigadores, particularmente algunos aspectos de éstas no reportados en otras fuentes. El objetivo de esta contribución es caracterizar el CV disponible a través del Sistema CVuy, heredero del CVLattes de Brasil y adaptado para Uruguay. El CVuy es el instrumento de evaluación considerado para definir el ingreso y la categorización de un investigador al Sistema Nacional de Investigadores de la Agencia Nacional de Investigación e Innovación. Se describen las ventajas y limitaciones encontradas a partir de su utilización como fuente de datos en investigaciones en curso, y se contrastan con la literatura

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La interoperabilidad entre distintos sistemas de organización del conocimiento (SOC) ha cobrado gran importancia en los últimos tiempos, con el propósito de facilitar la búsqueda simultánea en varias bases de datos o fusionar distintas bases de datos en una sola. Las nuevas normas para el diseño y desarrollo de SOC, la estadounidense Z39.19:2005 y la británica BS 8723-4:2007, incluyen recomendaciones detalladas para la interoperabilidad. También se encuentra en preparación una nueva norma ISO 25964-1 sobre tesauros e interoperabilidad que se agregará a las anteriores. La tecnología disponible proporciona herramientas para este fin, como son los formatos y requisitos funcionales de autoridades y las herramientas de la Web Semántica RDF/OWL, SKOS Core y XML. Actualmente es difícil diseñar y desarrollar nuevos SOC debido a los problemas económicos, de modo que la interoperabilidad hace posible aprovechar los SOC existentes. En este trabajo se revisan los conceptos, modelos y métodos recomendados por las normas, así como numerosas experiencias de interoperabilidad entre SOC que han sido documentadas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El presente estudio describe una aproximación al análisis y visualización de la investigación sobre inequidades en salud durante los años 1999-2008, mediante la comparación de la producción científica disponible en LILACS y MEDLINE. Se realiza una investigación bibliométrica con diseño descriptivo, cuyos objetivos son: analizar el volumen y la evolución de la producción científica latinoamericana y mundial; identificar la distribución de la producción por país; explorar la evolución de las redes de colaboración científica e identificar cambios en los patrones; analizar la distribución de las instituciones productoras; distinguir las vertientes de publicación y presencia relativa en revistas; comparar la distribución de la producción por áreas temáticas de investigación en determinantes de salud. Para la manipulación de los datos se utiliza CISIS 10/60, herramientas orientadas al análisis como Bibexcel y planillas de cálculo, para la representación gráfica se utiliza Many Eyes de IBM. En este marco, mediante la medición y el análisis de la evidencia disponible a través de las publicaciones, se espera contribuir al conocimiento de la situación y tendencias de la investigación en inequidades en salud, como también propiciar al desarrollo de una cultura de utilización de los indicadores bibliométricos como instrumentos de diagnóstico y prospección en el área de salud como elementos para la acción en busca de una mayor equidad.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La computación molecular es una disciplina que se ocupa del diseño e implementación de dispositivos para el procesamiento de información sobre un sustrato biológico, como el ácido desoxirribonucleico (ADN), el ácido ribonucleico (ARN) o las proteínas. Desde que Watson y Crick descubrieron en los años cincuenta la estructura molecular del ADN en forma de doble hélice, se desencadenaron otros descubrimientos como las enzimas que cortan el ADN o la reacción en cadena de la polimerasa (PCR), contribuyendo más que signi�cativamente a la irrupción de la tecnología del ADN recombinante. Gracias a esta tecnología y al descenso vertiginoso de los precios de secuenciación y síntesis del ADN, la computación biomolecular pudo abandonar su concepción puramente teórica. En 1994, Leonard Adleman logró resolver un problema de computación NP-completo (El Problema del Camino de Hamilton Dirigido) utilizando únicamente moléculas de ADN. La gran capacidad de procesamiento en paralelo ofrecida por las técnicas del ADN recombinante permitió a Adleman ser capaz de resolver dicho problema en tiempo polinómico, aunque a costa de un consumo exponencial de moléculas de ADN. Utilizando algoritmos similares al de �fuerza bruta� utilizado por Adleman se logró resolver otros problemas NP-completos (por ejemplo, el de Satisfacibilidad de Fórmulas Lógicas / SAT). Pronto se comprendió que la computación con biomolecular no podía competir en velocidad ni precisión con los ordenadores de silicio, por lo que su enfoque y objetivos se centraron en la resolución de problemas biológicos con aplicación biomédica, dejando de lado la resolución de problemas clásicos de computación. Desde entonces se han propuesto diversos modelos de dispositivos biomoleculares que, de forma autónoma (sin necesidad de un bio-ingeniero realizando operaciones de laboratorio), son capaces de procesar como entrada un sustrato biológico y proporcionar una salida también en formato biológico: procesadores que aprovechan la extensión de la Polimerasa, autómatas que funcionan con enzimas de restricción o con deoxiribozimas, circuitos de hibridación competitiva. Esta tesis presenta un conjunto de modelos de dispositivos de ácidos nucleicos escalables, sensibles al tiempo y energéticamente e�cientes, capaces de implementar diversas operaciones de computación lógica aprovechando el fenómeno de la hibridación competitiva del ADN. La capacidad implícita de estos dispositivos para aplicar reglas de inferencia como modus ponens, modus tollens, resolución o el silogismo hipotético tiene un gran potencial. Entre otras funciones, permiten representar implicaciones lógicas (o reglas del tipo SI/ENTONCES), como por ejemplo, �si se da el síntoma 1 y el síntoma 2, entonces estamos ante la enfermedad A�, o �si estamos ante la enfermedad B, entonces deben manifestarse los síntomas 2 y 3�. Utilizando estos módulos lógicos como bloques básicos de construcción, se pretende desarrollar sistemas in vitro basados en sensores de ADN, capaces de trabajar de manera conjunta para detectar un conjunto de síntomas de entrada y producir un diagnóstico de salida. La reciente publicación en la revista Science de un autómata biomolecular de diagnóstico, capaz de tratar las células cancerígenas sin afectar a las células sanas, es un buen ejemplo de la relevancia cientí�ca que este tipo de autómatas tienen en la actualidad. Además de las recién mencionadas aplicaciones en el diagnóstico in vitro, los modelos presentados también tienen utilidad en el diseño de biosensores inteligentes y la construcción de bases de datos con registros en formato biomolecular que faciliten el análisis genómico. El estudio sobre el estado de la cuestión en computación biomolecular que se presenta en esta tesis está basado en un artículo recientemente publicado en la revista Current Bioinformatics. Los nuevos dispositivos presentados en la tesis forman parte de una solicitud de patente de la que la UPM es titular, y han sido presentados en congresos internacionales como Unconventional Computation 2010 en Tokio o Synthetic Biology 2010 en París.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Los polímeros armados con fibras (FRP) se utilizan en refuerzos de estructuras de hormigón debido sobre todo a sus excelentes propiedades mecánicas, su resistencia a la corrosión y a su ligereza que se traduce en facilidad y ahorro en el transporte, puesta en obra y aplicación, la cual se realiza de forma muy rápida, con pocos operarios y utilizando medios auxiliares ligeros, minimizándose las interrupciones del uso de la estructura y las molestias a los usuarios. Las razones presentadas anteriormente, han despertado un gran inter´es por parte de diferentes grupos de investigación a nivel mundial y que actualmente se encuentran desarrollando nuevas técnicas de aplicación y métodos de cálculo. Sin embargo, las investigaciones realizadas hasta la fecha, muestran un procedimiento bien definido y aceptado en lo referente al cálculo a flexión, lo cual no ocurre con el refuerzo a cortante y aunque se ha demostrado que el refuerzo con FRP es un sistema eficaz para incrementar la capacidad ´ultima frente a esfuerzos cortantes, también se pone de manifiesto la necesidad de más estudios experimentales y teóricos para avanzar en el entendimiento de los mecanismos involucrados para este tipo de refuerzo y establecer un procedimiento de diseño apropiado que maximice las excelentes propiedades de este material. Los modelos que explican el comportamiento del refuerzo a cortante de elementos de hormigón armado son complejos y sin transposición directa a fórmulas ingenieriles. Las normas actualmente en vigor, generalmente, establecen empíricamente la capacidad cortante como la suma de las capacidades del hormigón y el refuerzo transversal de acero. Cuando un elemento es reforzado externamente con FRP, los modelos son evidentemente aun más complejos. Las guías y recomendaciones existentes proponen calcular la capacidad del elemento añadiendo la resistencia aportada por el refuerzo externo de FRP a la ya dada por el hormigón y acero transversal. Sin embargo, la idoneidad de este acercamiento es cuestionable puesto que no tiene en cuenta una posible interacción entre refuerzos. Con base en lo anterior se da origen al tema objeto de este trabajo, el cual está orientado al estudio a cortante de elementos de hormigón armado (HA), reforzados externamente con material compuesto de tejido unidireccional de fibra de carbono y resina epoxi. Inicialmente se hace una completa revisión del estado actual del conocimiento de la resistencia a cortante en elementos de hormigón armado con y sin refuerzo externo de FRP, prestando especial atención en los mecanismos actuantes estudiados hasta la fecha. La bibliografía consultada ha sido exhaustiva y actualizada lo que ha permitido el estudio de los modelos propuestos más importantes, tanto para la descripción del fenómeno de adherencia entre hormigón-FRP como de la valoración del aporte al cortante total hecho por el FRP, a través de sendas bases de datos de ensayos de pull-out y de vigas de hormigón armado ensayadas a cortante. Con base en todo lo anterior, se expusieron los mecanismos actuantes en el aporte a cortante hecho por el FRP en elementos de hormigón armado y la forma como las principales guías de cálculo existentes hasta la fecha los abordan. De igual forma se define un modelo de resistencia de esfuerzos para el FRP y se proponen dos modelos para el cálculo de las tensiones o deformaciones efectivas, de los cuales uno esta basado en el modelo de adherencia propuesto por Oller (2005) y el otro en una regresión multivariante para los mecanismos expuestos. Como complemento del estudio de los trabajos encontrados en la literatura, se lleva acabo un programa experimental que, además de aportar más registros a la exigua base de datos existentes, aporte mayor luz a los puntos que se consideran están deficientemente resueltos. Dentro de este programa se realizaron 32 ensayos sobre 16 vigas de 4.5 m de longitud (dos ensayos por viga), reforzadas a cortante con tejido unidireccional de CFRP. Finalmente, estos estudios han permitido proponer modificaciones a las formulaciones existentes en los códigos y guías en vigor. Abstract Its excellent mechanical properties, as well as its corrosion resistance and light weight, which make it easy to apply and inexpensive to ship to the worksite, are the basis of the extended use of fiber reinforced polymer (FRP) as external strengthening for structures. FRP strengthening is a rapid operation calling for only limited labor and lightweight ancillary equipment, all of which minimizes both the interruption of facility usage and user inconvenience. These advantages have aroused considerable interest in civil engineering science and technology and have led to countless applications the world over. Research studies on the shear strength of FRP-strengthened members have been much fewer in number and more controversial than the research on flexural strengthening, for which a more or less standardized and generally accepted procedure has been established. The research conducted and a host of applications around the world have shown that FRP strengthening is an effective technique for raising ultimate shear strength, but it has also revealed a need for further experimental and theoretical research to advance in the understanding of the mechanisms involved and establish suitable design procedures that optimize the excellent properties of this material The models that explain reinforced concrete (RC) shear strength behavior are complex and cannot be directly transposed to engineering formulas. The standards presently in place generally establish shear capacity empirically as the sum of the capacities of the concrete and the passive reinforcement. When members are externally strengthened with FRP, the models are obviously even more complex. The existing guides and recommendations propose calculating capacity by adding the external strength provided by the FRP to the contributions of the concrete and passive reinforcement. The suitability of this approach is questionable, however, because it fails to consider the interaction between passive reinforcement and external strengthening. The subject of this work is based in above, which is focused on externally shear strengthening for reinforced concrete members with unidirectional carbon fiber sheets bonded with epoxy resin. v Initially a thorough literature review on shear of reinforced concrete beams with and without external FRP strengthening was performed, paying special attention to the acting mechanisms studied to date, which allowed the study of the most important models both to describe the bond phenomenon as well as calculating the FRP shear contribution, through separate databases of pull-out tests and shear tests on reinforced concrete beams externally strengthened with FRP. Based on above, they were exposed the acting mechanisms in a FRP shear strengthening on reinforced concrete beams and how guidelines deal the topic. The same way, it is defined a FRP stress strength model and two more models are proposed for calculating the effective stress, one of these is based on the Oller (2005) bond model and another one is the data best fit, taking into account most of the acting mechanisms. To complement the theoretical part we develop an experimental program that, in addition to providing more records to the meager existing database provide greater understanding to the points considered poorly resolved. The test program included 32 tests of 16 beams (2 per beam) of 4.5 m long, shear strengthened with FRP, externally. Finally, modifications to the existing codes and guidelines are proposed.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Una alta productividad en Ingeniería está asociada entre otras cosas a una gestión eficiente del flujo de las enormes cantidades de información y correspondientes tomas de decisiones consubstanciales a los entornos de diseño y producción. Ello exige que nuestros titulados estén formados para ser capaces de manejar esa información de modo integrado, a través de los diferentes estadios en que se genera y procesa. En el contexto de la enseñanza de la Ingeniería existen un buen número de cursos designados a desarrollar competencias específicas, como las requeridas en los currículos académicos, pero muy pocos en los cuales las competencias de integración sean el objetivo principal. En este artículo se documenta una asignatura que tiene esa orientación, con la intención de alimentar el debate sobre la formación, tan necesario en tiempos de fuerte contracción de la actividad económica como el que vivimos en la actualidad y que está promoviendo el COIN. La asignatura se denomina “Tecnologías de la Información Aplicadas a la Construcción Naval” y es impartida en la titulación de Ingeniero Naval y Oceánico, plan 2002, de la Universidad Politécnica de Madrid (UPM). La primera parte de la asignatura está dedicada a la planificación y gestión de proyectos; los estudiantes adquieren competencias en la definición, usando Ms-PROJECT, de la estructura de descomposición de tareas y la asignación de recursos así como en el seguimiento de proyectos, a través de una serie de ejemplos de complejidad creciente, finalizando con la construcción de un buque. La segunda parte está dedicada al uso de un gestor de bases de datos, Ms-ACCESS, y orientada a la gestión de la información relativa a Producción. Otra vez la estrategia pasa por trabajar sobre una serie de ejemplos de complejidad creciente y se finaliza con la administración de una base de datos de tuberías de un buque, para las cuales se establecen hitos de producción, recepción y montaje, lo que conecta está parte con la primera. Finalmente, la tercera parte de la asignatura está dedicada al trabajo con FORAN, con el cual se definen con detalle los elementos estructurales de todo el buque sobre el que se ha elaborado la planificación. En esta parte, el trabajo es cooperativo, dado que los estudiantes operan simultáneamente en el mismo modelo 3D. Las clases se realizan en un aula multimedia en la cual cada estudiante puede utilizar todas las aplicaciones de software tratadas. Se han realizado encuestas a los estudiantes para obtener una retroalimentación desde su experiencia así como para hacer una valoración de su satisfacción con el proceso de aprendizaje. Los resultados de esas encuestas son discutidos en el artículo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Se presenta un nuevo método de diseño conceptual en Ingeniería Aeronáutica basado el uso de modelos reducidos, también llamados modelos sustitutos (‘surrogates’). Los ingredientes de la función objetivo se calculan para cada indiviudo mediante la utilización de modelos sustitutos asociados a las distintas disciplinas técnicas que se construyen mediante definiciones de descomposición en valores singulares de alto orden (HOSVD) e interpolaciones unidimensionales. Estos modelos sustitutos se obtienen a partir de un número limitado de cálculos CFD. Los modelos sustitutos pueden combinarse, bien con un método de optimización global de tipo algoritmo genético, o con un método local de tipo gradiente. El método resultate es flexible a la par que mucho más eficiente, computacionalmente hablando, que los modelos convencionales basados en el cálculo directo de la función objetivo, especialmente si aparecen un gran número de parámetros de diseño y/o de modelado. El método se ilustra considerando una versión simplificada del diseño conceptual de un avión. Abstract An optimization method for conceptual design in Aeronautics is presented that is based on the use of surrogate models. The various ingredients in the target function are calculated for each individual using surrogates of the associated technical disciplines that are constructed via high order singular value decomposition and one dimensional interpolation. These surrogates result from a limited number of CFD calculated snapshots. The surrogates are combined with an optimization method, which can be either a global optimization method such as a genetic algorithm or a local optimization method, such as a gradient-like method. The resulting method is both flexible and much more computationally efficient than the conventional method based on direct calculation of the target function, especially if a large number of free design parameters and/or tunablemodeling parameters are present. The method is illustrated considering a simplified version of the conceptual design of an aircraft empennage.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En la actualidad, las personas infectadas por el VIH con acceso a tratamiento retrasan indefinidamente su entrada en la fase SIDA de la enfermedad, convirtiéndose en pacientes crónicos. Un mayor conocimiento del comportamiento del virus y de cómo afecta a las personas infectadas podría conducirnos a optimizar el tratamiento y con ello mejorar la calidad de vida de los pacientes. En este contexto aparece la minería de datos, un conjunto de metodologías que, aplicadas a grandes bases de datos, nos permiten obtener información novedosa y potencialmente útil oculta en ellas. Este trabajo de investigación realiza una primera aproximación al problema mediante la búsqueda de asociaciones en una base de datos en la que se registran las historias clínicas electrónicas de personas infectadas que son tratadas en el Hospital Clínic de Barcelona.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La mejora en la eficiencia energética y la reducción de la tasa de fallos en los contactos lubricados son aspectos que resultan de gran interés en numerosos sectores de la industria, y plantean en estos momentos nuevas dificultades operativas y retos para un futuro próximo. Los avances tecnológicos han incrementado las exigencias técnicas que se requieren a los aceites para cumplir su función al extender sus variables operativas a un mayor espectro de aplicaciones, tanto de condiciones de funcionamiento como a la gran variedad de nuevos materiales constitutivos de los engranajes en los que se tiene que utilizar. Por ello, actualmente se está incentivado el desarrollo de nuevos procedimientos que permitan comprender el comportamiento de este tipo de contactos lubricados, con el fin de lograr mejoras técnicas en su diseño y la correcta selección del aceite. En esta Tesis Doctoral se presenta una metodología de cálculo numérico que permite simular el comportamiento de contactos elastohidrodinámicos (EHD) puntuales, como puede ser el caso de un rodamiento. La resolución de este problema presenta diversas complejidades matemáticas y exige el desarrollo de un elaborado procedimiento de cálculo basado en técnicas multinivel. Para hacer del procedimiento una herramienta válida en un gran número de condiciones de funcionamiento y tipos de lubricantes, se ha tenido en cuenta en el cálculo la posible aparición de comportamientos no-Newtonianos del lubricante y fenómenos de generación y disipación de calor, provocados por el movimiento relativo del fluido y las superficies en contacto. Para la validación del procedimiento, se han contrastado los resultados numéricos obtenidos con nuestro método, con los resultados numéricos y experimentales publicados por otros autores y con valores experimentales propios medidos en un equipo de ensayo de contacto puntual tipo MTM. El desarrollo de este programa ha dotado a la División de Ingeniería de Máquinas de una herramienta que ha permitido, y sobre todo va permitir, evaluar la importancia de cada uno de los parámetros reológicos en los diferentes problemas que va a tener que abordar, evaluación que hasta el momento se realizaba con métodos aproximados que describen la fenomenología con mucha menos precisión. A la hora de emplear nuestro procedimiento numérico para simular situaciones reales, nos hemos encontrado con el obstáculo de que es muy complicado encontrar, en la bibliografía y bases de datos, los parámetros que caracterizan el comportamiento reológico del lubricante en las condiciones de presión, temperatura y grado de cizallamiento habituales en las que se trabaja en este tipo de contactos, y las pocas medidas que existen para estas condiciones de funcionamiento son poco fiables. Por ello como complemento al objetivo principal de esta Tesis hemos desarrollado una metodología para caracterizar los lubricantes en estas condiciones extremas. Dicha metodología está basada en la buena descripción que hace nuestro programa del coeficiente de fricción, lo que nos ha permitido obtener los parámetros reológicos del III lubricante a partir de las medidas experimentales del coeficiente de fricción generado en un equipo MTM lubricado con el lubricante que se desea caracterizar. Madrid, Octubre de 2012 IV Improving energy efficiency and reducing the failure rate in lubricated contacts are issues that are of great interest in many sectors of industry, and right now posed operational difficulties and new challenges for the near future. Technological advances have increased the technical demands required to oils to fulfil its role by extending its operational variables to a wider range of applications, both operating conditions and to the wide variety of new materials which constitute the gear in which must be used. For this reason, has being encouraged currently to develop new procedures to understand the behaviour of this type of lubricated contacts, in order to achieve improvements in design techniques and the correct oil selection. In this Thesis we present a numerical methodology to simulate the puntual elastohydrodynamic contact behaviour (EHD), such as a roller bearing. The resolution of this problem presents various mathematical complexities and requires the development of an elaborate calculation procedure based on multilevel techniques. To make the procedure a valid tool in a wide range of operating conditions and types of lubricants, has been taken into account in calculating the possible occurrence of non-Newtonian behaviour of the lubricant and phenomena of generation and dissipation of heat, caused by the fluid relative motion and contacting surfaces. For the validation of the method, we have compared the numerical results obtained with our method with numerical and experimental results published by other authors also with own experimental values measured on point-contact test equipment MTM. The development of this program has provided the Machines Engineering Division of a tool that has allowed, and especially will allow to evaluate the importance of each of the rheological parameters on the various problems that will have to be addressed, evaluation performed hitherto described methods that phenomenology approximated with much less accuracy. When using our numerical procedure to simulate real situations we have encountered the obstacle that is very difficult to find, in the literature and database, parameters characterizing the rheological behaviour of the lubricant in the usual conditions of pressure, temperature and shear rate in which you work in this type of contact, and the few measures that exist for these operating conditions are unreliable. Thus in addition to the main objective of this thesis, we have developed a methodology to characterize the lubricants in these extreme conditions. This methodology is based on the good description, which makes our program, of the coefficient of friction, that allowed us to obtain the lubricant rheological parameters from experimental measurements of the friction coefficient generated on lubricated MTM equipment with the lubricant to be characterized.