956 resultados para Aplicaciones de las computadoras
Resumo:
Doctorado en Economía: Aplicaciones a las finanzas y seguros, a la economía sectorial, al medio ambiente y a las infraestructuras.
Resumo:
Doctorado en Economía: Aplicaciones a las finanzas y seguros, a la economía sectorial, al medio ambiente y a las infraestructuras.
Resumo:
Programa de doctorado "Economía: aplicaciones a las finanzas y seguros, a la economía sectorial, al medio ambiente, y a las infraestructuras"
Resumo:
Programa de doctorado: Economía: aplicaciones a las finanzas y seguros, a la economía sectorial, al medio ambiente y a las infraestructuras
Resumo:
En el presente trabajo he procurado hacer intervenir en el debate a destacados pensadores del campo de la Informática y de las Ciencias Sociales. Pues estoy convencido que las realidades sociales serán profundamente alteradas por la emergencia y creciente difusión de la informática a través de su criatura: los autómatas. Me pareció razonable comenzar el tema por la vertiente humanística, la discusión de las relaciones "hombre-autómatas"; considerando la disyuntiva: 1) confrontación hombre- máquina ó 2) la asociación hombre-máquina. Aunque los temas están apenas esbozados puede vislumbrarse la vieja polémica sobre que el humanismo vuelve a ponerse de moda, esta vez frente a una criatura que, surgida de la mente y los sueños del hombre podría -como Edipo- eliminar a su propio padre. De todos modos, la inteligencia artificial que los autómatas han alcanzado reabre la herida del juicio acerca de nuestra propia condición humana. La revolución de los autómatas y de la informática (disciplina que nace con ellos) no se agota sin embargo en el problema del humanismo. Afecta a la sociedad misma en sus estructuras más profundas ya que aparece un nuevo actor con pretensiones hegemónicas, que algunos autores califican como la “máquina verdadera" y otros como la "'Inteligencia Verdadera". Creo que el tema esencial pasa por la nueva asignación de roles sociales que la aparición de los autómatas impone a todo nuestro orden social. Pero sería muy incompleto el panorama -problemático, sin duda- si no consideráramos el impacto de la nueva tecnología (sintetizada en la cumbre por las máquinas cibernéticas) en las relaciones económicas, ideológicas y políticas entre las naciones, perfilando el problema de las perspectivas "centro-periferia" y "desarrollo-subdesarrollo". Las computadoras alterarán todas las relaciones del pasado, ampliando o disimulando la "brecha tecnológica". Finalmente no me resigné a desechar el impulso que la Informática tendrá -y que ya puede vislumbrarse- sobre las ciencias y sus metodologías. Como en los casos anteriores, un tema excesivo para un pequeño ensayo. Pero parece apropiado en una visión panorámica, aunque sólo se trate de unos '"apuntes de aproximación. Si se consigue el objetivo de plantear interdisciplinariamente el "estado de la cuestión", estos apuntes habrán logrado su cometido de ser un estimulante punto de partida para nuevas investigaciones sobre el impacto de la telemática en los fenómenos sociales.
Resumo:
En el contexto de las profundas transformaciones que se dieron en toda América Latina con las aplicaciones de las políticas neo-liberales un nuevo concepto aparece en las agendas de Salud: "interculturalidad". A dicho concepto se apela tanto en la elaboración de la estrategia de APS como en la producción de programas de salud más ambiciosos, al menos en los discursos. En este trabajo intentamos reflexionar, desde la perspectiva de la Antropología Crítica de la Salud, las modalidades en que las estrategias políticas y programas de salud y "la interculturalidad en acción", condicionan los saberes y prácticas de los profesionales de la biomedicina sobre el proceso de salud/enfermedad/atención de grupos migrantes tobas asentados en la ciudad de Rosario
Resumo:
El término Homecasting hace referencia a la producción casera de contenidos audiovisuales puestos a circular en Internet. Estos procesos a través de los cuales personas sin conocimientos previos construyen a partir de la experiencia y el aprendizaje cotidiano una relación particular con la tecnología que en muchas ocasiones les abre otras perspectivas de vida será de especial interés para esta ponencia. Se describirán algunas practicas de apropiación tecnológica a través del análisis del canal de video 'la receta de la abuelita' creado por Yéssica Pérez, mexicana migrante, residente en el Bronx en Nueva York, ama de casa, casada y con dos hijas, quien se define como una persona normal a la que le interesan las computadoras, la costura y las recetas. El caso de Yéssica Pérez será tomado como punto de partida para intentar reflexionar acerca de la importancia de pensar a la tecnología como elemento sustancial de la interacción social contemporánea, planteando la necesidad de reflexionar acerca de los lugares y las maneras en los que se produce y distribuye el conocimiento, los cuales actualmente se han desplazado hacia la cotidianidad y al denominado 'tiempo de ocio' el que pareciera ser núcleo central de la producción simbólica contemporánea
Resumo:
En el contexto de las profundas transformaciones que se dieron en toda América Latina con las aplicaciones de las políticas neo-liberales un nuevo concepto aparece en las agendas de Salud: "interculturalidad". A dicho concepto se apela tanto en la elaboración de la estrategia de APS como en la producción de programas de salud más ambiciosos, al menos en los discursos. En este trabajo intentamos reflexionar, desde la perspectiva de la Antropología Crítica de la Salud, las modalidades en que las estrategias políticas y programas de salud y "la interculturalidad en acción", condicionan los saberes y prácticas de los profesionales de la biomedicina sobre el proceso de salud/enfermedad/atención de grupos migrantes tobas asentados en la ciudad de Rosario
Resumo:
El término Homecasting hace referencia a la producción casera de contenidos audiovisuales puestos a circular en Internet. Estos procesos a través de los cuales personas sin conocimientos previos construyen a partir de la experiencia y el aprendizaje cotidiano una relación particular con la tecnología que en muchas ocasiones les abre otras perspectivas de vida será de especial interés para esta ponencia. Se describirán algunas practicas de apropiación tecnológica a través del análisis del canal de video 'la receta de la abuelita' creado por Yéssica Pérez, mexicana migrante, residente en el Bronx en Nueva York, ama de casa, casada y con dos hijas, quien se define como una persona normal a la que le interesan las computadoras, la costura y las recetas. El caso de Yéssica Pérez será tomado como punto de partida para intentar reflexionar acerca de la importancia de pensar a la tecnología como elemento sustancial de la interacción social contemporánea, planteando la necesidad de reflexionar acerca de los lugares y las maneras en los que se produce y distribuye el conocimiento, los cuales actualmente se han desplazado hacia la cotidianidad y al denominado 'tiempo de ocio' el que pareciera ser núcleo central de la producción simbólica contemporánea
Resumo:
El término Homecasting hace referencia a la producción casera de contenidos audiovisuales puestos a circular en Internet. Estos procesos a través de los cuales personas sin conocimientos previos construyen a partir de la experiencia y el aprendizaje cotidiano una relación particular con la tecnología que en muchas ocasiones les abre otras perspectivas de vida será de especial interés para esta ponencia. Se describirán algunas practicas de apropiación tecnológica a través del análisis del canal de video 'la receta de la abuelita' creado por Yéssica Pérez, mexicana migrante, residente en el Bronx en Nueva York, ama de casa, casada y con dos hijas, quien se define como una persona normal a la que le interesan las computadoras, la costura y las recetas. El caso de Yéssica Pérez será tomado como punto de partida para intentar reflexionar acerca de la importancia de pensar a la tecnología como elemento sustancial de la interacción social contemporánea, planteando la necesidad de reflexionar acerca de los lugares y las maneras en los que se produce y distribuye el conocimiento, los cuales actualmente se han desplazado hacia la cotidianidad y al denominado 'tiempo de ocio' el que pareciera ser núcleo central de la producción simbólica contemporánea
Resumo:
Distributed real-time embedded systems are becoming increasingly important to society. More demands will be made on them and greater reliance will be placed on the delivery of their services. A relevant subset of them is high-integrity or hard real-time systems, where failure can cause loss of life, environmental harm, or significant financial loss. Additionally, the evolution of communication networks and paradigms as well as the necessity of demanding processing power and fault tolerance, motivated the interconnection between electronic devices; many of the communications have the possibility of transferring data at a high speed. The concept of distributed systems emerged as systems where different parts are executed on several nodes that interact with each other via a communication network. Java’s popularity, facilities and platform independence have made it an interesting language for the real-time and embedded community. This was the motivation for the development of RTSJ (Real-Time Specification for Java), which is a language extension intended to allow the development of real-time systems. The use of Java in the development of high-integrity systems requires strict development and testing techniques. However, RTJS includes a number of language features that are forbidden in such systems. In the context of the HIJA project, the HRTJ (Hard Real-Time Java) profile was developed to define a robust subset of the language that is amenable to static analysis for high-integrity system certification. Currently, a specification under the Java community process (JSR- 302) is being developed. Its purpose is to define those capabilities needed to create safety critical applications with Java technology called Safety Critical Java (SCJ). However, neither RTSJ nor its profiles provide facilities to develop distributed realtime applications. This is an important issue, as most of the current and future systems will be distributed. The Distributed RTSJ (DRTSJ) Expert Group was created under the Java community process (JSR-50) in order to define appropriate abstractions to overcome this problem. Currently there is no formal specification. The aim of this thesis is to develop a communication middleware that is suitable for the development of distributed hard real-time systems in Java, based on the integration between the RMI (Remote Method Invocation) model and the HRTJ profile. It has been designed and implemented keeping in mind the main requirements such as the predictability and reliability in the timing behavior and the resource usage. iThe design starts with the definition of a computational model which identifies among other things: the communication model, most appropriate underlying network protocols, the analysis model, and a subset of Java for hard real-time systems. In the design, the remote references are the basic means for building distributed applications which are associated with all non-functional parameters and resources needed to implement synchronous or asynchronous remote invocations with real-time attributes. The proposed middleware separates the resource allocation from the execution itself by defining two phases and a specific threading mechanism that guarantees a suitable timing behavior. It also includes mechanisms to monitor the functional and the timing behavior. It provides independence from network protocol defining a network interface and modules. The JRMP protocol was modified to include two phases, non-functional parameters, and message size optimizations. Although serialization is one of the fundamental operations to ensure proper data transmission, current implementations are not suitable for hard real-time systems and there are no alternatives. This thesis proposes a predictable serialization that introduces a new compiler to generate optimized code according to the computational model. The proposed solution has the advantage of allowing us to schedule the communications and to adjust the memory usage at compilation time. In order to validate the design and the implementation a demanding validation process was carried out with emphasis in the functional behavior, the memory usage, the processor usage (the end-to-end response time and the response time in each functional block) and the network usage (real consumption according to the calculated consumption). The results obtained in an industrial application developed by Thales Avionics (a Flight Management System) and in exhaustive tests show that the design and the prototype are reliable for industrial applications with strict timing requirements. Los sistemas empotrados y distribuidos de tiempo real son cada vez más importantes para la sociedad. Su demanda aumenta y cada vez más dependemos de los servicios que proporcionan. Los sistemas de alta integridad constituyen un subconjunto de gran importancia. Se caracterizan por que un fallo en su funcionamiento puede causar pérdida de vidas humanas, daños en el medio ambiente o cuantiosas pérdidas económicas. La necesidad de satisfacer requisitos temporales estrictos, hace más complejo su desarrollo. Mientras que los sistemas empotrados se sigan expandiendo en nuestra sociedad, es necesario garantizar un coste de desarrollo ajustado mediante el uso técnicas adecuadas en su diseño, mantenimiento y certificación. En concreto, se requiere una tecnología flexible e independiente del hardware. La evolución de las redes y paradigmas de comunicación, así como la necesidad de mayor potencia de cómputo y de tolerancia a fallos, ha motivado la interconexión de dispositivos electrónicos. Los mecanismos de comunicación permiten la transferencia de datos con alta velocidad de transmisión. En este contexto, el concepto de sistema distribuido ha emergido como sistemas donde sus componentes se ejecutan en varios nodos en paralelo y que interactúan entre ellos mediante redes de comunicaciones. Un concepto interesante son los sistemas de tiempo real neutrales respecto a la plataforma de ejecución. Se caracterizan por la falta de conocimiento de esta plataforma durante su diseño. Esta propiedad es relevante, por que conviene que se ejecuten en la mayor variedad de arquitecturas, tienen una vida media mayor de diez anos y el lugar ˜ donde se ejecutan puede variar. El lenguaje de programación Java es una buena base para el desarrollo de este tipo de sistemas. Por este motivo se ha creado RTSJ (Real-Time Specification for Java), que es una extensión del lenguaje para permitir el desarrollo de sistemas de tiempo real. Sin embargo, RTSJ no proporciona facilidades para el desarrollo de aplicaciones distribuidas de tiempo real. Es una limitación importante dado que la mayoría de los actuales y futuros sistemas serán distribuidos. El grupo DRTSJ (DistributedRTSJ) fue creado bajo el proceso de la comunidad de Java (JSR-50) con el fin de definir las abstracciones que aborden dicha limitación, pero en la actualidad aun no existe una especificacion formal. El objetivo de esta tesis es desarrollar un middleware de comunicaciones para el desarrollo de sistemas distribuidos de tiempo real en Java, basado en la integración entre el modelo de RMI (Remote Method Invocation) y el perfil HRTJ. Ha sido diseñado e implementado teniendo en cuenta los requisitos principales, como la predecibilidad y la confiabilidad del comportamiento temporal y el uso de recursos. El diseño parte de la definición de un modelo computacional el cual identifica entre otras cosas: el modelo de comunicaciones, los protocolos de red subyacentes más adecuados, el modelo de análisis, y un subconjunto de Java para sistemas de tiempo real crítico. En el diseño, las referencias remotas son el medio básico para construcción de aplicaciones distribuidas las cuales son asociadas a todos los parámetros no funcionales y los recursos necesarios para la ejecución de invocaciones remotas síncronas o asíncronas con atributos de tiempo real. El middleware propuesto separa la asignación de recursos de la propia ejecución definiendo dos fases y un mecanismo de hebras especifico que garantiza un comportamiento temporal adecuado. Además se ha incluido mecanismos para supervisar el comportamiento funcional y temporal. Se ha buscado independencia del protocolo de red definiendo una interfaz de red y módulos específicos. También se ha modificado el protocolo JRMP para incluir diferentes fases, parámetros no funcionales y optimizaciones de los tamaños de los mensajes. Aunque la serialización es una de las operaciones fundamentales para asegurar la adecuada transmisión de datos, las actuales implementaciones no son adecuadas para sistemas críticos y no hay alternativas. Este trabajo propone una serialización predecible que ha implicado el desarrollo de un nuevo compilador para la generación de código optimizado acorde al modelo computacional. La solución propuesta tiene la ventaja que en tiempo de compilación nos permite planificar las comunicaciones y ajustar el uso de memoria. Con el objetivo de validar el diseño e implementación se ha llevado a cabo un exigente proceso de validación con énfasis en: el comportamiento funcional, el uso de memoria, el uso del procesador (tiempo de respuesta de extremo a extremo y en cada uno de los bloques funcionales) y el uso de la red (consumo real conforme al estimado). Los buenos resultados obtenidos en una aplicación industrial desarrollada por Thales Avionics (un sistema de gestión de vuelo) y en las pruebas exhaustivas han demostrado que el diseño y el prototipo son fiables para aplicaciones industriales con estrictos requisitos temporales.
Resumo:
Los procesos de partición espacial implican la división de un espacio geográfico en diferentes unidades o zonas según un conjunto específico de criterios. En ámbitos relacionados con las ciencias geoespaciales, la delimitación de estas zonas se realiza por agrupación de otras unidades básicas de área existentes en el espacio de trabajo. En este artículo se ofrece una revisión de los métodos de solución diseñados para este tipo de problemas, comenzando por una introducción a las técnicas heurísticas y modelos matemáticos más utilizados desde los años 60, para finalizar describiendo los recientes algoritmos aplicados a diagramas de Voronoi. También se revisan las aplicaciones en las que se han implementado algunos de estos modelos, quedando patente que son herramientas diseñadas para el tratamiento de problemas específicos, dada la dificultad de diseñar modelos genéricos y versátiles para este tipo de particiones espaciales o zonificaciones
Resumo:
La señalización digital o digital signage es una tecnología de comunicaciones digital que se está usando en los últimos años para reemplazar a la antigua publicidad impresa. Esta tecnología mejora la presentación y promoción de los productos anunciados, así como facilita el intercambio de información gracias a su colocación en lugares públicos o al aire libre. Las aplicaciones con las que cuenta este nuevo método de publicidad son muy variadas, ya que pueden variar desde ambientes privados en empresas, hasta lugares públicos como centros comerciales. Aunque la primera y principal utilidad de la señalización digital es la publicidad para que el usuario sienta una necesidad de adquirir productos, también la posibilidad de ofrecer más información sobre determinados artículos a través de las nuevas tecnologías es muy importante en este campo. La aplicación realizada en este proyecto es el desarrollo de un programa en Adobe Flash a través de lenguaje de programación XML. A través de una pantalla táctil, el usuario de un museo puede interactivamente acceder a un menú en el que aparecen los diferentes estilos de arte en un determinado tiempo de la historia. A través de una línea de tiempo se puede acceder a información sobre cada objeto que esté expuesto en la exhibición. Además se pueden observar imágenes de los detalles más importantes del objeto que no pueden ser vistos a simple vista, ya que no está permitido manipularlos. El empleo de la pantalla interactiva sirve para el usuario de la exhibición como una herramienta extra para recabar información sobre lo que está viendo, a través de una tecnología nueva y fácil de usar para todo el mundo, ya que solo se necesita usar las propias manos. La facilidad de manejo en aplicaciones como estas es muy importante, ya que el usuario final puede no tener conocimientos tecnológicos por lo que la información debe darse claramente. Como conclusión, se puede decir que digital signage es un mercado que está en expansión y que las empresas deben invertir en el desarrollo de contenidos, ya que las tecnologías avanzan aunque el digital signage no lo haga, y este sector podría ser muy útil en un futuro no muy lejano, ya que la información que es capaz de transmitir al espectador en todos los lugares es mucho más válida y útil que la proporcionada por un simple póster impreso en una valla publicitaria. Abstract The Digital signage is a digital communications technology being used in recent years to replace the old advertising printed. This technology improves the presentation and promotion of the advertised products, and makes easy the exchange of information with its placement in public places or outdoors. The applications that account this new method of advertising are several; they can range from private rooms in companies, to public places like malls. Although the first major utility of Digital signage is the advertising that makes the user feel and need of purchasing products. In addition, the chance of providing more information about certain items through new technologies is very important in this field. The application made in this project is the development of a program in Adobe Flash via XML programming language. Through a touch-screen, a museum user can interactively access a menu in which different styles of art in a particular time in history appears. Through a timeline you can access to information about each object that is exposed on display. Also you can see pictures of the most important details of the object that can not be seen with the naked eye, since it is not allowed to manipulate it. The use of the interactive screen serves to the user exhibition as an extra tool to gather information about what is seeing through a new technology and easy to use for everyone, since only need to use one’s own hands. The ease of handling in applications such as this is very important as the end user may not have expertise technology so the information should be clearly. As conclusion, one can say digital signage is an expansion market and companies must invest in content development, as although digital technologies advance digital signage does not, and this sector could be very useful in a near future, because information that is able of transmitting the everywhere viewer is much more valid and useful than that provided by a simple printed poster on a billboard.
Resumo:
Uno de los retos actuales aún pendiente de lograr trabajando con espumas de aluminio, es el desarrollo de métodos de unión fácilmente reproducibles a nivel industrial que permitan la unión de espumas de aluminio entre sí o con otros componentes tipo pletinas, para así poder fabricar piezas de mayor tamaño o con formas complejas, a la vez que se conserven las propiedades y características principales de las espumas de aluminio, tanto en la zona principal de unión o cordón, como en la interfase y zona afectada térmicamente, que se encuentran anexa. Los actuales procesos de unión más utilizados con espumas de aluminio, se basan principalmente en adhesivos y uniones mecánicas. Estas soluciones a priori válidas, añaden problemas técnicos a determinadas aplicaciones de las espumas que frenan la completa integración de estos materiales en un entorno de fabricación flexible y global. Por esta razón, los actuales procesos de producción de las espumas de aluminio se restringen a determinadas ofertas hechas a la medida del cliente, no pudiendo atender por falta de soluciones, a una gran parte del potencial mercado de estos materiales. En el presente trabajo de investigación se han desarrollado y caracterizado diferentes métodos de unión de espumas de aluminio, en configuración a tope y de espumas de aluminio con pletinas en configuración a solape, basados en procesos por soldeo térmico. One of the current challenges even pending of being achieved working with aluminium foams, is the development of easily reproducible methods at industrial level that allow the joint of aluminium foams between them or with other elements as for example aluminium plates for making bigger pieces or with more complex forms, remaining simultaneously in the weld bead the properties and main characteristics of aluminium foam, so much in the joint area or interface, since in the affected closer thermal zone. Currently, the most used joint processes for applying to aluminium foams are based mainly on adhesives and mechanical joins. These solutions initially valid, add technical problems to certain aluminium foams applications, which stop the complete integration of these materials in a more flexible and global manufacture environment. For this reason, current aluminium foam manufacturing processes are restricted to certain offers done to a specific customer requirement, not being able to attend for lack of available solutions, to a great potential market of these materials. In the present work, different joint methods between aluminium foams and between aluminium foams and plates for butt and lap configurations have been developed and characterized based on thermal welding processes.
Resumo:
La termografía infrarroja (TI) es una técnica no invasiva y de bajo coste que permite, con el simple acto de tomar una fotografía, el registro sin contacto de la energía que irradia el cuerpo humano (Akimov & Son’kin, 2011, Merla et al., 2005, Ng et al., 2009, Costello et al., 2012, Hildebrandt et al., 2010). Esta técnica comenzó a utilizarse en el ámbito médico en los años 60, pero debido a los malos resultados como herramienta diagnóstica y la falta de protocolos estandarizados (Head & Elliot, 2002), ésta se dejó de utilizar en detrimento de otras técnicas más precisas a nivel diagnóstico. No obstante, las mejoras tecnológicas de la TI en los últimos años han hecho posible un resurgimiento de la misma (Jiang et al., 2005, Vainer et al., 2005, Cheng et al., 2009, Spalding et al., 2011, Skala et al., 2012), abriendo el camino a nuevas aplicaciones no sólo centradas en el uso diagnóstico. Entre las nuevas aplicaciones, destacamos las que se desarrollan en el ámbito de la actividad física y el deporte, donde recientemente se ha demostrado que los nuevos avances con imágenes de alta resolución pueden proporcionar información muy interesante sobre el complejo sistema de termorregulación humana (Hildebrandt et al., 2010). Entre las nuevas aplicaciones destacan: la cuantificación de la asimilación de la carga de trabajo físico (Čoh & Širok, 2007), la valoración de la condición física (Chudecka et al., 2010, 2012, Akimov et al., 2009, 2011, Merla et al., 2010), la prevención y seguimiento de lesiones (Hildebrandt et al., 2010, 2012, Badža et al., 2012, Gómez Carmona, 2012) e incluso la detección de agujetas (Al-Nakhli et al., 2012). Bajo estas circunstancias, se acusa cada vez más la necesidad de ampliar el conocimiento sobre los factores que influyen en la aplicación de la TI en los seres humanos, así como la descripción de la respuesta de la temperatura de la piel (TP) en condiciones normales, y bajo la influencia de los diferentes tipos de ejercicio. Por consiguiente, este estudio presenta en una primera parte una revisión bibliográfica sobre los factores que afectan al uso de la TI en los seres humanos y una propuesta de clasificación de los mismos. Hemos analizado la fiabilidad del software Termotracker, así como su reproducibilidad de la temperatura de la piel en sujetos jóvenes, sanos y con normopeso. Finalmente, se analizó la respuesta térmica de la piel antes de un entrenamiento de resistencia, velocidad y fuerza, inmediatamente después y durante un período de recuperación de 8 horas. En cuanto a la revisión bibliográfica, hemos propuesto una clasificación para organizar los factores en tres grupos principales: los factores ambientales, individuales y técnicos. El análisis y descripción de estas influencias deben representar la base de nuevas investigaciones con el fin de utilizar la TI en las mejores condiciones. En cuanto a la reproducibilidad, los resultados mostraron valores excelentes para imágenes consecutivas, aunque la reproducibilidad de la TP disminuyó ligeramente con imágenes separadas por 24 horas, sobre todo en las zonas con valores más fríos (es decir, zonas distales y articulaciones). Las asimetrías térmicas (que normalmente se utilizan para seguir la evolución de zonas sobrecargadas o lesionadas) también mostraron excelentes resultados pero, en este caso, con mejores valores para las articulaciones y el zonas centrales (es decir, rodillas, tobillos, dorsales y pectorales) que las Zonas de Interés (ZDI) con valores medios más calientes (como los muslos e isquiotibiales). Los resultados de fiabilidad del software Termotracker fueron excelentes en todas las condiciones y parámetros. En el caso del estudio sobre los efectos de los entrenamientos de la velocidad resistencia y fuerza en la TP, los resultados muestran respuestas específicas según el tipo de entrenamiento, zona de interés, el momento de la evaluación y la función de las zonas analizadas. Los resultados mostraron que la mayoría de las ZDI musculares se mantuvieron significativamente más calientes 8 horas después del entrenamiento, lo que indica que el efecto del ejercicio sobre la TP perdura por lo menos 8 horas en la mayoría de zonas analizadas. La TI podría ser útil para cuantificar la asimilación y recuperación física después de una carga física de trabajo. Estos resultados podrían ser muy útiles para entender mejor el complejo sistema de termorregulación humano, y por lo tanto, para utilizar la TI de una manera más objetiva, precisa y profesional con visos a mejorar las nuevas aplicaciones termográficas en el sector de la actividad física y el deporte Infrared Thermography (IRT) is a safe, non-invasive and low-cost technique that allows the rapid and non-contact recording of the irradiated energy released from the body (Akimov & Son’kin, 2011; Merla et al., 2005; Ng et al., 2009; Costello et al., 2012; Hildebrandt et al., 2010). It has been used since the early 1960’s, but due to poor results as diagnostic tool and a lack of methodological standards and quality assurance (Head et al., 2002), it was rejected from the medical field. Nevertheless, the technological improvements of IRT in the last years have made possible a resurgence of this technique (Jiang et al., 2005; Vainer et al., 2005; Cheng et al., 2009; Spalding et al., 2011; Skala et al., 2012), paving the way to new applications not only focused on the diagnose usages. Among the new applications, we highlighted those in physical activity and sport fields, where it has been recently proven that a high resolution thermal images can provide us with interesting information about the complex thermoregulation system of the body (Hildebrandt et al., 2010), information than can be used as: training workload quantification (Čoh & Širok, 2007), fitness and performance conditions (Chudecka et al., 2010, 2012; Akimov et al., 2009, 2011; Merla et al., 2010; Arfaoui et al., 2012), prevention and monitoring of injuries (Hildebrandt et al., 2010, 2012; Badža et al., 2012, Gómez Carmona, 2012) and even detection of Delayed Onset Muscle Soreness – DOMS- (Al-Nakhli et al., 2012). Under this context, there is a relevant necessity to broaden the knowledge about factors influencing the application of IRT on humans, and to better explore and describe the thermal response of Skin Temperature (Tsk) in normal conditions, and under the influence of different types of exercise. Consequently, this study presents a literature review about factors affecting the application of IRT on human beings and a classification proposal about them. We analysed the reliability of the software Termotracker®, and also its reproducibility of Tsk on young, healthy and normal weight subjects. Finally, we examined the Tsk thermal response before an endurance, speed and strength training, immediately after and during an 8-hour recovery period. Concerning the literature review, we proposed a classification to organise the factors into three main groups: environmental, individual and technical factors. Thus, better exploring and describing these influence factors should represent the basis of further investigations in order to use IRT in the best and optimal conditions to improve its accuracy and results. Regarding the reproducibility results, the outcomes showed excellent values for consecutive images, but the reproducibility of Tsk slightly decreased with time, above all in the colder Regions of Interest (ROI) (i.e. distal and joint areas). The side-to-side differences (ΔT) (normally used to follow the evolution of some injured or overloaded ROI) also showed highly accurate results, but in this case with better values for joints and central ROI (i.e. Knee, Ankles, Dorsal and Pectoral) than the hottest muscle ROI (as Thigh or Hamstrings). The reliability results of the IRT software Termotracker® were excellent in all conditions and parameters. In the part of the study about the effects on Tsk of aerobic, speed and strength training, the results of Tsk demonstrated specific responses depending on the type of training, ROI, moment of the assessment and the function of the considered ROI. The results showed that most of muscular ROI maintained warmer significant Tsk 8 hours after the training, indicating that the effect of exercise on Tsk last at least 8 hours in most of ROI, as well as IRT could help to quantify the recovery status of the athlete as workload assimilation indicator. Those results could be very useful to better understand the complex skin thermoregulation behaviour, and therefore, to use IRT in a more objective, accurate and professional way to improve the new IRT applications for the physical activity and sport sector.