1000 resultados para Personas sin hogar
Resumo:
La presente publicación es una versión revisada y ampliada del libro Mujeres en la economía digital: superar el umbral de la desigualdad (LC/L.3666(CRM.12/3), presentado por la CEPAL en la XII Conferencia Regional sobre la Mujer de América Latina y el Caribe (Santo Domingo, 15 a 18 de octubre de 2013).
Resumo:
Pós-graduação em Psicologia - FCLAS
Resumo:
The present article is an investigation / action regarding the working conditions for pickers of recyclable waste in a medium-sized city in the state of São Paulo, mainly on the health / illness process, problems related to social security and conditions of autonomy and citizenship. We use the constructs of social psychology as theoretical. The recycling of urban garbage, as the literature indicates, is not being treated as just part of the solution to environmental problems, but also has been characterized as a source of income and livelihood for many people, with no other options in life. From the interviews were semistructured, and with the method of analysis the meaning core were identified issues related to the holding of by scrap collectors, prejudice existing in relation to the activity performed, poor housing conditions, the need to social recognition and the difficulty of recyclable garbage collectors in forming a group in which they can articulate and fight for their demands. With this study, we intended to indicate suggestions for improvements in these health professionals and encourage individual and collective reflections on the condition of meetings and also through the distribution of leaflets.
Resumo:
El término Homecasting hace referencia a la producción casera de contenidos audiovisuales puestos a circular en Internet. Estos procesos a través de los cuales personas sin conocimientos previos construyen a partir de la experiencia y el aprendizaje cotidiano una relación particular con la tecnología que en muchas ocasiones les abre otras perspectivas de vida será de especial interés para esta ponencia. Se describirán algunas practicas de apropiación tecnológica a través del análisis del canal de video 'la receta de la abuelita' creado por Yéssica Pérez, mexicana migrante, residente en el Bronx en Nueva York, ama de casa, casada y con dos hijas, quien se define como una persona normal a la que le interesan las computadoras, la costura y las recetas. El caso de Yéssica Pérez será tomado como punto de partida para intentar reflexionar acerca de la importancia de pensar a la tecnología como elemento sustancial de la interacción social contemporánea, planteando la necesidad de reflexionar acerca de los lugares y las maneras en los que se produce y distribuye el conocimiento, los cuales actualmente se han desplazado hacia la cotidianidad y al denominado 'tiempo de ocio' el que pareciera ser núcleo central de la producción simbólica contemporánea
Resumo:
El término Homecasting hace referencia a la producción casera de contenidos audiovisuales puestos a circular en Internet. Estos procesos a través de los cuales personas sin conocimientos previos construyen a partir de la experiencia y el aprendizaje cotidiano una relación particular con la tecnología que en muchas ocasiones les abre otras perspectivas de vida será de especial interés para esta ponencia. Se describirán algunas practicas de apropiación tecnológica a través del análisis del canal de video 'la receta de la abuelita' creado por Yéssica Pérez, mexicana migrante, residente en el Bronx en Nueva York, ama de casa, casada y con dos hijas, quien se define como una persona normal a la que le interesan las computadoras, la costura y las recetas. El caso de Yéssica Pérez será tomado como punto de partida para intentar reflexionar acerca de la importancia de pensar a la tecnología como elemento sustancial de la interacción social contemporánea, planteando la necesidad de reflexionar acerca de los lugares y las maneras en los que se produce y distribuye el conocimiento, los cuales actualmente se han desplazado hacia la cotidianidad y al denominado 'tiempo de ocio' el que pareciera ser núcleo central de la producción simbólica contemporánea
Resumo:
El término Homecasting hace referencia a la producción casera de contenidos audiovisuales puestos a circular en Internet. Estos procesos a través de los cuales personas sin conocimientos previos construyen a partir de la experiencia y el aprendizaje cotidiano una relación particular con la tecnología que en muchas ocasiones les abre otras perspectivas de vida será de especial interés para esta ponencia. Se describirán algunas practicas de apropiación tecnológica a través del análisis del canal de video 'la receta de la abuelita' creado por Yéssica Pérez, mexicana migrante, residente en el Bronx en Nueva York, ama de casa, casada y con dos hijas, quien se define como una persona normal a la que le interesan las computadoras, la costura y las recetas. El caso de Yéssica Pérez será tomado como punto de partida para intentar reflexionar acerca de la importancia de pensar a la tecnología como elemento sustancial de la interacción social contemporánea, planteando la necesidad de reflexionar acerca de los lugares y las maneras en los que se produce y distribuye el conocimiento, los cuales actualmente se han desplazado hacia la cotidianidad y al denominado 'tiempo de ocio' el que pareciera ser núcleo central de la producción simbólica contemporánea
Resumo:
Actualmente, el tema de los recursos humanos está produciendo un fuerte impacto en España y sólo hay que acercarse a la bibliografía empresarial para comprobar que el estudio del sector de la actividad física y el deporte representa un campo de interés científico y social que requiere ser investigado. Mediante una metodología cuantitativa de corte descriptivo y mediante el empleo de la entrevista estandarizada como instrumento de recogida de información se reproducen aquellas características más relevantes observadas en la Comunidad Valenciana. Los resultados explican que las personas que trabajan en funciones físico-deportivas en empresas del sector son mayoritariamente hombres jóvenes que desarrollan una amplia variedad de las mismas, con situaciones laborales en las que no existe contratación y manifestando una elevada temporalidad. Asimismo, el estudio revela que más de la mitad de las personas desempeñan su trabajo con una duración laboral que no supera los cuatro años, existiendo personas sin titulación oficial de actividad física y deporte, y siendo el aspecto más importante para encontrar trabajo los contactos personales.
Resumo:
El objetivo principal de este trabajo es diseñar un programa de ejercicio destinado a la tercera edad, en sujetos mayores de 60 años, utilizando las principales modalidades acuáticas existentes orientadas hacia el mundo del bienestar. Las actividades acuáticas que comparten este fin, y que describo en el programa son la natación terapéutica, el aquaerobic y sus variantes como el aquastep, bailes en el agua, etc; el aquagym; el aquarunning; aquafit, y modalidades orientales o de equilibrio cuerpo-mente como el aquapilates, el aquachi o yoga acuático. Para la elaboración del programa, se crearán unos objetivos específicos destinados a la población anciana que abarcan fines tanto físicos como mentales, psicológicos o sociales. Se estudiará brevemente el proceso de envejecimiento, y se describirán algunas de las recomendaciones para el trabajo específico con este grupo que difieren del trabajo con otro tipo de personas; sin entrar en demasiado detalle de posibles enfermedades. En el desarrollo del programa, se trabajarán cualidades como la propiocepción, coordinación, resistencia, fuerza y flexibilidad, combinando algunas de las modalidades acuáticas antes mencionadas con juegos y actividades específicas adaptadas al agua todo ello destinado a mejorar el estado físico, la salud y la calidad de vida de la tercera edad.
Resumo:
Inicio del desarrollo de un algoritmo eficiente orientado a dispositivos con baja capacidad de proceso, que ayude a personas sin necesariamente una preparación adecuada a llevar a cabo un proceso de toma de una señal biológica, como puede ser un electrocardiograma. La aplicación deberá, por tanto, asesorar en la toma de la señal al usuario, evaluar la calidad de la grabación obtenida, y en tiempo seudo real, comprobar si la calidad de la señal obtenida es suficientemente buena para su posterior diagnóstico, de tal modo que en caso de que sea necesaria una repetición de la prueba médica, esta pueda realizarse de inmediato. Además, el algoritmo debe extraer las características más relevantes de la señal electrocardiográfica, procesarlas, y obtener una serie de patrones significativos que permitan la orientación a la diagnosis de algunas de las patologías más comunes que se puedan extraer de la información de las señales cardíacas. Para la extracción, evaluación y toma de decisiones de este proceso previo a la generación del diagnóstico, se seguirá la arquitectura clásica de un sistema de detección de patrones, definiendo las clases que sean necesarias según el número de patologías que se deseen identificar. Esta información de diagnosis, obtenida mediante la identificación del sistema de reconocimiento de patrones, podría ser de ayuda u orientación para la posterior revisión de la prueba por parte de un profesional médico cualificado y de manera remota, evitando así el desplazamiento del mismo a zonas donde, por los medios existentes a día de hoy, es muy remota la posibilidad de presencia de personal sanitario. ABTRACT Start of development of an efficient algorithm designed to devices with low processing power, which could help people without adequate preparation to undertake a process of taking a biological signal, such as an electrocardiogram. Therefore, the application must assist the user in taking the signal and evaluating the quality of the recording. All of this must to be in live time. It must to check the quality of the signal obtained, and if is it necessary a repetition of the test, this could be done immediately. Furthermore, the algorithm must extract the most relevant features of the ECG signal, process it, and get meaningful patterns that allow to a diagnosis orientation of some of the more common diseases that can be drawn from the cardiac signal information. For the extraction, evaluation and decision making in this previous process to the generation of diagnosis, we will follow the classic architecture of a pattern recognition system, defining the necessary classes according to the number of pathologies that we wish to identify. This diagnostic information obtained by identifying the pattern recognition system could be for help or guidance for further review of the signal by a qualified medical professional, and it could be done remotely, thus avoiding the movements to areas where nowadays it is extremely unlikely to place any health staff, due to the poor economic condition.
Resumo:
The aim of this thesis is the subjective and objective evaluation of angledependent absorption coefficients. As the assumption of a constant absorption coefficient over the angle of incidence is not always held, a new model acknowledging an angle-dependent reflection must be considered, to get a more accurate prediction in the sound field. The study provides information about the behavior of different materials in several rooms, depending on the reflection modeling of incident sound waves. An objective evaluation was run for an implementation of angle-dependent reflection factors in the image source and ray tracing simulation models. Results obtained were analysed after comparison to diffuse-field averaged data. However, changes in acoustic characteristics of a room do not always mean a variation in the listener’s perception. Thus, additional subjective evaluation allowed a comparison between the different results obtained with the computer simulation and the response from the individuals who participated in the listening test. The listening test was designed following a three-alternative forced-choice (3AFC) paradigm. In each interaction asked to the subjects a sequence of either three pink noise bursts or three natural signals was alternated. These results were supposed to show the influence and perception of the two different ways to implement surface reflection –either with diffuse or angle-dependent absorption properties. Results show slightly audible effects when material properties were exaggerated. El objetivo de este trabajo es la evaluación objetiva y subjetiva del coeficiente de absorción en función del ángulo de incidencia de la onda de sonido. La suposición de un coeficiente de absorción constante con respecto al ángulo de incidencia no siempre se sostiene. Por ello, un nuevo modelo considerando la reflexión dependiente del ángulo se debe tener en cuenta para obtener predicciones más certeras en el campo del sonido. El estudio proporciona información sobre el comportamiento de diferentes materiales en distintos recintos, dependientes del modelo de reflexión de las ondas de sonido incidentes. Debido a las dificultades a la hora de realizar las medidas y, por lo tanto, a la falta de datos, los coeficientes de absorción dependientes del ángulo a menudo no se tienen en cuenta a la hora de realizar las simulaciones. Hoy en día, aún no hay una tendencia de aplicar el coeficiente de absorción dependiente del ángulo para mejorar los modelos de reflexión. Por otra parte, para una medición satisfactoria de la absorción dependiente del ángulo, sólo hay unos pocos métodos. Las técnicas de medición actuales llevan mucho tiempo y hay algunos materiales, condiciones y ángulos que no pueden ser reproducidos y, por lo tanto, no es posible su medición. Sin embargo, en el presente estudio, los ángulos de incidencia de las ondas de sonido son conocidos y almacenados en una de base de datos para cada uno de los materiales, de modo que los coeficientes de absorción para el ángulo dado pueden ser devueltos siempre que sean requeridos por el usuario. Para realizar el estudio se llevó a cabo una evaluación objetiva, por medio de la implementación del factor de reflexión dependiente del ángulo en los modelos de fuentes imagen y trazado de rayos. Los resultados fueron analizados después de ser comparados con el promedio de los datos obtenidos en medidas en el campo difuso. La simulación se hizo una vez se configuraron un número de materiales creados por el autor, a partir de los datos existentes en la literatura y los catálogos de fabricantes. Los modelos de Komatsu y Mechel sirvieron como referencia para los materiales porosos, configurando la resistividad al aire o el grosor, y para los paneles perforados, introduciendo el radio de los orificios y la distancia entre centros, respectivamente. Estos materiales se situaban en la pared opuesta a la que se consideraba que debía alojar a la fuente sonora. El resto de superficies se modelaban con el mismo material, variando su coeficiente de absorción y/o de dispersión. Al mismo tiempo, una serie de recintos fueron modelados para poder reproducir distintos escenarios de los que obtener los resultados. Sin embargo, los cambios en las características acústicas de un recinto no significan variaciones en la percepción por parte del oyente. Por ello, una evaluación subjetiva adicional permitió una comparación entre los diferentes resultados obtenidos mediante la simulación informática y la respuesta de los individuos que participaron en la prueba de escucha. Ésta fue diseñada bajo las pautas del modelo de test three-alternative forced-choice (3AFC), con treinta y dos preguntas diferentes. En cada iteración los sujetos fueron preguntados por una secuencia alterna entre tres señales, siendo dos de ellas iguales. Éstas podían ser tanto ráfagas de ruido rosa como señales naturales, en este test se utilizó un fragmento de una obra clásica interpretada por un piano. Antes de contestar al cuestionario, los bloques de preguntas eran ordenados al azar. Para cada ensayo, la mezcla era diferente, así los sujetos no repetían la misma prueba, evitando un sesgo por efectos de aprendizaje. Los bloques se barajaban recordando siempre el orden inicial, para después almacenar los resultados reordenados. La prueba de escucha fue realizada por veintitrés personas, toda ellas con conocimientos dentro del campo de la acústica. Antes de llevar a cabo la prueba de escucha en un entorno adecuado, una hoja con las instrucciones fue facilitada a cada persona. Los resultados muestran la influencia y percepción de las dos maneras distintas de implementar las reflexiones de una superficie –ya sea con respecto a la propiedad de difusión o de absorción dependiente del ángulo de los materiales. Los resultados objetivos, después de ejecutar las simulaciones, muestran los datos medios obtenidos para comprender el comportamiento de distintos materiales de acuerdo con el modelo de reflexión utilizado en el caso de estudio. En las tablas proporcionadas en la memoria se muestran los valores del tiempo de reverberación, la claridad y el tiempo de caída temprana. Los datos de las características del recinto obtenidos en este análisis tienen una fuerte dependencia respecto al coeficiente de absorción de los diferentes materiales que recubren las superficies del cuarto. En los resultados subjetivos, la media de percepción, a la hora de distinguir las distintas señales, por parte de los sujetos, se situó significativamente por debajo del umbral marcado por el punto de inflexión de la función psicométrica. Sin embargo, es posible concluir que la mayoría de los individuos tienden a ser capaces de detectar alguna diferencia entre los estímulos presentados en el 3AFC test. En conclusión, la hipótesis de que los valores del coeficiente de absorción dependiente del ángulo difieren es contrastada. Pero la respuesta subjetiva de los individuos muestra que únicamente hay ligeras variaciones en la percepción si el coeficiente varía en intervalos pequeños entre los valores manejados en la simulación. Además, si los parámetros de los materiales acústicos no son exagerados, los sujetos no perciben ninguna variación. Los primeros resultados obtenidos, proporcionando información respecto a la dependencia del ángulo, llevan a una nueva consideración en el campo de la acústica, y en la realización de nuevos proyectos en el futuro. Para futuras líneas de investigación, las simulaciones se deberían realizar con distintos tipos de recintos, buscando escenarios con geometrías irregulares. También, la implementación de distintos materiales para obtener resultados más certeros. Otra de las fases de los futuros proyectos puede realizarse teniendo en cuenta el coeficiente de dispersión dependiente del ángulo de incidencia de la onda de sonido. En la parte de la evaluación subjetiva, realizar una serie de pruebas de escucha con distintos individuos, incluyendo personas sin una formación relacionada con la ingeniería acústica.
Resumo:
habilidades de comprensión y resolución de problemas. Tanto es así que se puede afirmar con rotundidad que no existe el método perfecto para cada una de las etapas de desarrollo y tampoco existe el modelo de ciclo de vida perfecto: cada nuevo problema que se plantea es diferente a los anteriores en algún aspecto y esto hace que técnicas que funcionaron en proyectos anteriores fracasen en los proyectos nuevos. Por ello actualmente se realiza un planteamiento integrador que pretende utilizar en cada caso las técnicas, métodos y herramientas más acordes con las características del problema planteado al ingeniero. Bajo este punto de vista se plantean nuevos problemas. En primer lugar está la selección de enfoques de desarrollo. Si no existe el mejor enfoque, ¿cómo se hace para elegir el más adecuado de entre el conjunto de los existentes? Un segundo problema estriba en la relación entre las etapas de análisis y diseño. En este sentido existen dos grandes riesgos. Por un lado, se puede hacer un análisis del problema demasiado superficial, con lo que se produce una excesiva distancia entre el análisis y el diseño que muchas veces imposibilita el paso de uno a otro. Por otro lado, se puede optar por un análisis en términos del diseño que provoca que no cumpla su objetivo de centrarse en el problema, sino que se convierte en una primera versión de la solución, lo que se conoce como diseño preliminar. Como consecuencia de lo anterior surge el dilema del análisis, que puede plantearse como sigue: para cada problema planteado hay que elegir las técnicas más adecuadas, lo que requiere que se conozcan las características del problema. Para ello, a su vez, se debe analizar el problema, eligiendo una técnica antes de conocerlo. Si la técnica utiliza términos de diseño entonces se ha precondicionado el paradigma de solución y es posible que no sea el más adecuado para resolver el problema. En último lugar están las barreras pragmáticas que frenan la expansión del uso de métodos con base formal, dificultando su aplicación en la práctica cotidiana. Teniendo en cuenta todos los problemas planteados, se requieren métodos de análisis del problema que cumplan una serie de objetivos, el primero de los cuales es la necesidad de una base formal, con el fin de evitar la ambigüedad y permitir verificar la corrección de los modelos generados. Un segundo objetivo es la independencia de diseño: se deben utilizar términos que no tengan reflejo directo en el diseño, para que permitan centrarse en las características del problema. Además los métodos deben permitir analizar problemas de cualquier tipo: algorítmicos, de soporte a la decisión o basados en el conocimiento, entre otros. En siguiente lugar están los objetivos relacionados con aspectos pragmáticos. Por un lado deben incorporar una notación textual formal pero no matemática, de forma que se facilite su validación y comprensión por personas sin conocimientos matemáticos profundos pero al mismo tiempo sea lo suficientemente rigurosa para facilitar su verificación. Por otro lado, se requiere una notación gráfica complementaria para representar los modelos, de forma que puedan ser comprendidos y validados cómodamente por parte de los clientes y usuarios. Esta tesis doctoral presenta SETCM, un método de análisis que cumple estos objetivos. Para ello se han definido todos los elementos que forman los modelos de análisis usando una terminología independiente de paradigmas de diseño y se han formalizado dichas definiciones usando los elementos fundamentales de la teoría de conjuntos: elementos, conjuntos y relaciones entre conjuntos. Por otro lado se ha definido un lenguaje formal para representar los elementos de los modelos de análisis – evitando en lo posible el uso de notaciones matemáticas – complementado con una notación gráfica que permite representar de forma visual las partes más relevantes de los modelos. El método propuesto ha sido sometido a una intensa fase de experimentación, durante la que fue aplicado a 13 casos de estudio, todos ellos proyectos reales que han concluido en productos transferidos a entidades públicas o privadas. Durante la experimentación se ha evaluado la adecuación de SETCM para el análisis de problemas de distinto tamaño y en sistemas cuyo diseño final usaba paradigmas diferentes e incluso paradigmas mixtos. También se ha evaluado su uso por analistas con distinto nivel de experiencia – noveles, intermedios o expertos – analizando en todos los casos la curva de aprendizaje, con el fin de averiguar si es fácil de aprender su uso, independientemente de si se conoce o no alguna otra técnica de análisis. Por otro lado se ha estudiado la capacidad de ampliación de modelos generados con SETCM, para comprobar si permite abordar proyectos realizados en varias fases, en los que el análisis de una fase consista en ampliar el análisis de la fase anterior. En resumidas cuentas, se ha tratado de evaluar la capacidad de integración de SETCM en una organización como la técnica de análisis preferida para el desarrollo de software. Los resultados obtenidos tras esta experimentación han sido muy positivos, habiéndose alcanzado un alto grado de cumplimiento de todos los objetivos planteados al definir el método.---ABSTRACT---Software development is an inherently complex activity, which requires specific abilities of problem comprehension and solving. It is so difficult that it can even be said that there is no perfect method for each of the development stages and that there is no perfect life cycle model: each new problem is different to the precedent ones in some respect and the techniques that worked in other problems can fail in the new ones. Given that situation, the current trend is to integrate different methods, tools and techniques, using the best suited for each situation. This trend, however, raises some new problems. The first one is the selection of development approaches. If there is no a manifestly single best approach, how does one go about choosing an approach from the array of available options? The second problem has to do with the relationship between the analysis and design phases. This relation can lead to two major risks. On one hand, the analysis could be too shallow and far away from the design, making it very difficult to perform the transition between them. On the other hand, the analysis could be expressed using design terminology, thus becoming more a kind of preliminary design than a model of the problem to be solved. In third place there is the analysis dilemma, which can be expressed as follows. The developer has to choose the most adequate techniques for each problem, and to make this decision it is necessary to know the most relevant properties of the problem. This implies that the developer has to analyse the problem, choosing an analysis method before really knowing the problem. If the chosen technique uses design terminology then the solution paradigm has been preconditioned and it is possible that, once the problem is well known, that paradigm wouldn’t be the chosen one. The last problem consists of some pragmatic barriers that limit the applicability of formal based methods, making it difficult to use them in current practice. In order to solve these problems there is a need for analysis methods that fulfil several goals. The first one is the need of a formal base, which prevents ambiguity and allows the verification of the analysis models. The second goal is design-independence: the analysis should use a terminology different from the design, to facilitate a real comprehension of the problem under study. In third place the analysis method should allow the developer to study different kinds of problems: algorithmic, decision-support, knowledge based, etc. Next there are two goals related to pragmatic aspects. Firstly, the methods should have a non mathematical but formal textual notation. This notation will allow people without deep mathematical knowledge to understand and validate the resulting models, without losing the needed rigour for verification. Secondly, the methods should have a complementary graphical notation to make more natural the understanding and validation of the relevant parts of the analysis. This Thesis proposes such a method, called SETCM. The elements conforming the analysis models have been defined using a terminology that is independent from design paradigms. Those terms have been then formalised using the main concepts of the set theory: elements, sets and correspondences between sets. In addition, a formal language has been created, which avoids the use of mathematical notations. Finally, a graphical notation has been defined, which can visually represent the most relevant elements of the models. The proposed method has been thoroughly tested during the experimentation phase. It has been used to perform the analysis of 13 actual projects, all of them resulting in transferred products. This experimentation allowed evaluating the adequacy of SETCM for the analysis of problems of varying size, whose final design used different paradigms and even mixed ones. The use of the method by people with different levels of expertise was also evaluated, along with the corresponding learning curve, in order to assess if the method is easy to learn, independently of previous knowledge on other analysis techniques. In addition, the expandability of the analysis models was evaluated, assessing if the technique was adequate for projects organised in incremental steps, in which the analysis of one step grows from the precedent models. The final goal was to assess if SETCM can be used inside an organisation as the preferred analysis method for software development. The obtained results have been very positive, as SETCM has obtained a high degree of fulfilment of the goals stated for the method.
Resumo:
El trabajo fin de grado (TFG) consiste en la generación de una herramienta de Data Leak Prevention (DLP), es decir, prevención de fuga de datos. Esta herramienta se desarrolla para Windows y su función es conseguir la autoprotección de los documentos. El concepto de autoprotección hace referencia a dotar al propio documento de capacidad para defenderse por sí sólo de personas no deseadas que quieran acceder al documento, ya sean personas sin acceso a él o personas autorizadas pero no confiables. Para auto proteger los documentos, éstos deben ser cifrados con una contraseña que ni el emisor ni el receptor del documento conozcan, sino que dicha contraseña se genere en base al escenario en que se encuentra el sistema en el momento del cifrado/descifrado del documento. Es decir, en base a atributos del propio sistema, de la red o de la fecha, por ejemplo. Esto se realiza a través de los llamados challenges, piezas de código que analizan tales escenarios para dar como resultado una clave. Los challenges son muchos más eficaces a la hora de proteger el documento que el típico sistema de credenciales, puesto que si la amenaza es el usuario autorizado, conocerá dichas credenciales y por tanto la seguridad que busca una herramienta de DLP es nula. Además, la herramienta ha de ser capaz de restringir los permisos de edición del documento una vez se ha descifrado y se encuentra abierto, como copiar, guardar o imprimir. Se han realizado previamente un estudio criptográfico para elegir el tipo de cifrado y un estudio de una técnica conocida como hooking, que será útil para restringir los permisos, que se exponen en este trabajo.
Resumo:
Introducción El tema de este Trabajo Fin de Grado, TFG a partir de ahora, no es otro que el motivar al usuario final a hacer ejercicio mediante la realización de ejercicios breves e intensos. Para ello, surge la idea de desarrollar una aplicación para la plataforma Android, de nombre AndroFIT , cuyo objetivo es cumplir con la meta descrita anteriormente; que el usuario haga ejercicio de manera diaria. Hacer ejercicio es un hábito saludable que ayuda en gran medida al bienestar físico, mental y emocional de las personas. Sin embargo, no es un hábito practicado por una cantidad inmensa de gente y más pequeño es aún el número de personas que son constantes. Si empezar a hacer ejercicio es complicado, mantener el ritmo, la dedicación y la motivación a medida que pasa el tiempo es más difícil todavía. Los motivos del abandono son de distinta índole: falta de tiempo, falta de ganas, falta de apoyo o incluso el alcanzar la figura y/o el peso que se buscaban. AndroFIT no pretende ser una aplicación más en el mercado de las aplicaciones Health & Fitness, el cual ya dispone de una larga lista de aplicaciones asentadas y reconocidas a nivel mundial como por ejemplo Endomondo o Runtastic, entre otras. Esta aplicación se rige por principios más cercanos a un juego gracias a los principios de gamificación que se han implantado en la aplicación, como los logros y la diversión, entre otros. Este TFG es el primer prototipo funcional de un proyecto de carácter personal cuyo diseño, análisis, desarrollo y mantenimiento han sido llevados a cabo por mí, Abraham Hernández Valencia. Es una aplicación que dista mucho de su versión definitiva y cuya funcionalidad es limitada. En futuras versiones se añadirán funcionalidades y características, que serán descritas en esta memoria, como por ejemplo compartir los resultados en Facebook y Twitter, utilizar la biblioteca de música del usuario así como su perfil en Spotify para personalizar aún más la experiencia o la posibilidad de ejercitar una parte concreta del cuerpo a través de ejercicios específicamente diseñados para esa zona. Abstract The goal of this Degree Project is no other than to motivate users to exercise on a regular basis through short and intense routines. Therefore, an Android application named AndroFIT is developed, which purpose is it to fulfil the goal previously described; encourage daily exercising among users. To work out is a healthy habit which enormously helps physical, psychical and emotional wellbeing of people. However, it is not a trend with a large number of followers and that same number is even smaller if we focus on regular working out. Starting to work out is always challenging but keeping the rhythm, motivation and dedication high all along is even more difficult. Reasons of abandoning vary: lack of time, lack of motivation, lack of support or even not reaching the desired shape or weight. AndroFIT does not aim to be another application inside of the Health & Fitness market, which already has a long list of successful and worldknown applications such as Endomondo and Runtastic. AndroFIT´s principles such as achievements and fun, strictly taken from gamification techniques, make the application appeal more to a game rather than to a fitness application. This project is the first functional prototype of a personal project which design, analysis, development and maintenance have been taken care of by me, Abraham Hernández Valencia. This release is far away from the final one and its functionality is limited. Future versions will include enhanced functionality and extra features which will be described later in this document, like Facebook and Twitter sharing, using the user's music library as well as his Spotify profile to have an even deeper customised experience or being able to train a specific part of the body following a serie of specific designed workouts.
Resumo:
El ruido de ocio que se produce hoy en día, es un problema de salud y de bienestar en la vida de las personas. Sin embargo, no existen modelos que ayuden a prever los problemas que puedan ocasionar. Este proyecto es el primer paso en la creación de estos modelos, centrándose en terrazas y veladores. Los objetivos principales del proyecto son la creación de una base de datos de ruidos de terrazas y la definición de una metodología para la estimación de la potencia que emiten. Para alcanzar estos objetivos, será necesario, en primer lugar, seleccionar una serie de terrazas en las que llevar a cabo las mediciones, definir el método de cálculo y llevar a cabo las mismas. Cuando se alcanza este punto, llega el momento de estudiar los distintos escenarios que han tenido lugar durante la etapa de medidas para poder simularlos en un software de estimación acústica que sea capaz de recrearlos. Si se siguen estos pasos, se podrá saber cuáles son los valores de potencia acústica de las terrazas estudiadas así como las características de emisión de ruido. Creada la base de datos y definida la metodología para la estimación de potencia acústica emitida por terrazas, se analizan los resultados llegando a la conclusión de que el nivel de potencia acústica depende del número de personas en la terraza y las mesas ocupadas, aunque es difícil ver la relación exacta. También se llega a la conclusión de que las terrazas suelen tener un nivel estable de potencia acústica que tiene un valor promedio de entre 76dBA y 78dBA. ABSTRACT. Nowadays, leisure noise is a health and wellness problem in the lives of people. However, there are no models that help anticipate problems that may arise. This project is the first step to creating these models, focusing on terraces. The main objectives are the creation of a database of noise made by terraces and the definition of a methodology for estimating the noise level. To achieve these objectives, it is necessary, first, selecting a series of terraces where measure, define the calculation method and perform the measures. When this point is reached, it is time to study the different scenarios that have taken place during the period of measures to simulate them with an acoustic estimation software that is able to recreate them. If you follow these steps, you will know the values of sound power of the terraces studied as well as noise emission characteristics. Created the database and defined the methodology for estimation of acoustic power emitted by terraces, you can see that the sound power level depends on the number of people on the terrace and tables occupied, although it is difficult see the exact relationship. You also can conclude that the terraces usually have a stable sound power level which has an average value of between 76 dBA and 78dBA.
Resumo:
Los sistemas anticaída se establecen en UNE-EN-363 para evitar o retener caídas de personas sin que las fuerzas de retención causen daños relevantes. Constituyen el último recurso para prevención de caídas tras considerar otras medidas. Este artículo analiza las variables que afectan al comportamiento del sistema: altura de caída, longitud de cuerda de retención, rigidez y amortiguamiento del material de retención, y peso del operario. A tal fin, el fenómeno ha sido simulado con modelos dinámicos de elementos finitos mediante una cuerda elástica y un lastre rígido. Ello permite obtener valores verosímiles de las máximas fuerzas sobre el accidentado y el sistema durante el impacto. Los resultados demuestran el papel fundamental de la proporción entre altura de caída y longitud de cuerda (factor de caída), más determinante que la propia altura de caída. Las elevadas fuerzas máximas obtenidas indican la necesidad de incluir en el modelo absorbedores de energía elastoplásticos, en futuras investigaciones, con el fin de disminuir el impacto a valores razonables.