13 resultados para PARLAMENTO ANDINO – OBJETIVOS Y FUNCIONES – 2007-2010

em Universidad Politécnica de Madrid


Relevância:

100.00% 100.00%

Publicador:

Resumo:

El extraordinario auge de las nuevas tecnologías de la información, el desarrollo de la Internet de las Cosas, el comercio electrónico, las redes sociales, la telefonía móvil y la computación y almacenamiento en la nube, han proporcionado grandes beneficios en todos los ámbitos de la sociedad. Junto a éstos, se presentan nuevos retos para la protección y privacidad de la información y su contenido, como la suplantación de personalidad y la pérdida de la confidencialidad e integridad de los documentos o las comunicaciones electrónicas. Este hecho puede verse agravado por la falta de una frontera clara que delimite el mundo personal del mundo laboral en cuanto al acceso de la información. En todos estos campos de la actividad personal y laboral, la Criptografía ha jugado un papel fundamental aportando las herramientas necesarias para garantizar la confidencialidad, integridad y disponibilidad tanto de la privacidad de los datos personales como de la información. Por otro lado, la Biometría ha propuesto y ofrecido diferentes técnicas con el fin de garantizar la autentificación de individuos a través del uso de determinadas características personales como las huellas dáctilares, el iris, la geometría de la mano, la voz, la forma de caminar, etc. Cada una de estas dos ciencias, Criptografía y Biometría, aportan soluciones a campos específicos de la protección de datos y autentificación de usuarios, que se verían enormemente potenciados si determinadas características de ambas ciencias se unieran con vistas a objetivos comunes. Por ello es imperativo intensificar la investigación en estos ámbitos combinando los algoritmos y primitivas matemáticas de la Criptografía con la Biometría para dar respuesta a la demanda creciente de nuevas soluciones más técnicas, seguras y fáciles de usar que potencien de modo simultáneo la protección de datos y la identificacíón de usuarios. En esta combinación el concepto de biometría cancelable ha supuesto una piedra angular en el proceso de autentificación e identificación de usuarios al proporcionar propiedades de revocación y cancelación a los ragos biométricos. La contribución de esta tesis se basa en el principal aspecto de la Biometría, es decir, la autentificación segura y eficiente de usuarios a través de sus rasgos biométricos, utilizando tres aproximaciones distintas: 1. Diseño de un esquema criptobiométrico borroso que implemente los principios de la biometría cancelable para identificar usuarios lidiando con los problemas acaecidos de la variabilidad intra e inter-usuarios. 2. Diseño de una nueva función hash que preserva la similitud (SPHF por sus siglas en inglés). Actualmente estas funciones se usan en el campo del análisis forense digital con el objetivo de buscar similitudes en el contenido de archivos distintos pero similares de modo que se pueda precisar hasta qué punto estos archivos pudieran ser considerados iguales. La función definida en este trabajo de investigación, además de mejorar los resultados de las principales funciones desarrolladas hasta el momento, intenta extender su uso a la comparación entre patrones de iris. 3. Desarrollando un nuevo mecanismo de comparación de patrones de iris que considera tales patrones como si fueran señales para compararlos posteriormente utilizando la transformada de Walsh-Hadarmard. Los resultados obtenidos son excelentes teniendo en cuenta los requerimientos de seguridad y privacidad mencionados anteriormente. Cada uno de los tres esquemas diseñados han sido implementados para poder realizar experimentos y probar su eficacia operativa en escenarios que simulan situaciones reales: El esquema criptobiométrico borroso y la función SPHF han sido implementados en lenguaje Java mientras que el proceso basado en la transformada de Walsh-Hadamard en Matlab. En los experimentos se ha utilizado una base de datos de imágenes de iris (CASIA) para simular una población de usuarios del sistema. En el caso particular de la función de SPHF, además se han realizado experimentos para comprobar su utilidad en el campo de análisis forense comparando archivos e imágenes con contenido similar y distinto. En este sentido, para cada uno de los esquemas se han calculado los ratios de falso negativo y falso positivo. ABSTRACT The extraordinary increase of new information technologies, the development of Internet of Things, the electronic commerce, the social networks, mobile or smart telephony and cloud computing and storage, have provided great benefits in all areas of society. Besides this fact, there are new challenges for the protection and privacy of information and its content, such as the loss of confidentiality and integrity of electronic documents and communications. This is exarcebated by the lack of a clear boundary between the personal world and the business world as their differences are becoming narrower. In both worlds, i.e the personal and the business one, Cryptography has played a key role by providing the necessary tools to ensure the confidentiality, integrity and availability both of the privacy of the personal data and information. On the other hand, Biometrics has offered and proposed different techniques with the aim to assure the authentication of individuals through their biometric traits, such as fingerprints, iris, hand geometry, voice, gait, etc. Each of these sciences, Cryptography and Biometrics, provides tools to specific problems of the data protection and user authentication, which would be widely strengthen if determined characteristics of both sciences would be combined in order to achieve common objectives. Therefore, it is imperative to intensify the research in this area by combining the basics mathematical algorithms and primitives of Cryptography with Biometrics to meet the growing demand for more secure and usability techniques which would improve the data protection and the user authentication. In this combination, the use of cancelable biometrics makes a cornerstone in the user authentication and identification process since it provides revocable or cancelation properties to the biometric traits. The contributions in this thesis involve the main aspect of Biometrics, i.e. the secure and efficient authentication of users through their biometric templates, considered from three different approaches. The first one is designing a fuzzy crypto-biometric scheme using the cancelable biometric principles to take advantage of the fuzziness of the biometric templates at the same time that it deals with the intra- and inter-user variability among users without compromising the biometric templates extracted from the legitimate users. The second one is designing a new Similarity Preserving Hash Function (SPHF), currently widely used in the Digital Forensics field to find similarities among different files to calculate their similarity level. The function designed in this research work, besides the fact of improving the results of the two main functions of this field currently in place, it tries to expand its use to the iris template comparison. Finally, the last approach of this thesis is developing a new mechanism of handling the iris templates, considering them as signals, to use the Walsh-Hadamard transform (complemented with three other algorithms) to compare them. The results obtained are excellent taking into account the security and privacy requirements mentioned previously. Every one of the three schemes designed have been implemented to test their operational efficacy in situations that simulate real scenarios: The fuzzy crypto-biometric scheme and the SPHF have been implemented in Java language, while the process based on the Walsh-Hadamard transform in Matlab. The experiments have been performed using a database of iris templates (CASIA-IrisV2) to simulate a user population. The case of the new SPHF designed is special since previous to be applied i to the Biometrics field, it has been also tested to determine its applicability in the Digital Forensic field comparing similar and dissimilar files and images. The ratios of efficiency and effectiveness regarding user authentication, i.e. False Non Match and False Match Rate, for the schemes designed have been calculated with different parameters and cases to analyse their behaviour.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Los textos que componen la presente edición, bajo el título de Las primaveras de Ilión, se agrupan en cuatro apartados epigrafiados en contenidos y direcciones diferentes. El primero, «Anphiteatrum», corresponde a diversos discursos académicos dictados con ocasión de acontecimientos culturales muy concretos y organizados cronológicamente como una secuencia de microensayos, apuntes de crítica cultural en torno al discurrir de la construcción de la arquitectura y a la ciudad. No sólo desde los avatares de las propias isciplinas formales o de los radiales mapas de la planificación.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La intensa relación de las infotecnologías con el ámbito educativo no es algo nuevo. Ha ido pasando por diferentes etapas marcadas por uno u otro modelo para el proceso de enseñanza-aprendizaje: tele-enseñanza o educación a distancia, Computer-Based Learning (CBL), E-Learning, Blended Learning o B-Learning son algunos de ellos. En cada caso se han incorporando diferentes tecnologías, desde las cintas magnéticas de audio y vídeo hasta los portátiles, las tabletas y las pizarras electrónicas, pasando por la vídeoconferencia o la mensajería instantánea. Hoy hablamos de E-Learning 2.0 (Downes, 2005) y Technology-Enhanced Learning (TEL). Todos esos modelos y sus metáforas asociadas han ido integrando, además de las diferentes capacidades tecnologías disponibles, distintas teorías pedagógicas, empezando por las tradicionalmente conocidas en la literatura del ámbito de la psicología educativa: el conductismo, el constructivismo o el constructivismo social. En la tabla 1 puede encontrar el lector esa asociación sintética, conjeturando con la definición de los roles de enseñante y aprendiz en cada modelo. Los cambios de “paradigma” que habitualmente obvian la naturaleza original de este término para generalizarlo de forma poco rigurosa- anunciados y demandados en el ámbito educativo durante décadas se articulaban en (Barr y Tagg, 1995) alrededor de elementos como la misión y los objetivos de las instituciones educativas, la estructuración de los procesos educativos, su coste y productividad, los roles de los diferentes actores involucrados, la definición teórica del proceso de enseñanza-aprendizaje o las métricas de tal proceso. Downes (2005) lo resume de forma muy sintética con la siguiente afirmación (la traducción es mía): “el modelo de E-Learning que lo define en términos de unos contenidos, producidos por los editores, organizados y estructurados en cursos y consumidos por los estudiantes, se está dando la vuelta. En lo que se refiere al contenido, es mucho más probable que sea usado antes que “leído” y, en cualquier caso, es mucho más probable que sea producido por los propios estudiantes que por los autores especializados en la producción de cursos. En lo que se refiere a la estructura, es más probable que se parezca más a un idioma o una conversación que a un manual o libro de texto”. La irrupción en la escena tecnológica de la Web 2.0 como fenómeno social, sociotécnico en los términos de (Fumero, Roca y Sáez Vacas, 2007), ha hecho que se recuperen antiguas ambiciones teóricas asociadas a algunas de aquellas teorías clásicas, especialmente las que tienen que ver con el constructivismo cognitivo de J. Piaget (1964) y el constructivismo social de L. Vygotsky (1978). Esas teorías, enriquecidas con apuestas más atrevidas como el “conectivismo” (Siemens, 2004), han dado lugar al relanzamiento de modelos pedagógicos como el aprendizaje auto-gestionado o auto-dirigido, con sus matices de formulación (Self-Managed vs. Self-Directed Learning) que se han ido complementando a lo largo del tiempo con modelos de intervención asistidos, basados en un proceso de “andamiaje” o ‘scaffolding’ (véase en el capítulo 3, bajo el epígrafe “Psicología educativa para ingenieros”). Hoy podemos ver cómo, mientras se empieza a consolidar la reorganización del escenario institucional de la Educación Superior en Europa, tras el agotamiento de todos los plazos y las prórrogas contempladas por el acuerdo de Bolonia para su implementación véase, por ejemplo, (Ortega, 2005) y su reflexión acerca de los “ingenieros creativos” en relación con esta reforma- se ha vuelto a plantear la implantación de procesos educativos basados en el aprendizaje informal (frente al formal y dando lugar a la definición del aprendizaje “no formal”), procesos que realmente se implementan como experiencias de aprendizaje mutuo (peer learning), en comunidad y ayudados por unas infotecnologías que, a pesar de su característica “cotidianeidad” (véase en el Prontuario el epígrafe “Tecnologías para la VIda Cotidiana”) siguen arrastrando el atributo de “educativas”. Evidentemente, la “tecnificación” de las instituciones de enseñanza superior ha ido consolidando algunos elementos tecnológicos que hoy son estándares de facto, como por ejemplo los sistemas integrados de gestión conocidos por sus siglas anglosajonas, LMS (Learning Management Systems). Los enormes esfuerzos, organizativos y técnicos, de integración que se han ido desarrollando en ese sentido véase por ejemplo en (Aguirre, 2012)- han permanecido un tanto insensibles al desarrollo paralelo que, animados por la proliferación de herramientas más ricas y accesibles, llevaban a cabo los usuarios (profesores y alumnos; enseñantes y aprendices) que, manteniendo algún tipo de relación con una de esas instituciones (véase el escenario a que dan lugar en la figura 4) hacían un uso creativo de las tecnologías que la Red ponía a su alcance. En el escenario actual aun predominando la excitación tecnológica- han acabado encontrándose ambas corrientes, generando un nuevo espacio de incertidumbre (léase de oportunidades) en el que se encuentran las soluciones establecidas, en forma de LMS, con las primeras formulaciones de esas combinaciones creativas de herramientas, metodologías y modelos, también conocidos como entornos personales de aprendizaje (Personal Learning Environments, PLE), que han revitalizado otras propuestas tecnológicas, como los e-Portfolios, o pedagógicas, como los contratos de aprendizaje (véase su aplicación en el caso de estudio del proyecto iCamp, en el capítulo 4). Es en ese escenario y desde una perspectiva interdisciplinar, híbrida, mestiza y conciliadora, donde tiene sentido plantear, como objeto de un trabajo de investigación consistente, la consolidación de un modelo que nos ayude a contextualizar la situación de cambio infotecnológico, organizativo y social a la que nos enfrentamos y que nos guíe en su instrumentalización para afrontar “situaciones de complejidad” similares que, sin duda, tendremos que abordar en el medio plazo. Esto me lleva a contemplar el problema desde una perspectiva suficientemente amplia, pero con un foco bien definido sobre los procesos educativos de enseñanza y aprendizaje- en el ámbito de la Educación Superior y, específicamente, en lo referente a la formación de los infoprofesionales. Un escenario en el que se dan cita necesariamente la Tecnología Educativa y la Web 2.0 como fenómeno sociotécnico y que me llevan al análisis de modelos de intervención basados en lo que se conoce como “software social” en sentido amplio, considerando herramientas, tecnologías y metodologías-, ensayados en ese ámbito extendido a la capacitación y la formación profesionales. Se establece, por tanto, como escenario del trabajo de investigación y ámbito para el diseño de aquellas intervenciones- el de las organizaciones educativas, aplicando la definición sintética que recoge el propio Fernando Sáez Vacas (FSV) de la reingeniería de procesos (la negrita y las anotaciones, entre paréntesis, son mías), “que consiste en reinventar la forma de desarrollar las operaciones de la empresa (institución educativa, universitaria por ejemplo), partiendo de nuevos enfoques muy orientados a las necesidades de los clientes (los aprendices o estudiantes), con rotura de las tradicionales formas organizativas verticales y del desempeño humano y un uso masivo de las modernas tecnologías de la información y de la comunicación”; y que se aplicarán de acuerdo con la integración de los elementos metodológicos y conceptuales, que conformarán las bases de una SocioTecnología de la Información y Cultura (STIC) y que hunden sus raíces en la complejidad y la sistémica (véase en el Prontuario). El objetivo genérico que se planteaba en la propuesta original de tesis doctoral era ambicioso: “desarrollar y potenciar las bases de un ‘movimiento’ de I+D+i (+d) con “d” minúscula de difusión, divulgación, diseminación-, sobre socioinfotecnocultura enfocado en el contexto de este trabajo específicamente en su difusión educativa y principalmente en el ámbito de la Educación Superior” y para la formación de los infoprofesionales. El objetivo específico del mismo era el de “diseñar un (conjunto) instrumental cognitivo básico, aunque relativamente complejo y denso en su formulación, para los infoprofesionales, considerados como agentes activos de la infotecnología con visión y aplicación social”. La tesis de partida es que existe en palabras de FSV- la necesidad “de desarrollar educativamente los conocimientos y modelos socioinfotecnoculturales para nutrir una actitud en principio favorable a los progresos infotecnológicos, pero encauzada por una mentalidad “abierta, positiva, crítica, activa y responsable” y orientar con la mayor profundidad posible a los infoprofesionales y, en un grado razonable, a los infociudadanos hacia usos positivos desde puntos de vista humanos y sociales”. Justificar, documentar y caracterizar esa necesidad latente y en muchos aspectos patente en el actual escenario educativo- será parte importante del trabajo; así como elaborar los elementos necesarios que ofrezcan coherencia y consistencia suficientes al marco conceptual de esa nueva “socioinfotecnocultura” que en la formulación adoptada aquí será el marco tecnocultural básico de una SocioTecnología de la Información y Cultura (STIC), debiendo integrar esos elementos en el proceso educativo de enseñanza-aprendizaje de tal manera que puedan ser objeto de diseño y experimentación, particularizándolo sobre los infoprofesionales en primera instancia, aunque dentro de un proyecto amplio para el desarrollo y promoción social de una STIC. Mi planteamiento aquí, si bien incorpora elementos y modelos considerados previamente en algunos de mis trabajos de análisis, investigación, experimentación y diseminación realizados a lo largo del periodo de formación modelos de intervención desarrollados en el proyecto iCamp, ampliamente documentados en (Fiedler, 2006) o (Fiedler y Kieslinger, 2007) y comentados en el capítulo 4-, en gran parte, por simple coherencia, estará constituido por elementos propios y/o adaptados de FSV que constituirán el marco tecnocultural de una teoría general de la STIC, que está en la base de este planteamiento. La asimilación en términos educativos de ese marco tecnocultural supondrá un esfuerzo considerable de reingeniería y se apoyará en el circuito cognitivo individual ampliado de “información-esfuerzo-conocimiento-esfuerzo-acción” que se recoge en el Prontuario (figura 34) y que parte de (Sáez Vacas, 1991a). La mejor forma de visualizar la formulación de ese proceso educativo es ponerlo en los términos del modelo OITP (Organización, Individuos, Tecnologías y Procesos) tal y como se ilustra en el Prontuario (figura 25) y que se puede encontrar descrito brevemente por su autor en (Sáez Vacas, 1995), de la misma forma que se planteaba la experiencia INTL 2.0 en (Sáez Vacas, Fumero et al., 2007) y que es objeto de análisis en el capítulo 5. En este caso, el plano que atraviesa el Proceso (educativo) será el marco tecnocultural de nuestra STIC; la Organización será, en genérico, el ámbito institucional de la Educación Superior y, en concreto, el dedicado a la formación de los infoprofesionales entendidos en el sentido amplio que se planteaba en (Sáez Vacas, 1983b)-, que serán los Individuos, la componente (I) del modelo OITP. Este trabajo de tesis doctoral es uno de los resultados del proyecto de investigación propuesto y comprometido con esos objetivos, que se presenta aquí como un “proyecto tecnocultural” más amplio (véase el epígrafe homónimo en el capítulo 1). Un resultado singular, por lo que representa en el proceso de formación y acreditación del investigador que lo suscribe. En este sentido, este trabajo constituye, por un lado, la base de un elemento divulgativo que se sumará a los esfuerzos de I+D+i+d (véase textículo 3), recogidos en parte como resultados de la investigación; mientras que, por el otro lado, incorpora elementos metodológicos teóricos originales que contribuyen al objetivo genérico planteado en la propuesta de tesis, además de constituir una parte importante de los procesos de instrumentalización, recogidos en parte en los objetivos específicos de la propuesta, que en este entregable formarán parte de líneas futuras de trabajo, que se presentan en el capítulo 6 de conclusiones y discusión de resultados. Dentro de esos elementos metodológicos, teóricos, resulta especialmente relevante en términos de los objetivos planteados originalmente-, la simplificación instrumental de las aportaciones teóricas previas, que han sido fruto del esfuerzo de análisis sistemático e implementación de diferentes intervenciones en el ámbito educativo, que se centran específicamente en el proyecto iCamp (véase en el capítulo 4) y la experiencia INTL 2.0 (véase en el capítulo 5, junto a otras experiencias instrumentales en la UPM). Esa simplificación, como elaboración teórica y proceso de modelización, se realiza extrayendo elementos de la validación teórica y experimental, que de alguna forma proporcionan los casos de estudio (capítulos 4 y 5), para incorporarlos como argumentos en la consolidación de un enfoque tecnocultural que está en la base de la construcción de una SocioTecnología de la Información y Cultura (STIC) consistente, basada en el sistemismo aplicado en diferentes situaciones de complejidad y que requerirán de una inter/multidisciplinariedad que vaya más allá de la simple “yuxtaposición” de especialidades que conocemos en nuestra actual Universidad (me refiero, con mayúscula, a la institución universitaria en toda su extensión). Esa será la base para el diseño y la construcción de experiencias educativas, basadas en el generalismo sistémico, para infoprofesionales (véase en el capítulo 1) en particular e infociudadanos en general, que nos permitirán “cimentar, con suficientes garantías, un cierto nivel de humanismo en el proceso de construcción de una sociedad de la información y del conocimiento”. En el caso de iCamp pudimos experimentar, desde un enfoque (véase en el capítulo 4) basado en diseño (Design-based Research, DbR), con tres elementos que se pueden trasladar fácilmente al concepto de competencias o incluso en su implementación funcional, como habilidades o capacidades instrumentales percibidas, léase ‘affordances’- y que introducen tres niveles de complejidad asociados (véase, en el Prontuario, el modelo de tres niveles de complejidad), a saber el aprendizaje auto-dirigido (complejidad individual), la colaboración (complejidad sistémica) y la construcción de una red de aprendizaje (complejidad sociotécnica). Esa experimentación nos llevó a evolucionar el propio concepto de entorno personal de aprendizaje (PLE, Personal Learning Environment), partiendo de su concepción originalmente tecnológica e instrumental, para llegar a una concepción más amplia y versátil desde el punto de vista de la intervención, basada en una visión “ecológica” de los sistemas abiertos de aprendizaje (véase en el capítulo 3). En el caso de las experiencias en la UPM (capítulo 5), el caso singular de INTL 2.0 nos muestra cómo el diseño basado en la sistémica aplicada a problemas (léase situaciones de complejidad específicas) no estructurados, como los procesos de enseñanza-aprendizaje, dan lugar a intervenciones coherentes con esa visión ecológica basada en la teoría de la actividad y con los elementos comunes de la psicología educativa moderna, que parte del constructivismo social de L. Vygotsky (1978). La contraposición de ese caso con otras realizaciones, centradas en la configuración instrumental de experiencias basadas en la “instrucción” o educación formal, debe llevarnos al rediseño o al menos a la reformulación- de ciertos componentes ya consolidados en ese tipo de formación “institucionalizada” (véase en el capítulo 5), como pueden ser el propio curso, unidad académica de programación incuestionable, los procedimientos de acreditación, certificación y evaluación, ligados a esa planificación temporal de “entrega” de contenidos y la conceptualización misma del “aula” virtual como espacio para el intercambio en la Red y fuera de ella. Todas esas observaciones (empíricas) y argumentaciones (teóricas) que derivan de la situación de complejidad específica que aquí nos ocupa sirven, a la postre tal y como requiere el objetivo declarado de este trabajo de investigación- para ir “sedimentando” unas bases sólidas de una teoría general de la SocioTecnología de la Información y Cultura (STIC) que formen parte de un marco tecnocultural más amplio que, a su vez, servirá de guía para su aplicación en otras situaciones de complejidad, en ámbitos distintos. En este sentido, aceptando como parte de ese marco tecnocultural las características de convivencialidad y cotidianeidad (véase, en el Prontuario el epígrafe “Tecnologías para la VIda Cotidiana, TVIC”) de una “infotecnología-uso” (modelo de las cinco subculturas infotecnológicas, también recogido en el Prontuario), consideraremos como aportaciones relevantes (véase capítulo 2): 1) la argumentación sociotécnica del proceso de popularización de la retórica informática del cambio de versión, de la que deriva el fenómeno de la Web 2.0; 2) el papel estelar del móvil inteligente y su capacidad para transformar las capacidades percibidas para la acción dentro del Nuevo Entorno Tecnosocial (NET), especialmente en la situación de complejidad que nos ocupa, que ya desarrollaran Rodríguez Sánchez, Sáez Vacas y García Hervás (2010) dentro del mismo marco teórico que caracterizamos aquí como enfoque STIC; 3) y la existencia de una cierta “inteligencia tecnosocial”, que ya conjeturara FSV en (Sáez Vacas, 2011d) y que cobra cada vez más relevancia por cuanto que resulta coherente con otros modelos consolidados, como el de las inteligencias múltiples de Gardner (2000), así como con las observaciones realizadas por otros autores en relación con la aparición de nuevos alfabetismos que conformarían “una nueva generación de inteligencia” (Fumero y Espiritusanto, 2011). En rigor, el método científico entiéndase este trabajo como parte de un proceso de investigación tecnocientífica- implica el desarrollo de una componente dialéctica asociada a la presentación de resultados; aunque, evidentemente, la misma se apoya en una actitud crítica para la discusión de los resultados aportados, que debe partir, necesariamente, como condición sine qua non de un profundo escepticismo debidamente informado. Es ese el espíritu con el que se ha afrontado la redacción de este documento, que incluye, en el capítulo 6, una serie de argumentos específicamente destinados a plantear esa discusión de resultados a partir de estas aportaciones que he vertido sintéticamente en este resumen, que no persigue otra cosa que motivar al lector para adentrarse en la lectura de este texto al completo, tarea que requiere de un esfuerzo personal dirigido (véase el epígrafe “Cómo leer este texto” en el índice) que contará con elementos de apoyo, tanto hipertextuales (Fumero, 2012a y 2012b) como textuales, formando parte del contenido de este documento entregable de tesis doctoral (véase el Prontuario, o el Texticulario).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesis analiza la realidad residencial construida en los municipios del Área Metropolitana de Madrid durante la democracia, en términos de localización, cantidad y calidad/cualidad, y su relación con el desarrollo de las políticas de planeamiento y de vivienda. La pregunta central que ha guiado la investigación es la siguiente: ¿cómo han incidido los instrumentos de política de vivienda y de planeamiento urbanístico en el crecimiento residencial de los municipios del Área Metropolitana de Madrid? Se trata de poner en relación dos políticas públicas orientadas por la Administración en sus distintos niveles de actuación: una de carácter territorial, el planeamiento urbanístico -cuya ejecución es de competencia municipal-, y otra de carácter sectorial, las políticas de vivienda -definidas por la Administración Central y Autonómica-. Al considerar la política de vivienda como el resultado de la política financiera, la política fiscal y la política de suelo, se ha observado cómo en España las dos primeras suponen más del 70% de la intervención presupuestaria en vivienda. Esta investigación se ha centrado particularmente en la tercera, la política de suelo, por su vinculación directa con el planeamiento urbanístico, pero sin dejar de tener en cuenta las dos primeras, no sólo por su implicación en el gasto público, sino porque han tenido tanto efecto, o más, en la conformación de la ciudad como ha podido tenerlo el planeamiento. La primera parte de la tesis se centra en el estudio de las políticas, sus objetivos e instrumentos (normativos y de planificación), mientras que en la segunda parte se analiza la realidad construida, por medio de una serie de variables e indicadores relacionados con la producción residencial (suelo y viviendas); en la tercera se presenta la parte de análisis y las conclusiones generales. Al cruzar los objetivos y los instrumentos de ambas políticas se ha podido concluir con una propuesta de periodización evidenciando las ontinuidades, cambios o transformaciones: después de una etapa de transición de 1975 a 1978, coincide con los años de la transición democrática, en el que se definen las bases de las nuevas políticas-, se han podido diferenciar tres períodos: 1979-1989, 1990-1997 y 1998-2007. El primer período corresponde a los años en los que se fue construyendo todo el aparato institucional regulador con las nuevas administraciones que surgieron de la democracia. El segundo período, aunque comenzó con la aprobación de la Ley del Suelo de 1990 como instrumento clave del planeamiento regulador, se caracterizó por el cuestionamiento del modelo intervencionista y por los primeros planteamientos de liberalización. Finalmente, en el tercer período se pusieron las bases normativas de la liberalización del suelo en España, con la reforma de la Ley del Suelo de 1998 y otras medidas “remediales”. Finalmente, se presenta el análisis de los resultados sobre la realidad construida, teniendo como clave de interpretación la periodización propuesta a partir de las políticas, con el propósito de conocer cómo han podido incidir en el crecimiento residencial del AMM. Por tanto, la tesis aborda la inquietud de cuándo, cómo y dónde las políticas públicas han construido ciudad y han generado barrios, pues también trata de analizar los espacios urbanos que han sido el resultado físico de dichas políticas (aspectos de los conjuntos residenciales, el entorno inmediato y su relación con el tejido urbano existente), y no sólo de mostrar cantidades de viviendas construidas. Posteriormente, el estudio se centra en el análisis de las actuaciones públicas sobre suelos destinados a uno de los llamados “usos débiles”, las viviendas protegidas. Éstas se han beneficiado, de una u otra manera, de las ayudas económicas que se incluyen en los planes de vivienda y, por ello, están sujetas a unos parámetros definidos por la normativa vigente en cada caso. Ha interesado realizar una valoración de las mismas a partir de criterios de integración social y funcional, y de equilibrio territorial. ABSTRACT The PhD thesis analyses the residential areas built in the Metropolitan Area of Madrid, in terms of location, quality and quantity, and the relationship to the resulting built environment planning and housing policies. Its cover a period of tree decades since the onset of democracy in Spain in 1975 up to the beginning of the great recession starting 2007. The central question that has guided the research is the following: how the instruments of housing policy and urban planning have influenced the residential growth of the municipalities of the Metropolitan Area of Madrid? It is about putting together two different public policies that are also carried out at different levels of government: spacial and urban planning whose execution is under municipal jurisdiction under principles and guidelines defined at a regional scale; and the sectorial housing policies which are mostly defined by the Nacional and Regional governments and are very interlinked with the wider economic policies of the country. When considering housing policy as the result of financial, fiscal and land policy, it has been noted in Spain that instruments under the first two types of measures (financial and fiscal) account for over 70% of the housing budget intervention. This research has particularly focused on the third, Land Policy, because of its direct link to urban planning. Nevertheless, the research also considers f inancial and f iscal pol icies, not only because of thei r signi f icant level of publ ic spending, but al so because of thei r great impacto n shaping the way the ci ty is bui l t . The first part of the thesis focuses on the study of the policies, objectives and instruments (housing and planning), while the second part analyses the built reality by means of a number of variables and indicators related to the housing production (land and housing). In the third part the analysis and general conclusions are presented. After relating the objectives and instruments of both policies, the thesis concludes with a proposal for periodization showing continuities, changes and transformations: after a transition period from 1975 to 1978 coinciding with the years of the democratic transition, in which the basis of the new policies were defined- tree periods (1979-1989, 1990- 1997 and 1998-2007) have been d i s t i n g u i s h e d . The first period covers the years in which a new institutional apparatus wa s b u i l t wi t h t h e n e w a r r a n g eme n t s t h a t eme r g e d from democracy. The second period, even though it began with the approval of the Land Act 1990 as key element of the regulatory planning, was characterized by the questioning of public intervention and early approaches to liberalization. Finally, in the third period, the normative basis of liberalization was set up in Spain, with the reform of the Land Act 1998 and other “corrective” measures. At a final point, the analisys of the results on the reality constructed is presented having as a key of interpretation the periodization proposed. This provides tools for interpreting how policies did affect residential growth in the Metropolitan Area of Madrid. Therefore, the thesis addresses the issues of when, how and where public policies have inf luenced and guided the development of resident ial áreas in the región dur ing this t ime f rame. I t is also concerned with analysing those urban spaces that have been the physical result of such policies (aspects of residential complexes, the immediate environment and its relationship with the existing urban infraestructure), going beyond the analisys of statistical data. Subsequently, the study focuses on the analysis of public actions on land for the so-called "weak uses" particularly social housing. These have benefited in one way or another, of financial assistance included in housing plans and, therefore, are subject to some parameters defined by the regulations in force in each case.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

. Año 2006. Proyecto Piloto de Diseño y Aplicación del Sistema de Seguimiento de la Biodiversidad Española . Año 2007. Ley 42/2007 del Patrimonio Natural y de la Biodiversidad. Titulo I, Capitulo I, Artículo 9. Objetivos y contenido del Inventario Español del Patrimonio Natural y de la Biodiversidad. Artículo 10. Sistema de Indicadores. Artículo 11. Informe sobre el estado del Patrimonio Natural y de la Biodiversidad. . Año 2008. Primera propuesta metodológica coordinada por Felipe Domínguez. . Año 2009. Taller en el IV Congreso de la SEBICOP de Almería . Año 2009. Reunión en Valencia . Finales del año 2009 y 2010. Finalización de la metodología y elaboración de la primera propuesta de trabajo de campo; coordinado por Felipe Martínez. . Año 2010. Estructura organizativa. Reunión en Madrid con Responsables Territoriales . Año 2010-2012*. Primera fase de trabajo de campo

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El proyecto ha sido realizado dentro del Programa de Proyectos Fin de Carrera para el Desarrollo (PFCD), correspondiente a la IV Convocatoria. Se realizó en el marco del proyecto financiado por la Universidad Politécnica de Madrid,“Reducción de la vulnerabilidad alimentaria de las familias rurales de San José de Cusmapa”. Con el título de “Manuales técnicos para la elaboración dehuertos de patio sostenibles y trasformación de la producción”, elproyecto está formado por tres documentos, la memoria y sus anejos, presupuesto y manuales técnicos diseñados. Este proyecto no sólo tiene el carácter académico de Proyecto Fin de Carrera, sino también, educativo y humano. Es una herramienta para el desarrollo humano, que mediante la educación agronómica (uno de los objetivos específicos), trata de mejorar los índices de desarrollo (objetivo general). Durante el periodo de nueve meses(octubre 2010 a junio 2011) se realizó el trabajo de campo, mediante la recogida de información, aprendizaje de técnicas, ensayos, y otras experiencias vividas. Con los objetivos y el análisis de la situación actual se realizaron tres manuales técnicos, resultado final del proyecto. El primero,recoge las técnicas de elaboración de un huerto y los cultivos que se pueden sembrar. El segundo, está centrado en el control y prevención de plagas y enfermedades. El tercero se divide en dos bloques, el primero de conservación y trasformación de alimentos, de forma casera, y el segundo bloque la importancia de la dieta y la nutrición. Los manuales han sido diseñados para que estén al alcance de las personas que lo necesiten y de las cuales, muchas de ellas, han colaborado en su realización. El compromiso no solo es académico, sino también humano y emocional. El trabajo diario, los ensayos,los errores y aciertos, la convivencia con los beneficiarios y el aprendizaje continuo, me han permitido obtener una educación profesional y social, ayudándome a desarrollarme como persona.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El papel de la tecnología en las organizaciones es mucho más relevante, lo que en su momento era innovación, hoy por hoy es un soporte a varias funciones del negocio y la automatización de procedimientos vitales para el alcance de la misión de la organización. Esto se debe a que la tecnología ha transformado y sigue transformando los procesos de negocio que soportan los servicios y ayudan a conseguir los objetivos y la misión de la organización. Un activo tecnológico cada vez más importante para el buen funcionamiento de las organizaciones es el software. Dada la complejidad de los procesos en los que interviene, cada vez su importancia es más crítica y los defectos en su fabricación son el objetivo fundamental de los delincuentes y uno de los mayores riesgos para las organizaciones. Hay que considerar que no todas las organizaciones construyen o diseñan software, algunas veces lo hace un tercero, lo adquieren a otra organización, o puede ser contratado como SaaS. Pero durante el proceso de construcción, adquisición o contrato ¿Se han tenido en cuenta las amenazas y nuevos ambientes de riesgos a los que se expone la organización? ¿Se ha considerado la relación entre el software y los servicios de alto valor de la organización? ¿Existen planes de seguridad y continuidad sobre los servicios? Tendremos que establecer estrategias de Protección y Sostenimiento que garanticen que el software tendrá la máxima disponibilidad posible para funcionar posteriormente a un evento de interrupción o estrés así sea en condiciones degradadas evitando paradas en los servicios, lo que llamamos resiliencia operacional. Esto será una estrategia desde la dirección hasta la operación, asegurando que durante todo el ciclo de vida del software y durante su administración se sigan los procedimientos, planes, metodologías y técnicas necesarias que aseguren que el software es resiliente y que cumple con los requisitos de resiliencia a nivel operacional. Esta guía busca orientar a la alta gerencia, a los mandos medios y a nivel profesional en las prácticas que implican asegurar la resiliencia operacional del software y la resiliencia del software como tal, y está basada en marcos metodológicos y de control, estándares, modelos y mejores prácticas actuales que soportan los procesos que implica la consideración de la resiliencia operacional sobre el software. Del mismo modo se considerarán los tipos de software y las prácticas a implantar para cada uno de ellos, orientado al proceso que implica y a las responsabilidades que demandan.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En la presente tesis se propone un estudio del Pantheon, y en general de las cúpulas clásicas romanas, partiendo de la relación entre la bibliografía y documentación histórica, y el análisis geométrico y constructivo de algunos de los edificios considerados. La variedad de dimensiones, geometrías y sistemas constructivos aplicados en lugares y condiciones diferentes es muy grande. La información conservadas en los restos de estas arquitecturas suponen todavía una fuente por descubrir y explorar. Entre los múltiples aspectos que surgen al ocuparse del Pantheon y en general de cúpulas clásicas romanas, en este trabajo de tesis doctoral se elige enfocar principalmente el estudio en la geometría del intradós de las cúpulas. La potencialidad del hormigón romano se expresa con especial evidencia en el diseñ o y construcción de las superficies internas de las bóvedas, donde se persigue la experimentación de geometrías distintas. La comprensión de las técnicas constructivas empleadas para generar estas formas e incrementar sus dimensiones es sin duda una parte fundamental de la investigación, y se configura como un marco de conocimientos necesarios para el análisis de las cúpulas. El trabajo se desarrolla gracias a la aplicación de métodos de levantamiento indirecto actuales, que permiten la restitución métrica de objetos complejos con agilidad y precisión. Mediante el uso correcto de los instrumentos se consigue estudiar estructuras inaccesibles sin la necesidad de establecer un contacto directo con las superficies a medir. El uso del método de la fotogrametría digital de imágenes cruzadas y del escáner láser impulsan un continuo estudio crítico de los sistemas y una comparación directa entre ellos, generando paralelamente la información necesaria para poder aportar algunas consideraciones sobre la conformación de los objetos estudiados. La investigación se desarrolla, por tanto, entre el estudio comparado de las herramientas y de los sistemas de medición y el análisis geométrico-constructivo propio de las arquitecturas seleccionadas. La tesis abarca el estudio de las cúpulas clásicas romanas seleccionando una serie de edificios desde los primeros ejemplos del siglo II a.C. hasta las ultimas construcciones del siglo IV d.C.. Basándose en las características del conjunto de los edificios tratados, se estudia el desarrollo de esas formas constructivas en el tiempo y se reconoce en ellos la presencia de algunos elementos recurrentes. Además, la posibilidad de observar los restos antiguos conservados parcialmente o totalmente permite avanzar una hipotética clasificación de las geometrías de los intradoses de las cúpulas, poniéndola en relación con su propio desarrollo histórico. La cúpula del Pantheon precisa de un análisis particular y detallado. El estudio intenso de ese objeto arquitectónico tan sorprendente se perpetua desde hace numerosos siglos y el monumento todavía ofrece interrogantes abiertos. Un levantamiento arquitectónico actual del intradós de la cúpula puede generar material útil para realizar estudios sobre su conformación. Debido a la notoriedad del monumento, sus increíbles características y su perfecto estado de conservación, el Pantheon ha sido representado gráficamente desde hace siglos. Desde las primeras representaciones bidimensionales en planta, alzado y sección de época renacentista hasta las más modernas restituciones mediante escáner láser tridimensional, el Pantheon queda documentado por numerosos autores, que operan en épocas y con herramientas distintas. La posibilidad de confrontar las restituciones gráficas del mismo objeto a lo largo de un periodo de tiempo tan extenso, abre la investigación hacia un estudio comparativo de las técnicas de levantamiento de la antigüedad. Entre las bóvedas clásicas romanas, el Pantheon se considera la expresión máxima de las posibilidades de las técnicas y materiales, siendo al mismo tiempo parte de una cadena de evolución continua de la forma en construcción. Episodios de la historia de la arquitectura romana anteriores o posteriores al Pantheon se prestan para un análisis comparado. Como casos de estudio especifico se eligen el llamado Templo de Mercurio en Baia, cerca de Nápoles, la sala circular de las Termas con Heliocaminus en la Villa Adriana y el Mausoleo de Santa Constanza en Roma. Los tres ejemplos comparten el mismo principio constructivo y la forma supuestamente semiesférica del intradós de la cúpula, aun presentando características diferentes que dependen de sus funciones, dimensiones, época y sistemas de construcción. El método empleado en los estudios realizados es la fotogrametría digital de imágenes cruzadas, que precisa de herramientas y programas informáticos de fácil alcance para cualquier operador. La funcionalidad y eficacia de este sistema permite operar en condiciones desfavorables y perseguir la precisión de la medición. Mediante el empleo de la fotogrametría digital de imágenes cruzadas se consigue desarrollar con gran eficacia el trabajo de restitución de los ejemplos analizados. Únicamente en el caso del Pantheon, a la restitución fotogramétrica se suma un levantamiento mediante escáner láser tridimensional. El empleo del escáner láser permite registrar una enorme cantidad de información en tiempos muy reducidos, además de asegurar unos elementos de referencia útiles para la orientación y escala de los modelos fotogramétricos. Considerado el uso actual y eficiente del escáner láser en la documentación del patrimonio arquitectónico y arqueológico, su aplicación contribuye con fuerza al desarrollo de este trabajo de investigación. La descripción de las herramientas y de las técnicas empleadas para realizar las restituciones gráficas se considera parte del levantamiento, como documentación fiel del trabajo realizado y, como consecuencia, de las medidas obtenidas. Por estas razones se dedica un apartado de la tesis a la explicación de las fases de los trabajos de restitución y a la descripción de las características técnicas de las herramientas empleadas para ello. Los programas informáticos integrados posibilitan la comparación entre los resultados para verificar la aproximación y exactitud de las restituciones. Se presta atención a la comparación entre distintos levantamientos de un mismo objeto realizados con un solo sistema, pero en repetidas fases, o con distintos sistemas y herramientas. Es de especial interés la comparación entre los resultados de los levantamientos del intradós de la cúpula del Pantheon realizados mediante fotogrametría digital de imágenes cruzadas y con el escáner láser tridimensional. Una observación crítica de los datos generales asícomo de los detalles de los modelos de restitución ofrece material suficiente para formular alguna consideración acerca de dos métodos de levantamiento muy distintos. Como en todo proceso de levantamiento parte de la exactitud de los resultados depende de la labor critica, interpretativa y manual del operador. El análisis contrastado entre las distintas versiones de restitución de un mismo objeto es útil para una mejor aproximación a las medidas reales. Para poder efectuar los análisis geométricos del intradós de las cúpulas, se introduce una fase de estudio critico de los datos derivados de los levantamientos. La investigación se basa en la búsqueda de un modelo geométrico que se aproxime a los puntos levantados y que se genere a partir de unos rigurosos cálculos de promedios. Del modelo de restitución de puntos, que mantiene las irregularidades propias del objeto construido, se pasa a la creación de un modelo regular definido por claras leyes geométricas. La comparación directa entre las posiciones individuales de los puntos levantados y el modelo geométrico contribuyen a la comprensión del objeto de estudio, detectando irregularidades o deformaciones donde existan, y ofreciendo unos datos objetivos y cuantificables. Los análisis desarrollados evidencian la importancia de integrar la restitución métrica de los edificios con el estudio de su historia, geometría y construcción. El levantamiento como sistema de entendimiento integral de la arquitectura estimula la continua revisión de los resultados y el estudio comparado de la información derivada del análisis directo del edificio, mientras que la documentación conservada enriquece la investigación. Los trabajos de levantamiento y análisis realizados generan documentación nueva, ofreciendo un estudio crítico de la documentación disponible sobre los argumentos tratados y difundiendo el conocimiento de detalles del estado actual de las cúpulas estudiadas. Sin embargo, los interrogantes sobre los sistemas constructivos empleados para la construcción de las cúpulas estudiadas, y en particular del Pantheon, quedan irresolutos. La abundancia de los argumentos tratados permite la posible continuidad del trabajo, según una visión dinámica de la investigación como evolución ininterrumpida. En particular, las observaciones documentadas en este estudio abren el campo hacia un planteamiento transversal y multidisciplinar, que pueda profundizar el conocimiento de los edificios antiguos. El patrimonio de la arquitectura clásica estásujeto al deterioro en el tiempo, por lo que un estudio sobre su estado actual puede contribuir a manifestar necesidades reales, reflejando el vinculo directo existente entre conservación y levantamiento arquitectónico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El Daño Cerebral Adquirido (DCA) se define como una lesión cerebral que ocurre después del nacimiento y que no guarda relación con defectos congénitos o enfermedades degenerativas. En el cerebro, se llevan a cabo las funciones mentales superiores como la atención, la memoria, las funciones ejecutivas y el lenguaje, consideradas pre-requisitos básicos de la inteligencia. Sea cual sea su causa, todo daño cerebral puede afectar a una o varias de estas funciones, de ahí la gravedad del problema. A pesar de los avances en nuevas técnicas de intervención precoz y el desarrollo de los cuidados intensivos, las afectaciones cerebrales aún no tienen tratamiento ni quirúrgico ni farmacológico que permita una restitución de las funciones perdidas. Los tratamientos de neurorrehabilitación cognitiva y funcional pretenden, por tanto, la minimización o compensación de las alteraciones ocasionadas por una lesión en el sistema nervioso. En concreto, la rehabilitación cognitiva se define como el proceso en el que personas que han sufrido un daño cerebral trabajan de manera conjunta con profesionales de la salud para remediar o aliviar los déficits cognitivos surgidos como consecuencia de un episodio neurológico. Esto se consigue gracias a la naturaleza plástica del sistema nervioso, donde el cerebro es capaz de reconfigurar sus conexiones neuronales, tanto creando nuevas como modificando las ya existentes. Durante los últimos años hemos visto una transformación de la sociedad, en lo que se ha denominado "sociedad de la información", cuyo pilar básico son las Tecnologías de la Información y las Comunicaciones (TIC). La aplicación de estas tecnologías en medicina ha revolucionado la manera en que se proveen los servicios sanitarios. Así, donde tecnología y medicina se mezclan, la telerrehabilitación se define como la rehabilitación a distancia, ayudando a extender los servicios de rehabilitación más allá de los centros hospitalarios, rompiendo las barreras geográficas, mejorando la eficiencia de los procesos y monitorizando en todo momento el estado y evolución del paciente. En este contexto, el objetivo general de la presente tesis es mejorar la rehabilitación neuropsicológica de pacientes que sufren alteraciones cognitivas, mediante el diseño, desarrollo y validación de un sistema de telemedicina que incorpora las TIC para avanzar hacia un nuevo paradigma personalizado, ubicuo y ecológico. Para conseguirlo, se han definido los siguientes objetivos específicos: • Analizar y modelar un sistema de telerrehabilitación, mediante la definición de objetivos y requisitos de usuario para diseñar las diferentes funcionalidades necesarias. • Definir una arquitectura de telerrehabilitación escalable para la prestación de diferentes servicios que agrupe las funcionalidades necesarias en módulos. • Diseñar y desarrollar la plataforma de telerrehabilitación, incluida la interfaz de usuario, creando diferentes roles de usuario con sus propias funcionalidades. • Desarrollar de un módulo de análisis de datos para extraer conocimiento basado en los resultados históricos de las sesiones de rehabilitación almacenadas en el sistema. • Evaluación de los resultados obtenidos por los pacientes después del programa de rehabilitación, obteniendo conclusiones sobre los beneficios del servicio implementado. • Evaluación técnica de la plataforma de telerrehabilitación, así como su usabilidad y la relación coste/beneficio. • Integración de un dispositivo de eye-tracking que permita la monitorización de la atención visual mientras los pacientes ejecutan tareas de neurorrehabilitación. •Diseño y desarrollo de un entorno de monitorización que permita obtener patrones de atención visual. Como resumen de los resultados obtenidos, se ha desarrollado y validado técnicamente la plataforma de telerrehabilitación cognitiva, demostrando la mejora en la eficiencia de los procesos, sin que esto resulte en una reducción de la eficacia del tratamiento. Además, se ha llevado a cabo una evaluación de la usabilidad del sistema, con muy buenos resultados. Respecto al módulo de análisis de datos, se ha diseñado y desarrollado un algoritmo que configura y planifica sesiones de rehabilitación para los pacientes, de manera automática, teniendo en cuenta las características específicas de cada paciente. Este algoritmo se ha denominado Intelligent Therapy Assistant (ITA). Los resultados obtenidos por el asistente muestran una mejora tanto en la eficiencia como en la eficacia de los procesos, comparado los resultados obtenidos con los de la planificación manual llevada a cabo por los terapeutas. Por último, se ha integrado con éxito el dispositivo de eye-tracking en la plataforma de telerrehabilitación, llevando a cabo una prueba con pacientes y sujetos control que ha demostrado la viabilidad técnica de la solución, así como la existencia de diferencias en los patrones de atención visual en pacientes con daño cerebral. ABSTRACT Acquired Brain Injury (ABI) is defined as brain damage that suddenly and unexpectedly appears in people’s life, being the main cause of disability in developed countries. The brain is responsible of the higher cognitive functions such as attention, memory, executive functions or language, which are considered basic requirements of the intelligence. Whatever its cause is, every ABI may affects one or several functions, highlighting the severity of the problem. New techniques of early intervention and the development of intensive ABI care have noticeably improved the survival rate. However, despite these advances, brain injuries still have no surgical or pharmacological treatment to re-establish lost functions. Cognitive rehabilitation is defined as a process whereby people with brain injury work together with health service professionals and others to remediate or alleviate cognitive deficits arising from a neurological insult. This is achieved by taking advantage of the plastic nature of the nervous system, where the brain can reconfigure its connections, both creating new ones, and modifying the previously existing. Neuro-rehabilitation aims to optimize the plastic nature by inducing a reorganization of the neural network, based on specific experiences. Personalized interventions from individual impairment profile will be necessary to optimize the remaining resources by potentiating adaptive responses and inhibiting maladaptive changes. In the last years, some applications and software programs have been developed to train or stimulate cognitive functions of different neuropsychological disorders, such as ABI, Alzheimer, psychiatric disorders, attention deficit or hyperactivity disorder (ADHD). The application of technologies into medicine has changed the paradigm. Telemedicine allows improving the quality of clinical services, providing better access to them and helping to break geographical barriers. Moreover, one of the main advantages of telemedicine is the possibility to extend the therapeutic processes beyond the hospital (e.g. patient's home). As a consequence, a reduction of unnecessary costs and a better costs/benefits ratio are achieved, making possible a more efficient use of the available resources In this context, the main objective of this work is to improve neuro-rehabilitation of patients suffering cognitive deficits, by designing, developing and validating a telemedicine system that incorporates ICTs to change this paradigm, making it more personalized, ubiquitous and ecologic. The following specific objectives have been defined: • To analyse and model a tele-rehabilitation system, defining objectives and user requirements to design the different needed functionalities. • To define a scalable tele-rehabilitation architecture to offer different services grouping functionalities into modules. • To design and develop the tele-rehabilitation platform, including the graphic user interface, creating different user roles and permissions. • To develop a data analysis module to extract knowledge based on the historic results from the rehabilitation sessions stored in the system. • To evaluate the obtained results by patients after the rehabilitation program, arising conclusions about the benefits of the implemented service. • To technically evaluate the tele-rehabilitation platform, and its usability and the costs/benefit ratio. • To integrate an eye-tracking device allowing the monitoring of the visual attention while patients execute rehabilitation tasks. •To design and develop a monitoring environment that allows to obtain visual attention patterns. Summarizing the obtained results, the cognitive tele-rehabilitation platform has been developed and evaluated technically, demonstrating the improvements on the efficiency without worsening the efficacy of the process. Besides, a usability evaluation has been carried out, with very good results. Regarding the data analysis module, an algorithm has been designed and developed to automatically select and configure rehabilitation sessions, taking into account the specific characteristics of each patient. This algorithm is called Intelligent Therapy Assistant (ITA). The obtained results show an improvement both in the efficiency and the efficacy of the process, comparing the results obtained by patients when they receive treatments scheduled manually by therapists. Finally, an eye-tracking device has been integrated in the tele-rehabilitation platform, carrying out a study with patients and control subjects demonstrating the technical viability of the developed monitoring environment. First results also show that there are differences between the visual attention patterns between ABI patients and control subjects.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Actualmente, la gestión de sistemas de Manejo Integrado de Plagas (MIP) en cultivos hortícolas tiene por objetivo priorizar los métodos de control no químicos en detrimento del consumo de plaguicidas, según recoge la directiva europea 2009/128/CE ‘Uso Sostenible de Plaguicidas’ (OJEC, 2009). El uso de agentes de biocontrol como alternativa a la aplicación de insecticidas es un elemento clave de los sistemas MIP por sus innegables ventajas ambientales que se utiliza ampliamente en nuestro país (Jacas y Urbaneja, 2008). En la región de Almería, donde se concentra el 65% de cultivo en invernadero de nuestro país (47.367 ha), MIP es la principal estrategia en pimiento (MAGRAMA, 2014), y comienza a serlo en otros cultivos como tomate o pepino. El cultivo de pepino, con 8.902 ha (MAGRAMA, 2013), tiene un protocolo semejante al pimiento (Robledo et al., 2009), donde la única especie de pulgón importante es Aphis gossypii Glover. Sin embargo, pese al continuo incremento de la superficie de cultivo agrícola bajo sistemas MIP, los daños originados por virosis siguen siendo notables. Algunos de los insectos presentes en los cultivos de hortícolas son importantes vectores de virus, como los pulgones, las moscas blancas o los trips, cuyo control resulta problemático debido a su elevada capacidad para transmitir virus vegetales incluso a una baja densidad de plaga (Holt et al., 2008; Jacas y Urbaneja, 2008). Las relaciones que se establecen entre los distintos agentes de un ecosistema son complejas y muy específicas. Se ha comprobado que, pese a que los enemigos naturales reducen de manera beneficiosa los niveles de plaga, su incorporación en los sistemas planta-insecto-virus puede desencadenar complicadas interacciones con efectos no deseables (Dicke y van Loon, 2000; Jeger et al., 2011). Así, los agentes de biocontrol también pueden inducir a que los insectos vectores modifiquen su comportamiento como respuesta al ataque y, con ello, el grado de dispersión y los patrones de distribución de las virosis que transmiten (Bailey et al., 1995; Weber et al., 1996; Hodge y Powell, 2008a; Hodge et al., 2011). Además, en ocasiones el control biológico por sí solo no es suficiente para controlar determinadas plagas (Medina et al., 2008). Entre los métodos que se pueden aplicar bajo sistemas MIP están las barreras físicas que limitan la entrada de plagas al interior de los invernaderos o interfieren con su movimiento, como pueden ser las mallas anti-insecto (Álvarez et al., 2014), las mallas fotoselectivas (Raviv y Antignus, 2004; Weintraub y Berlinger, 2004; Díaz y Fereres, 2007) y las mallas impregnadas en insecticida (Licciardi et al., 2008; Martin et al., 2014). Las mallas fotoselectivas reducen o bloquean casi por completo la transmisión de radiación UV, lo que interfiere con la visión de los insectos y dificulta o impide la localización del cultivo y su establecimiento en el mismo (Raviv y Antignus, 2004; Weintraub, 2009). Se ha comprobado cómo su uso puede controlar los pulgones y las virosis en cultivo de lechuga (Díaz et al., 2006; Legarrea et al., 2012a), así como la mosca blanca, los trips y los ácaros, y los virus que estos transmiten en otros cultivos (Costa y Robb, 1999; Antignus et al., 2001; Kumar y Poehling, 2006; Doukas y Payne, 2007a; Legarrea et al., 2010). Sin embargo, no se conoce perfectamente el modo de acción de estas barreras, puesto que existe un efecto directo sobre la plaga y otro indirecto mediado por la planta, cuya fisiología cambia al desarrollarse en ambientes con falta de radiación UV, y que podría afectar al ciclo biológico de los insectos fitófagos (Vänninen et al., 2010; Johansen et al., 2011). Del mismo modo, es necesario estudiar la compatibilidad de esta estrategia con los enemigos naturales de las plagas. Hasta la fecha, los estudios han evidenciado que los agentes de biocontrol pueden realizar su actividad bajo ambientes pobres en radiación UV (Chyzik et al., 2003; Chiel et al., 2006; Doukas y Payne, 2007b; Legarrea et al., 2012c). Otro método basado en barreras físicas son las mallas impregnadas con insecticidas, que se han usado tradicionalmente en la prevención de enfermedades humanas transmitidas por mosquitos (Martin et al., 2006). Su aplicación se ha ensayado en agricultura en ciertos cultivos al aire libre (Martin et al., 2010; Díaz et al., 2004), pero su utilidad en cultivos protegidos para prevenir la entrada de insectos vectores en invernadero todavía no ha sido investigada. Los aditivos se incorporan al tejido durante el proceso de extrusión de la fibra y se liberan lentamente actuando por contacto en el momento en que el insecto aterriza sobre la malla, con lo cual el riesgo medioambiental y para la salud humana es muy limitado. Los plaguicidas que se emplean habitualmente suelen ser piretroides (deltametrina o bifentrín), aunque también se ha ensayado dicofol (Martin et al., 2010) y alfa-cipermetrina (Martin et al., 2014). Un factor que resulta de vital importancia en este tipo de mallas es el tamaño del poro para facilitar una buena ventilación del cultivo, al tiempo que se evita la entrada de insectos de pequeño tamaño como las moscas blancas (Bethke y Paine, 1991; Muñoz et al., 1999). Asimismo, se plantea la necesidad de estudiar la compatibilidad de estas mallas con los enemigos naturales. Es por ello que en esta Tesis Doctoral se plantea la necesidad de evaluar nuevas mallas impregnadas que impidan el paso de insectos de pequeño tamaño al interior de los invernaderos, pero que a su vez mantengan un buen intercambio y circulación de aire a través del poro de la malla. Así, en la presente Tesis Doctoral, se han planteado los siguientes objetivos generales a desarrollar: 1. Estudiar el impacto de la presencia de parasitoides sobre el grado de dispersión y los patrones de distribución de pulgones y las virosis que éstos transmiten. 2. Conocer el efecto directo de ambientes pobres en radiación UV sobre el comportamiento de vuelo de plagas clave de hortícolas y sus enemigos naturales. 3. Evaluar el efecto directo de la radiación UV-A sobre el crecimiento poblacional de pulgones y mosca blanca, y sobre la fisiología de sus plantas hospederas, así como el efecto indirecto de la radiación UV-A en ambas plagas mediado por el crecimiento de dichas planta hospederas. 4. Caracterización de diversas mallas impregnadas en deltametrina y bifentrín con diferentes propiedades y selección de las óptimas para el control de pulgones, mosca blanca y sus virosis asociadas en condiciones de campo. Estudio de su compatibilidad con parasitoides. ABSTRACT Insect vectors of plant viruses are the main agents causing major economic losses in vegetable crops grown under protected environments. This Thesis focuses on the implementation of new alternatives to chemical control of insect vectors under Integrated Pest Management programs. In Spain, biological control is the main pest control strategy used in a large part of greenhouses where horticultural crops are grown. The first study aimed to increase our knowledge on how the presence of natural enemies such as Aphidius colemani Viereck may alter the dispersal of the aphid vector Aphis gossypii Glover (Chapter 4). In addition, it was investigated if the presence of this parasitoid affected the spread of aphid-transmitted viruses Cucumber mosaic virus (CMV, Cucumovirus) and Cucurbit aphid-borne yellows virus (CABYV, Polerovirus) infecting cucumber (Cucumis sativus L). SADIE methodology was used to study the distribution patterns of both the virus and its vector, and their degree of association. Results suggested that parasitoids promoted aphid dispersal in the short term, which enhanced CMV spread, though consequences of parasitism suggested potential benefits for disease control in the long term. Furthermore, A. colemani significantly limited the spread and incidence of the persistent virus CABYV in the long term. The flight activity of pests Myzus persicae (Sulzer), Bemisia tabaci (Gennadius) and Tuta absoluta (Meyrick), and natural enemies A. colemani and Sphaerophoria rueppellii (Weidemann) under UV-deficient environments was studied under field conditions (Chapter 5). One-chamber tunnels were covered with cladding materials with different UV transmittance properties. Inside each tunnel, insects were released from tubes placed in a platform suspended from the ceiling. Specific targets were located at different distances from the platform. The ability of aphids and whiteflies to reach their targets was diminished under UV-absorbing barriers, suggesting a reduction of vector activity under this type of nets. Fewer aphids reached distant traps under UV-absorbing nets, and significantly more aphids could fly to the end of the tunnels covered with non-UV blocking materials. Unlike aphids, differences in B. tabaci captures were mainly found in the closest targets. The oviposition of lepidopteran T. absoluta was also negatively affected by a UV-absorbing cover. The photoselective barriers were compatible with parasitism and oviposition of biocontrol agents. Apart from the direct response of insects to UV radiation, plant-mediated effects influencing insect performance were investigated (Chapter 6). The impact of UV-A radiation on the performance of aphid M. persicae and whitefly B. tabaci, and growth and leaf physiology of host plants pepper and eggplant was studied under glasshouse conditions. Plants were grown inside cages covered by transparent and UV-A-opaque plastic films. Plant growth and insect fitness were monitored. Leaves were harvested for chemical analysis. Pepper plants responded directly to UV-A by producing shorter stems whilst UV-A did not affect the leaf area of either species. UV-A-treated peppers had higher content of secondary metabolites, soluble carbohydrates, free amino acids and proteins. Such changes in tissue chemistry indirectly promoted aphid performance. For eggplants, chlorophyll and carotenoid levels decreased with supplemental UVA but phenolics were not affected. Exposure to supplemental UV-A had a detrimental effect on whitefly development, fecundity and fertility presumably not mediated by plant cues, as compounds implied in pest nutrition were unaltered. Lastly, the efficacy of a wide range of Long Lasting Insecticide Treated Nets (LLITNs) was studied under laboratory and field conditions. This strategy aimed to prevent aphids and whiteflies to enter the greenhouse by determining the optimum mesh size (Chapter 7). This new approach is based on slow release deltamethrin- and bifenthrin-treated nets with large hole sizes that allow improved ventilation of greenhouses. All LLITNs produced high mortality of M. persicae and A. gossypii although their efficacy decreased over time with sun exposure. It was necessary a net with hole size of 0.29 mm2 to exclude B. tabaci under laboratory conditions. The feasibility of two selected nets was studied in the field under a high insect infestation pressure in the presence of CMV- and CABYV-infected cucumber plants. Besides, the compatibility of parasitoid A. colemani with bifenthrin-treated nets was studied in parallel field experiments. Both nets effectively blocked the invasion of aphids and reduced the incidence of both viruses, however they failed to exclude whiteflies. We found that our LLITNs were compatible with parasitoid A. colemani. As shown, the role of natural enemies has to be taken into account regarding the dispersal of insect vectors and subsequent spread of plant viruses. The additional benefits of novel physicochemical barriers, such as photoselective and insecticide-impregnated nets, need to be considered in Integrated Pest Management programs of vegetable crops grown under protected environments.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Muchos estudios han descrito la composición y diversidad de los bosques montanos tropicales, pero los patrones espaciales y las diferentes tipos de relaciones de estos, entre especies o entre grupos funcionales ha sido poco documentada. El presente trabajo se realizó en tres parcelas completamente censadas del bosque de la Estación Biológica “Chamusquin” (Zamora Chinchipe, Ecuador), y se plantea como objetivo principal conocer la estructura espacial y dinámica del bosque montano tropical del sur del Ecuador, así como las interacciones bióticas y limitaciones abióticas que influyen en esta dinámica, para ello se planteó cuatro objetivos de estudio que son: conocer los patrones espaciales de los gremios ecológicos dentro de la zona de estudio; conocer la influencia de la dependencia negativa de la densidad sobre dos especies de helechos arborescentes (Cyatheaceae); conocer si existen especies o grupos ecológicos acumuladoras o repulsoras de diversidad en el área de estudio; y conocer cómo influyen la diversidad filogenética y la densidad del vecindario en la incidencia de herbivoría y parasitismo sobre las fases iniciales del establecimiento forestal (brinzales) así como en la supervivencia de los mismos Como paso previo para el análisis del resto de objetivos, dentro de cada parcela se marcaron todos los individuos con DAP ≥5 cm y se tomaron sus coordenadas (X, Y). Además se tomaron datos de variables superficiales y muestras del suelo. Las especies encontradas se clasificaron de acuerdo a sus características biológicas, asignándolas a cada uno de los cuatro gremios forestales usualmente distinguidos en los bosques tropicales: tolerantes a la sombra (TS), tolerantes parciales a la sombra (TPS), pioneras de vida larga (PVL) y pioneras de vida corta (PVC). Para el estudio del primer objetivo tas se emplearon funciones K de Ripley inhomogéneas, ajustando la heterogeneidad en base a la variación espacial de las variables ambientales registradas . Los resultados demostraron que tanto la frecuencia relativa como el patrón espacial de las diferentes estrategias funcionales varían a lo largo de la sucesión y que éste además está influido por la variación ambiental. En adición, tanto el patrón espacial como la respuesta a la variación ambiental de los diferentes gremios es distinta entre adultos y juveniles. Todo ello sugiere que el ensamblaje de la diversidad en los bosque montanos andinos está controlado por procesos deterministas más que por procesos neutrales. Para responder el segundo objetivo se estudiaron los efectos de la dependencia negativa de la densidad (DND) y la heterogeneidad ambiental en las poblaciones de dos especies de helechos arborescentes abundantes, Cyathea caracasana y Alsophila engelii, y cómo estos efectos cambian a través de un gradiente sucesional. Los patrones de especies albergan información sobre procesos tales como la competencia que puede ser revelado fácilmente utilizando técnicas de análisis de patrones punto. Sin embargo, su detección puede ser difícil debido a los efectos de factores de confusión heterogeneidad del hábitat. Aquí, empleamos funciones K y funciones de correlación de par homogéneas y no homogéneas para cuantificar el cambio en el patrón espacial de diferentes clases de tamaño con un diseño de casos-controles para estudiar las asociaciones entre helechos arborescentes jóvenes y adultos. Usando estimaciones espaciales de la biomasa de los cuatro tipos de gremios ecológicos (PVC, PVL, TPS, TS) como covariables, hemos ajustado modelos de Poisson heterogéneos a los patrones de puntos de de los helechos juveniles y los adultos y hemos explorado además la existencia de dependencia del hábitat en estos patrones. Nuestro estudio reveló efectos de la DND para C. caracasana y un fuerte filtrado ambiental que subyace al patrón de A. engelii. Encontramos también que las poblaciones de adultos y juveniles de ambas especies respondieron de manera diferente a la heterogeneidad del hábitat y en la mayoría de los casos esta heterogeneidad se asoció con la distribución espacial de la biomasa de los cuatro tipos de gremios. Estos resultados muestran la eficacia de controlar los efectos de la heterogeneidad ambiental para evitar su confusión con los patrones derivados de interacciones biológicas cuando se estudia la DND y demuestran la utilidad de los mapas de covariables derivados de comunidades biológicas como resumen de la heterogeneidad ambiental. Para nuestro tercer objetivo nos centramos en explorar cómo influyen las especies más abundantes en la organización espacial de la diversidad a lo largo de un gradiente sucesional en el bosque montano del sur del Ecuador. Para ello utilizamos la función ISAR (Individual Species Area Relationship). Encontramos que la frecuencia de especies neutras, repulsoras y acumuladoras de diversidad taxonómica varía dependiendo del grado de sucesión. Además se comprobó que la mayoría de los gremios forestales se comportó de forma neutral, pero la proporción de acumuladores, aumentó al avanzar la sucesión hacia estados más maduros, lo que indica el establecimiento de fuertes procesos competitivos a medida que avanza la sucesión y la mayor importancia del papel de las especies individuales en dichos estados. Finalmente, examinamos el efecto de la vecindad taxonómica y filogenética, así como la estrategia de vida, sobre la incidencia de la herbivoría y el parasitismo en las poblaciones de brinzales de tres fragmentos forestales en una secuencia sucesional del bosque montano húmedo. Evaluamos además los efectos de herbivoría, parasitismo, estrategia de vida y diferentes indicadores de la vecindad sobre la supervivencia de los brinzales. Por último contrastamos la posible existencia de una tendencia compensatoria de la comunidad (CCT) a nivel de fragmento forestal. Nuestros análisis no consiguieron detectar una CCT pero si pusieron de manifiesto la existencia de efectos locales de dependencia negativa de la densidad. Por ejemplo, la presencia de herbivoría y parasitismo sobre los brinzales se relacionó significativamente con una menor supervivencia de estos. Por otro lado, indicadores del efecto de la vecindad como la densidad de brinzales del mismo género y el área basal de árboles vecinos del mismo género incrementaron la prevalencia de la herbivoría o el parasitismo en los brinzales. El incremento de la incidencia de la herbivoría o el parasitismo no está exclusivamente ligado a tener una vecindad taxonómicamente idéntica (vecinos de la misma especie) sino que categorías taxonómicas más laxas como el "género" o simplemente relaciones de semejanza filogenética son capaces de predecir los efectos negativos de la vecindad. Los efectos detectados variaron en los diferentes grupos funcionales distinguidos. Los resultados que hemos obtenido en este trabajo parecen indicar que el funcionamiento de las comunidades de brinzales del bosque montano tropical no difiere mucho del reportado para comunidades de plántulas en otros bosques tropicales y cumple las predicciones de la hipótesis de Janzen y Connell, aunque matizadas por la mayor resistencia de los brinzales al efecto de herbivoría y parasitismo. ABSTRACT Many studies have described the composition and diversity of tropical montane forests, but the different spatial patterns and types of relationships between species or between functional groups has been poorly documented. This work was made in three completely surveyed forest plots at Biological Station "Chamusquin" (Zamora Chinchipe, Ecuador). Our main objective was to know the spatial structure and dynamics of the tropical montane forest in southern Ecuador, as well as the biotic interactions and abiotic constraints affecting this dynamic. More specifically, we aimed to understand the spatial patterns of ecological guilds; to explore the influence of negative density dependence on two species of tree ferns (Cyatheaceae); to determine whether some species or ecological groups structure spatially plant diversity in these forests; and to test the effects of biological neighborhood on the incidence of herbivory and parasitism and on the survival of saplings. We mapped within each plot all trees with DBH ≥5 cm. Besides, surface data variables and soil samples they were taken. The species found were classified according to their biological characteristics in four forest guilds: shade-tolerant (ST), partial shade tolerant (PST), long-lived pioneer (LLP) and short-lived pioneer (SLP). To analyze the spatial patterns of the ecological guilds, we employed the inhomogeneous version of Ripley's K-function and adjusted heterogeneity surfaces based on the spatial variation of the measured environmental variables. The results showed that both the relative frequency of each functional guild as well as their spatial pattern varied throughout succession and that the spatial pattern is explained by environmental variation. In addition, both spatial pattern and the response to spatial variation of each guild varied throughout ontogeny. All in all suggest that diversity assembly in the studied forests is ruled by deterministic instead of neutral processes. We also addressed the negative effects of density dependence (NDD) and environmental heterogeneity in populations of two species of abundant tree ferns, Cyathea caracasana and Alsophila engelii, and how these effects change across a successional gradient.. Here, we used homogeneous and inhomogeneous K and pair-correlation functions to quantify the change in the spatial pattern of different size classes with a case-control design to study associations between young and adult tree ferns. Using spatial estimates of the biomass of the four types of ecological guilds (SLP, LLP, PST, ST) as co-variables, we fitted heterogeneous Poisson models to juvenile and adult tree fern point patterns and explored the existence of habitat dependence. Our study revealed NDD effects for C. caracasana and strong environmental filtering underlying the pattern of A. engelii. We found that adult and juvenile populations of both species responded differently to habitat heterogeneity and in most cases this heterogeneity was associated with the spatial distribution of biomass of the four functional tree types. These findings show the effectiveness of factoring out environmental heterogeneity to avoid confounding factors when studying NDD and demonstrate the usefulness of covariate maps derived from mapped communities. For our third objective we focused on exploring how the most abundant species influence the spatial organization of tree diversity in these forests. For this, we used the individual species-area relationship function (ISAR). We found that the proportion of accumulator, repeller and neutral species, varied depending on the degree of succession. We found also that most guilds behaved neutrally but the proportion of accumulator guilds increased as succession advanced to more mature stages. This point, to the existence of strong competitive effects mediated by individual species in these mature forests. Finally, we examined the effects of life strategies and taxonomic and phylogenetic neighborhood on the incidence of herbivory and parasitism in the communities of saplings in the same forest fragments. We evaluated also the effects of life strategies, herbivory, parasitism and some indicators of neighborhood on sapling survival. Finally we tested for the existences of a compensatory community trend at plot scale. We did not found a CCT but we found proof of local NND effects. For instance, the prevalence of herbivory and parasitism were related to lower sapling survival. On the other hand the density of con-generic saplings and the basal area of neighbor con-generic trees were related to a higher prevalence of herbivory or parasitism in the saplings. We demonstrated that the increase in the prevalence of herbivory or parasitism it s not exclusive of a conspecific neighborhood but instead larger taxonomic categories such as "genus" or simple phylogenetic relationships are also able to predict NND effects. The NND effects varied among functional guilds. Our results show that the dynamic of sapling communities in Ecuadorian montane forests is similar to seedling dynamics in other tropical forest and follows the predictions of Janzen-Connell hypothesis, although softened by the strong resilience of saplings in comparison to seedlings.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Quizás el campo de las telecomunicaciones sea uno de los campos en el que más se ha progresado en este último siglo y medio, con la ayuda de otros campos de la ciencia y la técnica tales como la computación, la física electrónica, y un gran número de disciplinas, que se han utilizado estos últimos 150 años en conjunción para mejorarse unas con la ayuda de otras. Por ejemplo, la química ayuda a comprender y mejorar campos como la medicina, que también a su vez se ve mejorada por los progresos en la electrónica creados por los físicos y químicos, que poseen herramientas más potentes para calcular y simular debido a los progresos computacionales. Otro de los campos que ha sufrido un gran avance en este último siglo es el de la automoción, aunque estancados en el motor de combustión, los vehículos han sufrido enormes cambios debido a la irrupción de los avances en la electrónica del automóvil con multitud de sistemas ya ampliamente integrados en los vehículos actuales. La Formula SAE® o Formula Student es una competición de diseño, organizada por la SAE International (Society of Automotive Engineers) para estudiantes de universidades de todo el mundo que promueve la ingeniería a través de una competición donde los miembros del equipo diseñan, construyen, desarrollan y compiten en un pequeño y potente monoplaza. En el ámbito educativo, evitando el sistema tradicional de clases magistrales, se introducen cambios en las metodologías de enseñanza y surge el proyecto de la Fórmula Student para lograr una mejora en las acciones formativas, que permitan ir incorporando nuevos objetivos y diseñar nuevas situaciones de aprendizaje que supongan una oportunidad para el desarrollo de competencias de los alumnos, mejorar su formación como ingenieros y contrastar sus progresos compitiendo con las mejores universidades del mundo. En este proyecto se pretende dotar a los alumnos de las escuelas de ingeniería de la UPM que desarrollan el vehículo de FSAE de una herramienta de telemetría con la que evaluar y probar comportamiento del vehículo de FSAE junto con sus subsistemas que ellos mismos diseñan, con el objetivo de evaluar el comportamiento, introducir mejoras, analizar resultados de una manera más rápida y cómoda, con el objetivo de poder progresar más rápidamente en su desarrollo, recibiendo y almacenando una realimentación directa e instantánea del funcionamiento mediante la lectura de los datos que circulan por el bus CAN del vehículo. También ofrece la posibilidad de inyectar datos a los sistemas conectados al bus CAN de manera remota. Se engloba en el conjunto de proyectos de la FSAE, más concretamente en los basados en la plataforma PIC32 y propone una solución conjunta con otros proyectos o también por sí sola. Para la ejecución del proyecto se fabricó una placa compuesta de dos placas de circuito impreso, la de la estación base que envía comandos, instrucciones y datos para inyectar en el bus CAN del vehículo mediante radiofrecuencia y la placa que incorpora el vehículo que envía las tramas que circulan por el bus CAN del vehículo con los identificadores deseados, ejecuta los comandos recibidos por radiofrecuencia y salva las tramas CAN en una memoria USB o SD Card. Las dos PCBs constituyen el hardware del proyecto. El software se compone de dos programas. Un programa para la PCB del vehículo que emite los datos a la estación base, codificado en lenguaje C con ayuda del entorno de desarrollo MPLAB de Microchip. El otro programa hecho con LabView para la PCB de la estación base que recibe los datos provenientes del vehículo y los interpreta. Se propone un hardware y una capa o funciones de software para los microcontroladores PIC32 (similar al de otros proyectos del FSAE) para la transmisión de las tramas del bus CAN del vehículo de manera inalámbrica a una estación base, capaz de insertar tramas en el bus CAN del vehículo enviadas desde la estación base. También almacena estas tramas CAN en un dispositivo USB o SD Card situado en el vehículo. Para la transmisión de los datos se hizo un estudio de las frecuencias de transmisión, la legislación aplicable y los tipos de transceptores. Se optó por utilizar la banda de radiofrecuencia de uso común ISM de 433MHz mediante el transceptor integrado CC110L de Texas Instruments altamente configurable y con interfaz SPI. Se adquirieron dos parejas de módulos compatibles, con amplificador de potencia o sin él. LabView controla la estación que recoge las tramas CAN vía RF y está dotada del mismo transceptor de radio junto con un puente de comunicaciones SPI-USB, al que se puede acceder de dos diferentes maneras, mediante librerías dll, o mediante NI-VISA con transferencias RAW-USB. La aplicación desarrollada posee una interfaz configurable por el usuario para la muestra de los futuros sensores o actuadores que se incorporen en el vehículo y es capaz de interpretar las tramas CAN, mostrarlas, gráfica, numéricamente y almacenar esta información, como si fuera el cuadro de instrumentos del vehículo. Existe una limitación de la velocidad global del sistema en forma de cuello de botella que se crea debido a las limitaciones del transceptor CC110L por lo que si no se desea filtrar los datos que se crean necesarios, sería necesario aumentar el número de canales de radio para altas ocupaciones del bus CAN. Debido a la pérdida de relaciones con el INSIA, no se pudo probar de manera real en el propio vehículo, pero se hicieron pruebas satisfactorias (hasta 1,6 km) con una configuración de tramas CAN estándar a una velocidad de transmisión de 1 Mbit/s y un tiempo de bit de 1 microsegundo. El periférico CAN del PIC32 se programará para cumplir con estas especificaciones de la ECU del vehículo, que se presupone que es la MS3 Sport de Bosch, de la que LabView interpretará las tramas CAN recibidas de manera inalámbrica. Para poder probar el sistema, ha sido necesario reutilizar el hardware y adaptar el software del primer prototipo creado, que emite tramas CAN preprogramadas con una latencia también programable y que simulará al bus CAN proporcionando los datos a transmitir por el sistema que incorpora el vehículo. Durante el desarrollo de este proyecto, en las etapas finales, el fabricante del puente de comunicaciones SPI-USB MCP2210 liberó una librería (dll) compatible y sin errores, por lo que se nos ofrecía una oportunidad interesante para la comparación de las velocidades de acceso al transceptor de radio, que se presuponía y se comprobó más eficiente que la solución ya hecha mediante NI-VISA. ABSTRACT. The Formula SAE competition is an international university applied to technological innovation in vehicles racing type formula, in which each team, made up of students, should design, construct and test a prototype each year within certain rules. The challenge of FSAE is that it is an educational project farther away than a master class. The goal of the present project is to make a tool for other students to use it in his projects related to FSAE to test and improve the vehicle, and, the improvements that can be provided by the electronics could be materialized in a victory and win the competition with this competitive advantage. A telemetry system was developed. It sends the data provided by the car’s CAN bus through a radio frequency transceiver and receive commands to execute on the system, it provides by a base station on the ground. Moreover, constant verification in real time of the status of the car or data parameters like the revolutions per minute, pressure from collectors, water temperature, and so on, can be accessed from the base station on the ground, so that, it could be possible to study the behaviour of the vehicle in early phases of the car development. A printed circuit board, composed of two boards, and two software programs in two different languages, have been developed, and built for the project implementation. The software utilized to design the PCB is Orcad10.5/Layout. The base station PCB on a PC receives data from the PCB connected to the vehicle’s CAN bus and sends commands like set CAN filters or masks, activate data logger or inject CAN frames. This PCB is connected to a PC via USB and contains a bridge USB-SPI to communicate with a similar transceiver on the vehicle PCB. LabView controls this part of the system. A special virtual Instrument (VI) had been created in order to add future new elements to the vehicle, is a dashboard, which reads the data passed from the main VI and represents them graphically to studying the behaviour of the car on track. In this special VI other alums can make modifications to accommodate the data provided from the vehicle CAN’s bus to new elements on the vehicle, show or save the CAN frames in the form or format they want. Two methods to access to SPI bus of CC110l RF transceiver over LabView have been developed with minimum changes between them. Access through NI-VISA (Virtual Instrument Software Architecture) which is a standard for configuring, programming, USB interfaces or other devices in National Instruments LabView. And access through DLL (dynamic link library) supplied by the manufacturer of the bridge USB-SPI, Microchip. Then the work is done in two forms, but the dll solution developed shows better behaviour, and increase the speed of the system because has less overload of the USB bus due to a better efficiency of the dll solution versus VISA solution. The PCB connected to the vehicle’s CAN bus receives commands from the base station PCB on a PC, and, acts in function of the command or execute actions like to inject packets into CAN bus or activate data logger. Also sends over RF the CAN frames present on the bus, which can be filtered, to avoid unnecessary radio emissions or overflowing the RF transceiver. This PCB consists of two basic pieces: A microcontroller with 32 bit architecture PIC32MX795F512L from Microchip and the radio transceiver integrated circuit CC110l from Texas Instruments. The PIC32MX795F512L has an integrated CAN and several peripherals like SPI controllers that are utilized to communicate with RF transceiver and SD Card. The USB controller on the PIC32 is utilized to store CAN data on a USB memory, and change notification peripheral is utilized like an external interrupt. Hardware for other peripherals is accessible. The software part of this PCB is coded in C with MPLAB from Microchip, and programming over PICkit 3 Programmer, also from Microchip. Some of his libraries have been modified to work properly with this project and other was created specifically for this project. In the phase for RF selection and design is made a study to clarify the general aspects of regulations for the this project in order to understand it and select the proper band, frequency, and radio transceiver for the activities developed in the project. From the different options available it selects a common use band ICM, with less regulation and free to emit with restrictions and disadvantages like high occupation. The transceiver utilized to transmit and receive the data CC110l is an integrated circuit which needs fewer components from Texas Instruments and it can be accessed through SPI bus. Basically is a state machine which changes his state whit commands received over an SPI bus or internal events. The transceiver has several programmable general purpose Inputs and outputs. These GPIOs are connected to PIC32 change notification input to generate an interrupt or connected to GPIO to MCP2210 USB-SPI bridge to inform to the base station for a packet received. A two pair of modules of CC110l radio module kit from different output power has been purchased which includes an antenna. This is to keep away from fabrication mistakes in RF hardware part or designs, although reference design and gerbers files are available on the webpage of the chip manufacturer. A neck bottle is present on the complete system, because the maximum data rate of CC110l transceiver is a half than CAN bus data rate, hence for high occupation of CAN bus is recommendable to filter the data or add more radio channels, because the buffers can’t sustain this load along the time. Unfortunately, during the development of the project, the relations with the INSIA, who develops the vehicle, was lost, for this reason, will be made impossible to test the final phases of the project like integration on the car, final test of integration, place of the antenna, enclosure of the electronics, connectors selection, etc. To test or evaluate the system, it was necessary to simulate the CAN bus with a hardware to feed the system with entry data. An early hardware prototype was adapted his software to send programed CAN frames at a fixed data rate and certain timing who simulate several levels of occupation of the CAN Bus. This CAN frames emulates the Bosch ECU MS3 Sport.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El presente trabajo Fin de Grado tiene como objetivo principal hacer una revisión de los artículos de Page y Page (2007) y Lidor et al. (2010) para mostrar la existencia de la ventaja de jugar en casa en fútbol, y la existencia de la ventaja de jugar el partido de vuelta como local como beneficio de ganar las eliminatorias a doble partido. Para este trabajo se ha utilizado una muestra propia, la que consta de 3 competiciones europeas (Champions League masculina y femenina y Europa League) y 2 nacionales (Copa del Rey y Copa de la Reina), pudiendo así comparar a la vez ambos géneros (masculino y femenino). Esta ventaja será mostrada analizando los factores asociados a la ventaja de jugar en casa como: distancia, porcentaje de victorias previas en rondas anteriores en esa misma competición y diferencia de goles en esa eliminatoria. La ventaja de jugar en casa será probada, así como que es mayor en el género masculino que en el femenino, mientras que la ventaja de jugar en casa en el partido de vuelta de la eliminatoria no está tan clara en este trabajo y se expondrán las causas de esto.