846 resultados para Tecnología y docencia


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Este proyecto tiene como objetivo facilitar el aprendizaje multimedia en inglés de los conceptos básicos relacionados con el análisis de circuitos para los alumnos de grado de la nuestra escuela, en especial para los de nuevo ingreso. El aprendizaje será realizado directamente en inglés, cumpliendo así el doble objetivo: por un lado el de abordar unos conceptos nuevos para el alumno de ingeniería y, además, el poder hacerlo en inglés, lo que le servirá para llegar a mejorar su nivel de competencia en la lengua extranjera, o al menos mantenerlo. El proyecto realizado tiene varios apartados. En primer lugar, un apartado didáctico en el que se exponen los conceptos básicos sobre el análisis de circuitos que se quieren explicar, siempre orientados al aprendizaje de inglés. Para abordar estos nuevos temas de un modo didáctico y que incite al autoaprendizaje, se recurrirá a la tecnología y por medio de vídeos e imágenes y actividades didácticas multimedia se podrá afrontar la asignatura con facilidad e interés para captar los conceptos en una lengua extranjera. Se han diseñado actividades para la práctica de: la audición, con dictado y asociación de sonidos con palabras; de la comprensión lectora y adquisición de vocabulario, con ejercicios de rellenar huecos y emparejar definiciones. Las actividades se han adaptado a la plataforma Moodle para obtener la retroalimentación de los alumnos, si se desea. El apartado de aprendizaje se complementará con un glosario específico y alfabéticamente ordenado donde también dispondremos de la transcripción fonética de cada una de las palabras incluidas en el mismo. Para llegar a conseguir el objetivo didáctico se ha diseñado un sitio web capaz de albergar todo el contenido anterior. Abstract The main objective of this Project has been to facilitate a multimedia resource for learning in English the basic concepts related to circuit analysis. The final product is directly addressed to the undergraduate students at a Telecommunications School, the EUITT from Universidad Politécnica de Madrid. Learning technical notions directly in English serves the students to reach the double purpose of not only acquiring a number of new concepts but also improving their proficiency in the foreign language or keeping up with their level of English through their studies. The project has several sections. There is a didactic section which explains the basic concepts using videos and images in order to approach the subject with ease and interest. This part is supplemented with a glossary in alphabetic order provided with the phonetics of the English words and some multimedia exercises for practicing different skills mainly listening, reading, and using technical vocabulary in English. All these activities have been adapted to the platform Moodle so that the students results can be assessed, if convenient. On the other hand, the practical implementation of the Project has consisted of designing a website capable of including all of the points mentioned above.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El presente Proyecto de Fin de Carrera supone el propósito conjunto de los alumnos Álvaro Morillas y Fernando Sáez, y del profesor Vladimir Ulin, de desarrollar una unidad didáctica sobre el programa de simulación para ingeniería Virtual.Lab. La versión sobre la que se ha trabajado para realizar este texto es la 11, publicada en agosto de 2012. Virtual.Lab, del fabricante belga LMS International, es una plataforma software de ingeniería asistida por ordenador, que agrupa en una misma aplicación varias herramientas complementarias en el diseño de un producto, desde su definición geométrica a los análisis de durabilidad, ruido u optimización. No obstante, de entre todas las posibles simulaciones que nos permite el programa, en este proyecto sólo se tratan las que están relacionadas con la acústica. Cabe resaltar que gran parte de los conceptos manejados en Virtual.Lab son compatibles con el programa CATIA V5, ya que ambos programas vienen instalados y funcionan conjuntamente. Por eso, el lector de este proyecto podrá transportar sus conocimientos al que es uno de los programas estándar en las industrias aeronáutica, naval y automovilística, entre otras. Antes de este proyecto, otros alumnos de la escuela también realizaron proyectos de fin de carrera en el campo de la simulación computarizada en acústica. Una característica común a estos trabajos es que era necesario hacer uso de distintos programas para cada una de las etapas de simulación (como por ejemplo, ANSYS para el modelado y estudio de la vibración y SYSNOISE para las simulaciones acústicas, además de otros programas auxiliares para las traducciones de formato). Con Virtual.Lab desaparece esta necesidad y el tiempo empleado se reduce. Debido a que las soluciones por ordenador están ganando cada vez más importancia en la industria actual, los responsables de este proyecto consideran la necesidad de formación de profesionales en esta rama. Para responder a la demanda empresarial de trabajadores cualificados, se espera que en los próximos años los planes de estudio contengan más cursos en esta materia. Por tanto la intención de los autores es que este material sea de utilidad para el aprendizaje y docencia de estas asignaturas en cursos sucesivos. Por todo esto, se justifica la relevancia de este PFC como manual para introducir a los alumnos interesados en iniciarse en un sistema actual, de uso extendido en otras universidades tecnológicas europeas, y con buenas perspectivas de futuro. En este proyecto se incluyen varios ejemplos ejecutables desde el programa, así como vídeos explicativos que ayudan a mostrar gráficamente los procesos de simulación. Estos archivos se pueden encontrar en el CD adjunto. Abstract This final thesis is a joint project made by the students Álvaro Morillas and Fernando Sáez, and the professor Vladimir Ulin. The nature of the joint regards the writing of a didactic unit on Virtual.Lab, the simulation software. The software version used in this text is the number 11, released in August 2012. Virtual.Lab, from the Belgian developer LMS International, is a computer-aided engineering software which is used for several related tasks in this field: product design, durability simulation, optimization, etc. However, this project is focused on the acoustical capabilities. It is worthy to highlight that most procedures explained in this text can be used in the software CATIA V5 as well. Both tools come installed together and may be used at the same time. Therefore, the reader of this project will be able to use the acquired knowledge in one of the most relevant softwares for the aerospace, marine and automotive engineering. Previously to the development of this project, this School has conducted projects on this field. These projects regarded the use of ANSYS for modeling and meshing stages as well as the use of SYSNOISE for the final acoustic analysis. Since both systems use different file formats, a third-party translation software was required. This thesis fulfill this pending necessity with Virtual.Lab; the translation software procedure is not necessary anymore and simulations can be done in a more flexible, fast way. Since companies have an increasing usage of numerical methods in the development of their products and services, the authors think that it is important to develop the appropriate method to instruct new professionals in the field. Thus, the aim of this project is to help teachers and students in their process of learning the use of this leading software in acoustical simulations. For all the reasons mentioned above, we consider that this project is relevant for the School and the educational community. Aiming to achieve this objective the author offers example files and video demonstrations with guidance in the CD that accompanies this material. This facilitates the comprehension of the practical tasks and guides the prospect users of the software.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La computación molecular es una disciplina que se ocupa del diseño e implementación de dispositivos para el procesamiento de información sobre un sustrato biológico, como el ácido desoxirribonucleico (ADN), el ácido ribonucleico (ARN) o las proteínas. Desde que Watson y Crick descubrieron en los años cincuenta la estructura molecular del ADN en forma de doble hélice, se desencadenaron otros descubrimientos, como las enzimas de restricción o la reacción en cadena de la polimerasa (PCR), contribuyendo de manera determinante a la irrupción de la tecnología del ADN recombinante. Gracias a esta tecnología y al descenso vertiginoso de los precios de secuenciación y síntesis del ADN, la computación biomolecular pudo abandonar su concepción puramente teórica. El trabajo presentado por Adleman (1994) logró resolver un problema de computación NP-completo (El Problema del Camino de Hamilton dirigido) utilizando únicamente moléculas de ADN. La gran capacidad de procesamiento en paralelo ofrecida por las técnicas del ADN recombinante permitió a Adleman ser capaz de resolver dicho problema en tiempo polinómico, aunque a costa de un consumo exponencial de moléculas de ADN. Utilizando algoritmos de fuerza bruta similares al utilizado por Adleman se logró resolver otros problemas NP-completos, como por ejemplo el de Satisfacibilidad de Fórmulas Lógicas / SAT (Lipton, 1995). Pronto se comprendió que la computación biomolecular no podía competir en velocidad ni precisión con los ordenadores de silicio, por lo que su enfoque y objetivos se centraron en la resolución de problemas con aplicación biomédica (Simmel, 2007), dejando de lado la resolución de problemas clásicos de computación. Desde entonces se han propuesto diversos modelos de dispositivos biomoleculares que, de forma autónoma (sin necesidad de un bio-ingeniero realizando operaciones de laboratorio), son capaces de procesar como entrada un sustrato biológico y proporcionar una salida también en formato biológico: procesadores que aprovechan la extensión de la polimerasa (Hagiya et al., 1997), autómatas que funcionan con enzimas de restricción (Benenson et al., 2001) o con deoxiribozimas (Stojanovic et al., 2002), o circuitos de hibridación competitiva (Yurke et al., 2000). Esta tesis presenta un conjunto de modelos de dispositivos de ácidos nucleicos capaces de implementar diversas operaciones de computación lógica aprovechando técnicas de computación biomolecular (hibridación competitiva del ADN y reacciones enzimáticas) con aplicaciones en diagnóstico genético. El primer conjunto de modelos, presentados en el Capítulo 5 y publicados en Sainz de Murieta and Rodríguez-Patón (2012b), Rodríguez-Patón et al. (2010a) y Sainz de Murieta and Rodríguez-Patón (2010), define un tipo de biosensor que usa hebras simples de ADN para codificar reglas sencillas, como por ejemplo "SI hebra-ADN-1 Y hebra-ADN-2 presentes, ENTONCES enfermedad-B". Estas reglas interactúan con señales de entrada (ADN o ARN de cualquier tipo) para producir una señal de salida (también en forma de ácido nucleico). Dicha señal de salida representa un diagnóstico, que puede medirse mediante partículas fluorescentes técnicas FRET) o incluso ser un tratamiento administrado en respuesta a un conjunto de síntomas. El modelo presentado en el Capítulo 5, publicado en Rodríguez-Patón et al. (2011), es capaz de ejecutar cadenas de resolución sobre fórmulas lógicas en forma normal conjuntiva. Cada cláusula de una fórmula se codifica en una molécula de ADN. Cada proposición p se codifica asignándole una hebra simple de ADN, y la correspondiente hebra complementaria a la proposición ¬p. Las cláusulas se codifican incluyendo distintas proposiciones en la misma hebra de ADN. El modelo permite ejecutar programas lógicos de cláusulas Horn aplicando múltiples iteraciones de resolución en cascada, con el fin de implementar la función de un nanodispositivo autónomo programable. Esta técnica también puede emplearse para resolver SAP sin ayuda externa. El modelo presentado en el Capítulo 6 se ha publicado en publicado en Sainz de Murieta and Rodríguez-Patón (2012c), y el modelo presentado en el Capítulo 7 se ha publicado en (Sainz de Murieta and Rodríguez-Patón, 2013c). Aunque explotan métodos de computación biomolecular diferentes (hibridación competitiva de ADN en el Capítulo 6 frente a reacciones enzimáticas en el 7), ambos modelos son capaces de realizar inferencia Bayesiana. Funcionan tomando hebras simples de ADN como entrada, representando la presencia o la ausencia de un indicador molecular concreto (una evidencia). La probabilidad a priori de una enfermedad, así como la probabilidad condicionada de una señal (o síntoma) dada la enfermedad representan la base de conocimiento, y se codifican combinando distintas moléculas de ADN y sus concentraciones relativas. Cuando las moléculas de entrada interaccionan con las de la base de conocimiento, se liberan dos clases de hebras de ADN, cuya proporción relativa representa la aplicación del teorema de Bayes: la probabilidad condicionada de la enfermedad dada la señal (o síntoma). Todos estos dispositivos pueden verse como elementos básicos que, combinados modularmente, permiten la implementación de sistemas in vitro a partir de sensores de ADN, capaces de percibir y procesar señales biológicas. Este tipo de autómatas tienen en la actualidad una gran potencial, además de una gran repercusión científica. Un perfecto ejemplo fue la publicación de (Xie et al., 2011) en Science, presentando un autómata biomolecular de diagnóstico capaz de activar selectivamente el proceso de apoptosis en células cancerígenas sin afectar a células sanas.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

En este año 1996, la comunidad informática mira al pasado para celebrar el cincuentenario del nacimiento de ENIAC, el primer ordenador electrónico de propósito general, que podía calcular en treinta segundos la trayectoria de sesenta segundos de duración de un proyectil, mientras que, para el mismo cálculo, el mayor analizador diferencial de la época tardaba quince minutos y un experto con una calculadora de sobremesa necesitaba alrededor de veinte horas.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Las condiciones de nuestra existencia, siempre al filo del caos, están permanentemente amenazadas por un accidente de tráfico, la pérdida del puesto de trabajo, un virus mutante o cualquier catástrofe natural. A la tecnología y los sistemas técnicos les sucede algo parecido. Algunas de las recetas para convivir con la tecnología y progresar son: control de calidad, estudio de la complejidad y una actitud aventurera.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Since the beginning of the smartphones in the 80s, the mobile device market has grown and evolved towards devices connected everywhere, with hardware more and more close to computers and laptops than a classic mobile telephone. Nowadays, this market seems to be crowded and some companies seem not to know exactly which step is next. In this manner, a concept appears in the market as a solution or a difficulty to overcome: the dominant design. The thesis aims to establish an analysis and definition of what a dominant design is and how we should understand this concept: which are the costumers’ demands and needs? How can we relate this information with the dominant design? What is the strategy of the firm before designing a device? Do they use a concept similar to a dominant design?. The research base its analysis in a theoretical framework based in innovation and marketing literature, to then compare the model studied with data collected from surveys made to customers, interviews made to workers of the mobile device market, and different new projects on the market. The research finishes with a discussion about the theoretical and the empirical frameworks, and concludes replying the research questions, and defining a dominant design and its current situation in the market. RESUMEN. Desde la aparición de los Smartphones en los años 80, el mercado de los dispositivos móviles ha crecido y evolucionado hacia dispositivos cada vez más conectados, con hardware cada vez más cercano a los ordenadores de sobremesa y portátiles que al clásico teléfono móvil. A día de hoy, el mercado está saturado y algunas compañías parecen dubitativas ante el próximo paso a seguir. De esta manera, el concepto del diseño dominante aparece en el mercado como una solución a esta dificultad. El primer capítulo de este estudio se centra en establecer, a modo de introducción, los antecedentes al caso a estudiar, el objetivo de la tesis con sus limitaciones y delimitaciones, así como la metodología utilizada. También se plantean las preguntas principales (Research Questions) sobre el objetivo de la tesis, las cuales darán respuesta en la conclusión final al caso de estudio. Este proyecto tiene como objetivo establecer un análisis y definición sobre que es un diseño dominante y qué deberíamos entender como tal: ¿cuáles son las necesidades y las exigencias de los clientes? ¿Cómo se puede relacionar esta información con el diseño dominante en el sector tecnológico? ¿Cuáles son las estrategias de las empresas antes de diseñar un nuevo dispositivo? ¿Usan un concepto o modelos similares a un diseño dominante? Posteriormente, el segundo capítulo expone la bibliografía utilizada, y el enfoque analítico que se llevará a cabo con las 3 principales fuentes de datos. La investigación enfoca su análisis en un marco teórico, basado en publicaciones y bibliografía relacionadas con la innovación y el marketing, para luego comparar el modelo estudiado con un marco empírico: datos obtenidos de encuestas a consumidores, entrevistas a profesionales del sector de los dispositivos móviles, y diferentes prototipos y nuevos proyectos en este mercado. Entre esta literatura se encuentran manuales de marketing como “22 Immutable laws of Marketing” (de Al Ries & Jack Trout), publicaciones sobre el sector industrial de la tecnología y negocios: “Crossing the Chasm” de Geoffrey A. Moore y modelos de innovación entre otros como “Mastering the Dynamics of Innovation” de James M. Utterback. El tercer capítulo corresponde al estudio del marco teórico de la tesis, donde se analizará principalmente el modelo de innovación utilizado (el modelo cíclico de Utterback) y varios principios de marketing aplicados a este sector. Se plantean las bases de este modelo, la definición que el propio Utterback ofrece sobre el diseño dominante, y las 3 fases del proceso del mismo (Fluid Phase, Transitional Phase y Specific Phase), donde las empresas cambian de estrategia según las circunstancias evolutivas del dispositivo, su posición respecto el líder del mercado, o los procesos de estandarización y de costes. Por último se plantea la base para el desarrollo del diseño dominante en un ciclo evolutivo constante en el tiempo. Respecto a la parte más analítica de la tesis, el cuarto capítulo se desarrolla a partir de los datos obtenidos de las fuentes de información en el marco empírico de estudio. Se obtienen conclusiones sobre los datos realizados en ambas encuestas (en Español e Inglés) y sobre la relevancia de esta información; se estudian uno por uno hasta cuatro casos de nuevos dispositivos a corto-medio plazo en el mercado y se obtienen unas conclusiones globales sobre las entrevistas realizadas a los profesionales del sector y la relevancia de todas estas informaciones. En el quinto capítulo de la tesis se desarrolla la discusión en torno a los marcos teórico y empírico utilizados, para concluir respondiendo a las “Research Questions”, definiendo de esta manera el concepto de diseño dominante y comparando esta definición con la situación real del mercado. Se contrastan las bases del modelo de Utterback con los datos obtenidos en el capítulo cuarto, enfatizando la comparación entre las fases de este modelo con la realidad obtenida a través del estudio. Las encuestas realizadas a los consumidores se enmarcan en la segunda y tercera fase del ciclo, donde el desarrollo del diseño dominante ya está establecido y más desarrollado, mientras que las entrevistas unifican varios puntos clave a tener en cuenta en la primera y segunda fases, orientándose a las capas previas del proceso. Después se comparan uno a uno los 4 dispositivos analizados, a fin de establecer su jerarquía dentro del mercado, como posibles nuevos diseños dominantes o evoluciones especializadas de otros que ya aparecieron en el mercado con anterioridad. Así mismo, en esta parte final del estudio se comparan entre sí los resultados similares entre las tres fuentes de datos, y se analiza la veracidad de todas las fuentes consultadas. Finalmente, se han registrado en un sexto capítulo todas las referencias utilizadas en este proyecto, tanto publicaciones bibliográficas, entrevistas, citas de personajes relevantes del sector y enlaces en la red sobre noticias relevantes. En el apartado de apéndices se adjuntan tres anexos, donde se adjunta información utilizada en el caso de estudio, y la cual se ha obviado del texto principal con el objetivo de agilizar la lectura y la comprensión del mismo. Estos tres apéndices corresponden a las dos encuestas realizadas en ambos idiomas y la entrevista realizada a los profesionales del sector de los dispositivos móviles.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Esta metodología se ha desarrollado en el marco de un proyecto que es el objeto del Convenio Específico de Colaboración entre el Instituto Geográfico Nacional y la Escuela de Topografía de la Universidad Politécnica de Madrid relativo a la investigación, desarrollo, formación y difusión de conocimientos en el campo de las tecnologías de la información geográfica (TIG) para la investigación y desarrollo de la tecnología y metodología adecuada para la optimización de la información de la Base de Datos de Líneas Límite de la Dirección General del Instituto Geográfico Nacional. El fin fundamental del mismo es desarrollar una metodología para mejorar la precisión de la Base de Datos de Líneas Límite que tiene el Instituto Geográfico Nacional. La exigencia actual de calidad y seguridad en la descripción geométrica de las líneas límite obliga a optimizar dicha descripción mediante la aplicación de nuevas tecnologías no existentes en el momento del levantamiento, y al diseño de metodologías adecuadas que, minimizando los tiempos y costes de ejecución, consideren asimismo los distintos agentes que participan en España en la definición de las líneas límite. Para desarrollar dicha metodología será necesario en primer lugar digitalizar la información de los cuadernos de campo y las actas de deslinde existentes en el Instituto Geográfico Nacional, para que sea un trabajo abordable desde las tecnologías actuales; posteriormente, volcar la información referente a las líneas límite sobre ortofotografías a escala 1:5.000, a partir de los datos de los cuadernos de campo digitalizados. Se propondrá un nuevo sistema de gestión, tratamiento y almacenamiento de las líneas límite, con información sobre su linaje (origen de datos, precisión), así como el formato de salida de las propias líneas límite. Para controlar la calidad de la metodología propuesta, se deberá validar la misma mediante un estudio teórico de lamedida de rendimientos y precisiones y su verificación mediante toma de datos en campo. Particularmente, se llevará a cabo dicha validación en un conjunto de 140 líneas límite de 36 municipios de la provincia de Ávila y Segovia (los comprendidos en las hojas 556 y 457 del Mapa Topográfico Nacional 1:50.000). Una vez contrastada la metodología y efectuados los oportunos procesos de refinamiento, se redactarán las conclusiones de todo el proyecto, que englobarán las recomendaciones de trabajo y las precisiones resultantes, los rendimientos de los diferentes procesos y los costes que se generen mediante el empleo de la nueva metodología. ABSTARCT: This paper introduces the development of a methodology for the optimisation of the municipal boundaries database of the Instituto Geográfico Nacional. This project has arisen as part of a collaboration agreement between the Instituto Geográfico Nacional and the Escuela de Topografía of the Universidad Politécnica de Madrid which seeks to promote research, development and training in Geographic Information Technologies. Current quality requirements demand the use of new technologies to improve the accuracy of the geometrical description of municipal boundaries. These technologies didn’t exist when the municipal boundaries were first drawn up. Besides, it is convenient to design an appropriate methodology that minimises both costs and time employed. The two main steps in the process are: first, the conversion of all the available data (fixing boundary minutes and field survey notebooks) into digital format in order to make possible their integration in a CAD system; and second, the display and visual overlay of these digital data over an 1:5000 orthophotography of the study area, to identify the boundary monuments. A new system will be proposed to manage, process and storage municipal boundaries information, including its lineage; an output format for these data will be designed as well. In addition, a quality control will be designed to audit this scheme using Data Analysis and Statistical Inference techniques. Moreover, GPS technology will be used to get some boundary monuments co-ordinates to check the results of the proposed methodology. The complete scheme will be tested in a study area corresponding to Ávila and Segovia provinces comprising 140 boundary segments from 36 municipalities.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Como considero que, históricamente, la tecnología forma parte esencial de la cultura humana, mi interés por los cambios tecnológicos siempre ha incluido su lado humano, es decir, la evaluación de su convivencialidad y en forma destacada la de sus efectos e impactos sociales o,dicho en otras palabras, de las transformaciones sociales que provocan la aplicación de la tecnología y sus sucesivos cambios, que, a fin de cuentas, son -ahora habría que decir "eran"- sus finalidades básicas.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La Academia de Ingeniería fue fundada como Corporación de Derecho Público por Real Decreto de S. M. Juan Carlos I el 29 de abril de 1994 y recibió el título de «real» el 14 de julio de 2003. Según indican sus estatutos, se trataba de crear una entidad activa y cualificada en la prospección y análisis crítico de la evolución científica y técnica con capacidad de aconsejar tanto a organismos del Estado como a la sociedad en general. La promoción de la calidad y la competencia de la ingeniería es el objetivo permanente de la RAI. Se intenta cumplir con él actuando en varios frentes. En primer lugar reconociendo el mérito: el de las personas mediante su elección como miembros de la Academia, el de las empresas mediante el Premio Academiae Dilecta, y el de los estudiosos mediante el Premio a los Investigadores Jóvenes. Se han creado foros de discusión, siguiendo diferentes formatos, para tratar sobre grandes temas de actualidad, tales como la aventura aeroespacial, la biotecnología, la seguridad frente a incendios en los túneles, la energía, el impacto medioambiental de las obras de ingeniería y el futuro de las grandes infraestructuras. También es una labor de estímulo de la calidad y competencia la edición de las Comunicaciones a la Academia, donde se remarca la importancia de la innovación invitando a equipos jóvenes a que presenten logros de la ingeniería española que hayan dado lugar a algún resultado tangible y no meramente especulativo. Satélites, nanotecnología, bioingeniería, comunicaciones, etc., son algunos de los temas de las comunicaciones publicadas hasta ahora. Otro delos fines de la Academia, según el artículo 3 de sus estatutos fundacionales es "elaborar y mantener actualizado un lexicón en lengua castellana de términos relativos a la ingeniería", y sobre ello trata este capítulo.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El comercio electrónico ha experimentado un fuerte crecimiento en los últimos años, favorecido especialmente por el aumento de las tasas de penetración de Internet en todo el mundo. Sin embargo, no todos los países están evolucionando de la misma manera, con un espectro que va desde las naciones pioneras en desarrollo de tecnologías de la información y comunicaciones, que cuentan con una elevado porcentaje de internautas y de compradores online, hasta las rezagadas de rápida adopción en las que, pese a contar con una menor penetración de acceso, presentan una alta tasa de internautas compradores. Entre ambos extremos se encuentran países como España que, aunque alcanzó hace años una tasa considerable de penetración de usuarios de Internet, no ha conseguido una buena tasa de transformación de internautas en compradores. Pese a que el comercio electrónico ha experimentado importantes aumentos en los últimos años, sus tasas de crecimiento siguen estando por debajo de países con características socio-económicas similares. Para intentar conocer las razones que afectan a la adopción del comercio por parte de los compradores, la investigación científica del fenómeno ha empleado diferentes enfoques teóricos. De entre todos ellos ha destacado el uso de los modelos de adopción, proveniente de la literatura de adopción de sistemas de información en entornos organizativos. Estos modelos se basan en las percepciones de los compradores para determinar qué factores pueden predecir mejor la intención de compra y, en consecuencia, la conducta real de compra de los usuarios. Pese a que en los últimos años han proliferado los trabajos de investigación que aplican los modelos de adopción al comercio electrónico, casi todos tratan de validar sus hipótesis mediante el análisis de muestras de consumidores tratadas como un único conjunto, y del que se obtienen conclusiones generales. Sin embargo, desde el origen del marketing, y en especial a partir de la segunda mitad del siglo XIX, se considera que existen diferencias en el comportamiento de los consumidores, que pueden ser debidas a características demográficas, sociológicas o psicológicas. Estas diferencias se traducen en necesidades distintas, que sólo podrán ser satisfechas con una oferta adaptada por parte de los vendedores. Además, por contar el comercio electrónico con unas características particulares que lo diferencian del comercio tradicional –especialmente por la falta de contacto físico entre el comprador y el producto– a las diferencias en la adopción para cada consumidor se le añaden las diferencias derivadas del tipo de producto adquirido, que si bien habían sido consideradas en el canal físico, en el comercio electrónico cobran especial relevancia. A la vista de todo ello, el presente trabajo pretende abordar el estudio de los factores determinantes de la intención de compra y la conducta real de compra en comercio electrónico por parte del consumidor final español, teniendo en cuenta el tipo de segmento al que pertenezca dicho comprador y el tipo de producto considerado. Para ello, el trabajo contiene ocho apartados entre los que se encuentran cuatro bloques teóricos y tres bloques empíricos, además de las conclusiones. Estos bloques dan lugar a los siguientes ocho capítulos por orden de aparición en el trabajo: introducción, situación del comercio electrónico, modelos de adopción de tecnología, segmentación en comercio electrónico, diseño previo del trabajo empírico, diseño de la investigación, análisis de los resultados y conclusiones. El capítulo introductorio justifica la relevancia de la investigación, además de fijar los objetivos, la metodología y las fases seguidas para el desarrollo del trabajo. La justificación se complementa con el segundo capítulo, que cuenta con dos elementos principales: en primer lugar se define el concepto de comercio electrónico y se hace una breve retrospectiva desde sus orígenes hasta la situación actual en un contexto global; en segundo lugar, el análisis estudia la evolución del comercio electrónico en España, mostrando su desarrollo y situación presente a partir de sus principales indicadores. Este apartado no sólo permite conocer el contexto de la investigación, sino que además permite contrastar la relevancia de la muestra utilizada en el presente estudio con el perfil español respecto al comercio electrónico. Los capítulos tercero –modelos de adopción de tecnologías– y cuarto –segmentación en comercio electrónico– sientan las bases teóricas necesarias para abordar el estudio. En el capítulo tres se hace una revisión general de la literatura de modelos de adopción de tecnología y, en particular, de los modelos de adopción empleados en el ámbito del comercio electrónico. El resultado de dicha revisión deriva en la construcción de un modelo adaptado basado en los modelos UTAUT (Unified Theory of Acceptance and Use of Technology, Teoría unificada de la aceptación y el uso de la tecnología) y UTAUT2, combinado con dos factores específicos de adopción del comercio electrónico: el riesgo percibido y la confianza percibida. Por su parte, en el capítulo cuatro se revisan las metodologías de segmentación de clientes y productos empleadas en la literatura. De dicha revisión se obtienen un amplio conjunto de variables de las que finalmente se escogen nueve variables de clasificación que se consideran adecuadas tanto por su adaptación al contexto del comercio electrónico como por su adecuación a las características de la muestra empleada para validar el modelo. Las nueve variables se agrupan en tres conjuntos: variables de tipo socio-demográfico –género, edad, nivel de estudios, nivel de ingresos, tamaño de la unidad familiar y estado civil–, de comportamiento de compra – experiencia de compra por Internet y frecuencia de compra por Internet– y de tipo psicográfico –motivaciones de compra por Internet. La segunda parte del capítulo cuatro se dedica a la revisión de los criterios empleados en la literatura para la clasificación de los productos en el contexto del comercio electrónico. De dicha revisión se obtienen quince grupos de variables que pueden tomar un total de treinta y cuatro valores, lo que deriva en un elevado número de combinaciones posibles. Sin embargo, pese a haber sido utilizados en el contexto del comercio electrónico, no en todos los casos se ha comprobado la influencia de dichas variables respecto a la intención de compra o la conducta real de compra por Internet; por este motivo, y con el objetivo de definir una clasificación robusta y abordable de tipos de productos, en el capitulo cinco se lleva a cabo una validación de las variables de clasificación de productos mediante un experimento previo con 207 muestras. Seleccionando sólo aquellas variables objetivas que no dependan de la interpretación personal del consumidores y que determinen grupos significativamente distintos respecto a la intención y conducta de compra de los consumidores, se obtiene un modelo de dos variables que combinadas dan lugar a cuatro tipos de productos: bien digital, bien no digital, servicio digital y servicio no digital. Definidos el modelo de adopción y los criterios de segmentación de consumidores y productos, en el sexto capítulo se desarrolla el modelo completo de investigación formado por un conjunto de hipótesis obtenidas de la revisión de la literatura de los capítulos anteriores, en las que se definen las hipótesis de investigación con respecto a las influencias esperadas de las variables de segmentación sobre las relaciones del modelo de adopción. Este modelo confiere a la investigación un carácter social y de tipo fundamentalmente exploratorio, en el que en muchos casos ni siquiera se han encontrado evidencias empíricas previas que permitan el enunciado de hipótesis sobre la influencia de determinadas variables de segmentación. El capítulo seis contiene además la descripción del instrumento de medida empleado en la investigación, conformado por un total de 125 preguntas y sus correspondientes escalas de medida, así como la descripción de la muestra representativa empleada en la validación del modelo, compuesta por un grupo de 817 personas españolas o residentes en España. El capítulo siete constituye el núcleo del análisis empírico del trabajo de investigación, que se compone de dos elementos fundamentales. Primeramente se describen las técnicas estadísticas aplicadas para el estudio de los datos que, dada la complejidad del análisis, se dividen en tres grupos fundamentales: Método de mínimos cuadrados parciales (PLS, Partial Least Squares): herramienta estadística de análisis multivariante con capacidad de análisis predictivo que se emplea en la determinación de las relaciones estructurales de los modelos propuestos. Análisis multigrupo: conjunto de técnicas que permiten comparar los resultados obtenidos con el método PLS entre dos o más grupos derivados del uso de una o más variables de segmentación. En este caso se emplean cinco métodos de comparación, lo que permite asimismo comparar los rendimientos de cada uno de los métodos. Determinación de segmentos no identificados a priori: en el caso de algunas de las variables de segmentación no existe un criterio de clasificación definido a priori, sino que se obtiene a partir de la aplicación de técnicas estadísticas de clasificación. En este caso se emplean dos técnicas fundamentales: análisis de componentes principales –dado el elevado número de variables empleadas para la clasificación– y análisis clúster –del que se combina una técnica jerárquica que calcula el número óptimo de segmentos, con una técnica por etapas que es más eficiente en la clasificación, pero exige conocer el número de clústeres a priori. La aplicación de dichas técnicas estadísticas sobre los modelos resultantes de considerar los distintos criterios de segmentación, tanto de clientes como de productos, da lugar al análisis de un total de 128 modelos de adopción de comercio electrónico y 65 comparaciones multigrupo, cuyos resultados y principales consideraciones son elaboradas a lo largo del capítulo. Para concluir, el capítulo ocho recoge las conclusiones del trabajo divididas en cuatro partes diferenciadas. En primer lugar se examina el grado de alcance de los objetivos planteados al inicio de la investigación; después se desarrollan las principales contribuciones que este trabajo aporta tanto desde el punto de vista metodológico, como desde los punto de vista teórico y práctico; en tercer lugar, se profundiza en las conclusiones derivadas del estudio empírico, que se clasifican según los criterios de segmentación empleados, y que combinan resultados confirmatorios y exploratorios; por último, el trabajo recopila las principales limitaciones de la investigación, tanto de carácter teórico como empírico, así como aquellos aspectos que no habiendo podido plantearse dentro del contexto de este estudio, o como consecuencia de los resultados alcanzados, se presentan como líneas futuras de investigación. ABSTRACT Favoured by an increase of Internet penetration rates across the globe, electronic commerce has experienced a rapid growth over the last few years. Nevertheless, adoption of electronic commerce has differed from one country to another. On one hand, it has been observed that countries leading e-commerce adoption have a large percentage of Internet users as well as of online purchasers; on the other hand, other markets, despite having a low percentage of Internet users, show a high percentage of online buyers. Halfway between those two ends of the spectrum, we find countries such as Spain which, despite having moderately high Internet penetration rates and similar socio-economic characteristics as some of the leading countries, have failed to turn Internet users into active online buyers. Several theoretical approaches have been taken in an attempt to define the factors that influence the use of electronic commerce systems by customers. One of the betterknown frameworks to characterize adoption factors is the acceptance modelling theory, which is derived from the information systems adoption in organizational environments. These models are based on individual perceptions on which factors determine purchase intention, as a mean to explain users’ actual purchasing behaviour. Even though research on electronic commerce adoption models has increased in terms of volume and scope over the last years, the majority of studies validate their hypothesis by using a single sample of consumers from which they obtain general conclusions. Nevertheless, since the birth of marketing, and more specifically from the second half of the 19th century, differences in consumer behaviour owing to demographic, sociologic and psychological characteristics have also been taken into account. And such differences are generally translated into different needs that can only be satisfied when sellers adapt their offer to their target market. Electronic commerce has a number of features that makes it different when compared to traditional commerce; the best example of this is the lack of physical contact between customers and products, and between customers and vendors. Other than that, some differences that depend on the type of product may also play an important role in electronic commerce. From all the above, the present research aims to address the study of the main factors influencing purchase intention and actual purchase behaviour in electronic commerce by Spanish end-consumers, taking into consideration both the customer group to which they belong and the type of product being purchased. In order to achieve this goal, this Thesis is structured in eight chapters: four theoretical sections, three empirical blocks and a final section summarizing the conclusions derived from the research. The chapters are arranged in sequence as follows: introduction, current state of electronic commerce, technology adoption models, electronic commerce segmentation, preliminary design of the empirical work, research design, data analysis and results, and conclusions. The introductory chapter offers a detailed justification of the relevance of this study in the context of e-commerce adoption research; it also sets out the objectives, methodology and research stages. The second chapter further expands and complements the introductory chapter, focusing on two elements: the concept of electronic commerce and its evolution from a general point of view, and the evolution of electronic commerce in Spain and main indicators of adoption. This section is intended to allow the reader to understand the research context, and also to serve as a basis to justify the relevance and representativeness of the sample used in this study. Chapters three (technology acceptance models) and four (segmentation in electronic commerce) set the theoretical foundations for the study. Chapter 3 presents a thorough literature review of technology adoption modelling, focusing on previous studies on electronic commerce acceptance. As a result of the literature review, the research framework is built upon a model based on UTAUT (Unified Theory of Acceptance and Use of Technology) and its evolution, UTAUT2, including two specific electronic commerce adoption factors: perceived risk and perceived trust. Chapter 4 deals with client and product segmentation methodologies used by experts. From the literature review, a wide range of classification variables is studied, and a shortlist of nine classification variables has been selected for inclusion in the research. The criteria for variable selection were their adequacy to electronic commerce characteristics, as well as adequacy to the sample characteristics. The nine variables have been classified in three groups: socio-demographic (gender, age, education level, income, family size and relationship status), behavioural (experience in electronic commerce and frequency of purchase) and psychographic (online purchase motivations) variables. The second half of chapter 4 is devoted to a review of the product classification criteria in electronic commerce. The review has led to the identification of a final set of fifteen groups of variables, whose combination offered a total of thirty-four possible outputs. However, due to the lack of empirical evidence in the context of electronic commerce, further investigation on the validity of this set of product classifications was deemed necessary. For this reason, chapter 5 proposes an empirical study to test the different product classification variables with 207 samples. A selection of product classifications including only those variables that are objective, able to identify distinct groups and not dependent on consumers’ point of view, led to a final classification of products which consisted on two groups of variables for the final empirical study. The combination of these two groups gave rise to four types of products: digital and non-digital goods, and digital and non-digital services. Chapter six characterizes the research –social, exploratory research– and presents the final research model and research hypotheses. The exploratory nature of the research becomes patent in instances where no prior empirical evidence on the influence of certain segmentation variables was found. Chapter six also includes the description of the measurement instrument used in the research, consisting of a total of 125 questions –and the measurement scales associated to each of them– as well as the description of the sample used for model validation (consisting of 817 Spanish residents). Chapter 7 is the core of the empirical analysis performed to validate the research model, and it is divided into two separate parts: description of the statistical techniques used for data analysis, and actual data analysis and results. The first part is structured in three different blocks: Partial Least Squares Method (PLS): the multi-variable analysis is a statistical method used to determine structural relationships of models and their predictive validity; Multi-group analysis: a set of techniques that allow comparing the outcomes of PLS analysis between two or more groups, by using one or more segmentation variables. More specifically, five comparison methods were used, which additionally gives the opportunity to assess the efficiency of each method. Determination of a priori undefined segments: in some cases, classification criteria did not necessarily exist for some segmentation variables, such as customer motivations. In these cases, the application of statistical classification techniques is required. For this study, two main classification techniques were used sequentially: principal component factor analysis –in order to reduce the number of variables– and cluster analysis. The application of the statistical methods to the models derived from the inclusion of the various segmentation criteria –for both clients and products–, led to the analysis of 128 different electronic commerce adoption models and 65 multi group comparisons. Finally, chapter 8 summarizes the conclusions from the research, divided into four parts: first, an assessment of the degree of achievement of the different research objectives is offered; then, methodological, theoretical and practical implications of the research are drawn; this is followed by a discussion on the results from the empirical study –based on the segmentation criteria for the research–; fourth, and last, the main limitations of the research –both empirical and theoretical– as well as future avenues of research are detailed.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Síntesis del procedimiento de diseño formulado en la tesis doctoral de Rafael Morán. La demanda de seguridad en infraestructuras críticas ha aumentado en los últimos años, especialmente en los países con mayor nivel de desarrollo económico y social. En estos países, el control del estado de la seguridad de estas infraestructuras y las medidas para disminuir los riesgos asociados en caso de avería están adquiriendo una gran relevancia, lo que se ha plasmado en unas normativas más exigentes. Las presas están dentro de este tipo de infraestructuras tanto por su interés estratégico como por los daños que pueden llegar a ocasionar en caso de un mal funcionamiento o de su eventual rotura. La tecnología de protecciones de presas surge como respuesta a esta demanda de seguridad y, por este motivo, ha experimentado un gran avance en las últimas décadas. Dentro de este artículo se va a describir la protección tipo repié y el procedimiento de diseño propuesto para evitar el deslizamiento en masa de presas con espaldón de aguas abajo de escollera, cuando se produce una filtración anormalmente elevada debido a un fallo en la impermeabilidad en el conjunto presa-cimiento. El artículo describe brevemente el estado del arte de la tecnología y de sus aplicaciones así como de la innovación conseguida en este campo a partir de las investigaciones desarrolladas en la Universidad Politécnica de Madrid (UPM), en colaboración con el Centro de Estudios Hidrográficos del CEDEX y el Centro Internacional de Métodos Numéricos en la Ingeniería (CIMNE), en el marco del proyecto de investigación del Plan Nacional denominado EDAMS.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Esta tesis examina las implicaciones técnicas, políticas y espaciales del aire urbano, y en concreto, de la calidad del aire, para tenerlo en cuenta desde una perspectiva arquitectónica. En oposición a formas de entender el aire como un vacío o como una metáfora, este proyecto propone abordarlo desde un acercamiento material y tecnológico, trayendo el entorno al primer plano y reconociendo sus múltiples agencias. Debido a la escasa bibliografía detectada en el campo de la arquitectura, el objetivo es construir un marco teórico-analítico para considerar el aire urbano. Para ello el trabajo construye Aeropolis, una metáfora heurística que describe el ensamblaje sociotecnico de la ciudad. Situada en la intersección de determinadas ramas de la filosofía de la cultura, los estudios sobre ciencia y tecnología y estudios feministas de la ciencia este nuevo paisaje conceptual ofrece una metodología y herramientas para abordar el objeto de estudio desde distintos ángulos. Estas herramientas metodológicas han sido desarrolladas en el contexto específico de Madrid, ciudad muy contaminada cuyo aire ha sido objeto de controversias políticas y sociales, y donde las políticas y tecnologías para reducir sus niveles no han sido exitosas. Para encontrar una implicación alternativa con el aire esta tesis propone un método de investigación de agentes invisibles a partir del análisis de sus dispositivos epistémicos. Se centra, en concreto, en los instrumentos que miden, visualizan y comunican la calidad del aire, proponiendo que no sólo lo representan, sino que son también instrumentos que diseñan el aire y la ciudad. La noción de “sensing” (en castellano medir y sentir) es expandida, reconociendo distintas prácticas que reconstruyen el aire de Madrid. El resultado de esta estrategia no es sólo la ampliación de los espacios desde los que relacionarnos con el aire, sino también la legitimación de prácticas existentes fuera de contextos científicos y administrativos, como por ejemplo prácticas relacionadas con el cuerpo, así como la redistribución de agencias entre más actores. Así, esta tesis trata sobre toxicidad, la Unión Europea, producción colaborativa, modelos de computación, dolores de cabeza, kits DIY, gases, cuerpos humanos, salas de control, sangre o políticos, entre otros. Los dispositivos que sirven de datos empíricos sirven como un ejemplo excepcional para investigar infraestructuras digitales, permitiendo desafiar nociones sobre Ciudades Inteligentes. La tesis pone especial atención en los efectos del aire en el espacio público, reconociendo los procesos de invisibilización que han sufrido sus infraestructuras de monitorización. Para terminar se exponen líneas de trabajo y oportunidades para la arquitectura y el diseño urbano a través de nuevas relaciones entre infraestructuras urbanas, el medio construido, espacios domésticos y públicos y humanos y no humanos, para crear nuevas ecologías políticas urbanas (queer). ABSTRACT This thesis examines the technical, political and spatial implications of urban air, and more specifically "air quality", in order to consider it from an architectural perspective. In opposition to understandings of the air either as a void or as a metaphor, this project proposes to inspect it from a material and technical approach, bringing the background to the fore and acknowledging its multiple agencies. Due to the scarce bibliography within the architectural field, its first aim is to construct a theoretical and analytical framework from which to consider urban air. For this purpose, the work attempts the construction of Aeropolis, a heuristic metaphor that describes the city's aero socio-material assemblage. Located at the intersection of certain currents in cultural philosophy, science and technology studies as well as feminist studies in technoscience, this framework enables a methodology and toolset to be extracted in order to approach the subject matter from different angles. The methodological tools stemming from this purpose-built framework were put to the test in a specific case study: Madrid, a highly polluted city whose air has been subject to political and social controversies, and where no effective policies or technologies have been successful in reducing its levels of pollution. In order to engage with the air, the thesis suggests a method for researching invisible agents by examining the epistemic devices involved. It locates and focuses on the instruments that sense, visualise and communicate urban air, claiming that they do not only represent it, but are also instruments that design the air and the city. The notion of "sensing" is then expanded by recognising different practices which enact the air in Madrid. The work claims that the result of this is not only the opening up of spaces for engagement but also the legitimisation of existing practices outside science and policymaking environments, such as embodied practices, as well as the redistribution of agency among more actors. So this is a thesis about toxicity, the European Union, collaborative production, scientific computational models, headaches, DIY kits, gases, human bodies, control rooms, blood, or politicians, among many others. The devices found throughout the work serve as an exceptional substrate for an investigation of digital infrastructures, enabling to challenge Smart City tropes. There is special attention paid to the effects of the air on the public space, acknowledging the silencing processes these infrastructures have been subjected to. Finally there is an outline of the opportunities arising for architecture and urban design when taking the air into account, to create new (queer) urban political ecologies between the air, urban infrastructures, the built environment, public and domestic spaces, and humans and more than humans.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

En la última década, los sistemas de telecomunicación de alta frecuencia han evolucionado tremendamente. Las bandas de frecuencias, los anchos de banda del usuario, las técnicas de modulación y otras características eléctricas están en constante cambio de acuerdo a la evolución de la tecnología y la aparición de nuevas aplicaciones. Las arquitecturas de los transceptores modernos son diferentes de las tradicionales. Muchas de las funciones convencionalmente realizadas por circuitos analógicos han sido asignadas gradualmente a procesadores digitales de señal, de esta manera, las fronteras entre la banda base y las funcionalidades de RF se difuminan. Además, los transceptores inalámbricos digitales modernos son capaces de soportar protocolos de datos de alta velocidad, por lo que emplean una elevada escala de integración para muchos de los subsistemas que componen las diferentes etapas. Uno de los objetivos de este trabajo de investigación es realizar un estudio de las nuevas configuraciones en el desarrollo de demostradores de radiofrecuencia (un receptor y un transmisor) y transpondedores para fines de comunicaciones y militares, respectivamente. Algunos trabajos se han llevado a cabo en el marco del proyecto TECRAIL, donde se ha implementado un demostrador de la capa física LTE para evaluar la viabilidad del estándar LTE en el entorno ferroviario. En el ámbito militar y asociado al proyecto de calibración de radares (CALRADAR), se ha efectuado una actividad importante en el campo de la calibración de radares balísticos Doppler donde se ha analizado cuidadosamente su precisión y se ha desarrollado la unidad generadora de Doppler de un patrón electrónico para la calibración de estos radares. Dicha unidad Doppler es la responsable de la elevada resolución en frecuencia del generador de “blancos” radar construido. Por otro lado, se ha elaborado un análisis completo de las incertidumbres del sistema para optimizar el proceso de calibración. En una segunda fase se han propuesto soluciones en el desarrollo de dispositivos electro-ópticos para aplicaciones de comunicaciones. Estos dispositivos son considerados, debido a sus ventajas, tecnologías de soporte para futuros dispositivos y subsistemas de RF/microondas. Algunas demandas de radio definida por software podrían cubrirse aplicando nuevos conceptos de circuitos sintonizables mediante parámetros programables de un modo dinámico. También se ha realizado una contribución relacionada con el diseño de filtros paso banda con topología “Hairpin”, los cuales son compactos y se pueden integrar fácilmente en circuitos de microondas en una amplia gama de aplicaciones destinadas a las comunicaciones y a los sistemas militares. Como importante aportación final, se ha presentado una propuesta para ecualizar y mejorar las transmisiones de señales discretas de temporización entre los TRMs y otras unidades de procesamiento, en el satélite de última generación SEOSAR/PAZ. Tras un análisis exhaustivo, se ha obtenido la configuración óptima de los buses de transmisión de datos de alta velocidad basadas en una red de transceptores. ABSTRACT In the last decade, high-frequency telecommunications systems have extremely evolved. Frequency bands, user bandwidths, modulation techniques and other electrical characteristics of these systems are constantly changing following to the evolution of technology and the emergence of new applications. The architectures of modern transceivers are different from the traditional ones. Many of the functions conventionally performed by analog circuitry have gradually been assigned to digital signal processors. In this way, boundaries between baseband and RF functionalities are diffused. The design of modern digital wireless transceivers are capable of supporting high-speed data protocols. Therefore, a high integration scale is required for many of the components in the block chain. One of the goals of this research work is to investigate new configurations in the development of RF demonstrators (a receiver and a transmitter) and transponders for communications and military purposes, respectively. A LTE physical layer demonstrator has been implemented to assess the viability of LTE in railway scenario under the framework of the TECRAIL project. An important activity, related to the CALRADAR project, for the calibration of Doppler radars with extremely high precision has been performed. The contribution is the Doppler unit of the radar target generator developed that reveals a high frequency resolution. In order to assure the accuracy of radar calibration process, a complete analysis of the uncertainty in the above mentioned procedure has been carried out. Another important research topic has been the development of photonic devices that are considered enabling technologies for future RF and microwave devices and subsystems. Some Software Defined Radio demands are addressed by the proposed novel circuit concepts based on photonically tunable elements with dynamically programmable parameters. A small contribution has been made in the field of Hairpin-line bandpass filters. These filters are compact and can also be easily integrated into microwave circuits finding a wide range of applications in communication and military systems. In this research field, the contributions made have been the improvements in the design and the simulations of wideband filters. Finally, an important proposal to balance and enhance transmissions of discrete timing signals between TRMs and other processing units into the state of the art SEOSAR/PAZ Satellite has been carried out obtaining the optimal configuration of the high-speed data transmission buses based on a transceiver network. RÉSUMÉ Les systèmes d'hyperfréquence dédiés aux télécommunications ont beaucoup évolué dans la dernière décennie. Les bandes de fréquences, les bandes passantes par utilisateur, les techniques de modulation et d'autres caractéristiques électriques sont en constant changement en fonction de l'évolution des technologies et l'émergence de nouvelles applications. Les architectures modernes des transcepteurs sont différentes des traditionnelles. Un grand nombre d’opérations normalement effectuées par les circuits analogiques a été progressivement alloué à des processeurs de signaux numériques. Ainsi, les frontières entre la bande de base et la fonctionnalité RF sont floues. Les transcepteurs sans fils numériques modernes sont capables de transférer des données à haute vitesse selon les différents protocoles de communication utilisés. C'est pour cette raison qu’un niveau élevé d'intégration est nécessaire pour un grand nombre de composants qui constitue les différentes étapes des systèmes. L'un des objectifs de cette recherche est d'étudier les nouvelles configurations dans le développement des démonstrateurs RF (récepteur et émetteur) et des transpondeurs à des fins militaire et de communication. Certains travaux ont été réalisés dans le cadre du projet TECRAIL, où un démonstrateur de la couche physique LTE a été mis en place pour évaluer la faisabilité de la norme LTE dans l'environnement ferroviaire. Une contribution importante, liée au projet CALRADAR, est proposée dans le domaine des systèmes d’étalonnage de radar Doppler de haute précision. Cette contribution est le module Doppler de génération d’hyperfréquence intégré dans le système électronique de génération de cibles radar virtuelles que présente une résolution de fréquence très élevée. Une analyse complète de l'incertitude dans l'étalonnage des radars Doppler a été effectuée, afin d'assurer la précision du calibrage. La conception et la mise en oeuvre de quelques dispositifs photoniques sont un autre sujet important du travail de recherche présenté dans cette thèse. De tels dispositifs sont considérés comme étant des technologies habilitantes clés pour les futurs dispositifs et sous-systèmes RF et micro-ondes grâce à leurs avantages. Certaines demandes de radio définies par logiciel pourraient être supportées par nouveaux concepts de circuits basés sur des éléments dynamiquement programmables en utilisant des paramètres ajustables. Une petite contribution a été apportée pour améliorer la conception et les simulations des filtres passe-bande Hairpin à large bande. Ces filtres sont compacts et peuvent également être intégrés dans des circuits à micro-ondes compatibles avec un large éventail d'applications dans les systèmes militaires et de communication. Finalement, une proposition a été effectuée visant à équilibrer et améliorer la transmission des signaux discrets de synchronisation entre les TRMs et d'autres unités de traitement dans le satellite SEOSAR/PAZ de dernière génération et permettant l’obtention de la configuration optimale des bus de transmission de données à grande vitesse basés sur un réseau de transcepteurs.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La Productividad es la relación integral entre personas, tecnología y dinero con el fin de generar bienes y servicios, que sean beneficiosos para la empresa, trabajadores, clientes y sociedad. El interés se centra en obtener una evaluación ponderada de los valores organizacionales asociados a los factores que afectan a la productividad a través del Proceso de Análisis Jerárquico (AHP). Del proceso de clasificación, ordenación y análisis se agruparon los factores internos que afectan la productividad en tres subsistemas: Cultura, Operaciones y Dirección. Los valores que obtuvieron la mayor preferencia fueron seguridad del trabajador, disciplina, ética y responsabilidad.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Las políticas europeas de desarrollo de los últimos treinta años han orientado sus objetivos hacia el fomento de la innovación tecnológica a nivel regional mediante la creación de una serie de programas que favorecen la difusión de la tecnología y los intercambios de conocimientos entre los distintos agentes pertenecientes a un mismo sistema de innovación regional. En la Comunidad de Madrid se han elaborado una serie de programas con el objetivo convertir la región en uno de los referentes europeos en materia de innovación tecnológica. Para ello, en Noviembre de 2001, la Dirección General de Innovación Tecnológica presenta las líneas maestras de una primera fase de la estrategia de innovación, modernización y difusión, dentro de un plan de choque que abarcaba los años 2002 y 2003. Este plan de choque 2002-2003 incluía el programa de implantación de una serie de Centros de Difusión Tecnológica (CDTs) repartidos por toda la región con el objetivo principal de contribuir a la difusión de la cultura de la innovación tecnológica y de la sociedad de la información y el conocimiento en el ámbito empresarial, especialmente entre las de menor tamaño, mediante la detección de las principales necesidades de las empresas y el asesoramiento posterior a las mismas. Tras la evaluación realizada sobre la implantación de los CDTs en la Comunidad de Madrid, se advierte que estos Centros están teniendo una buena aceptación y obteniendo buenos resultados dentro del ámbito regional de la Comunidad de Madrid. Si bien es cierto que el programa está tan sólo en fase de iniciación y que todavía no ha llegado a todas las empresas, se pueden prever buenos resultados en cuanto al desarrollo tecnológico de la región gracias en gran parte, a la implantación de estos Centros.