591 resultados para Amylose-extender
Resumo:
En la segunda mitad del siglo IV a. C. Roma ocupa la Italia central y se orienta al dominio de la región meridional en colisión posible con griegos y cartagineses; su influjo se extiende incluso al Jónico cuando varias ciudades de la Magna Grecia solicitan su protección, no así Tarento, que al anclar una escuadra romana en su puerto, reaccionó atacando las naves y una guarnición romana próxima. Tarento, ante una guerra inevitable, pidió apoyo al rey Pirro de Epiro, quien vio la oportunidad de extender hacia occidente las conquistas que Alejandro dejó inconclusas; su invasión de Italia generó fuerte resistencia, pero no le impidió victorias costosas ni su avance hacia el norte; propuso por intermedio de un embajador la rendición y condiciones gravosas para los romanos que estuvieron a punto de ceder. Allí surge Appio Claudia el Ciego, anciano senador ya retirado, que con un discurso breve, preciso y muy logrado produjo un giro en las decisiones de los patricios. Analizamos el discurso conservado por Plutarco en la Vida de Pirro y lo ubicamos dentro de su contexto histórico y político; gracias a él, Roma conservó sus fronteras itálicas y preparó su futura expansión.
Resumo:
Temática principal: En los nuevos escenarios actuales, la vejez y el envejecimiento forman una nueva geografía y una nueva historia cultural, social, y singular. Los cambios y trasformaciones en las concepciones sobre la vejez se han producido por múltiples factores que han transformado no solamente la población, en tanto aumento del porcentaje de personas mayores que habitan la sociedad, sino que han desafiado a los mayores a construir y crear nuevas representaciones de la vejez y los modos de significarla y proyectarla. Asimismo, junto con los criterios actuales para definir y comprender este momento vital desde el aporte y advenimiento de la gerontología, tienen efectos en la construcción de la subjetividad e identidad prejuicios que producen activamente sentimientos de rechazo y desvalorización hacia la vejez como etapa no deseable para ser vivida. Preservar la memoria va de la mano de preservar la identidad; la acción de anudar un recuerdo con otro produciendo un nuevo sentido del acontecimiento narrado, preserva el sentimiento de mismidad otorgando identidad y subjetividad al ser. Objetivos: En este trabajo nuestra inquietud es acercar algunasreflexiones teóricas sobre ciertas observaciones en las personas mayores que muestran un interés particular en realizar talleres de memoria y estimulación cognitiva, expresando su temor a cumplirse la fantasía de adquirir la enfermedad de Alzheimer o de perder la lucidez mental, asociando rápidamente vejez con deterioro y enfermedad mental. Desde esta perspectiva, nos interesa articular y extender más allá del principio de enfermedad que subyace en los mayores con respecto a los olvidos, el valor de la memoria cumpliendo su función coherentizante de la historia singular. A la vez, enfatizar el envejecimiento como un escenario actual, donde aún, y a pesar del auge de los estudios en gerontología, no podemos dar por acabadas y superadas algunas de las visiones teóricas ideológicas, donde subyacen todavía visiones prejuiciosas. Por ello, sería preciso rescatar y dilucidar sus problemáticas específicas, y plantear revisiones críticas, que enfaticen el lugar de los mayores como actores partícipes del cambio cultural. Metodología: Partimos de considerar las observaciones realizadas a las personas mayores que concurren a diferentes talleres de memoria e incorporamos para el análisis las evaluaciones que los mayores realizan al finalizar la actividad a modo de aprovechamiento de la experiencia. Dichas evaluaciones fueron cotejadas con las encuestas que completan al inicio de la actividad en las que expresan susobjetivos y expectativas de realizar al taller. Resultados: Encontramos en consonancia con lo que diferentes investigaciones han demostrado, que los estereotipos negativos hacia la vejez, generan unasensación de 'amenaza' a la integridad personal, promueven un menor rendimiento a nivel de la memoria, en el sentimiento de autoeficiencia, en la capacidad para la escritura, en trastornos de salud, y en toda una serie de retiros anticipados de compromisos sociales, laborales y sexuales. En los distintos recorridos encontramos que los déficits que se ven en la memoria de los adultos mayores no provienen mayormente de cuestiones biológicas sino que se adquieren desde las representaciones sociales y sus efectos. Conclusiones: La significación que los mismos mayores le otorgan al señalar que la memoria 'no es más la de antes', pone en evidencia el valor y la significación que le dan al cambio. Así es que pensamos que las transformaciones profundas y las vivencias de cambios en todos los diferentes planos de la subjetividad en el envejescente jaquean 'lo conocido', un presente nuevo a investir, y las cuestiones que hagan a la memoria se volverían vitales, ya no por las recomendaciones en tanto evitar el deterioro, sino porque la construcción-reconstrucción de un pasado es necesaria para investir el presente y el futuro
Resumo:
Durante el transcurso de los últimos años se ha producido, a nivel internacional, un proceso caracterizado por la compleja y difícil inclusión de los jóvenes en tanto sujetos activos de las sociedades. En este contexto, se han generando una serie de trabajos sobre el vínculo de los jóvenes con la política mostrando su indiferencia e incluso su rechazo. Específicamente en América Latina se ha ido conformando un área de estudios sobre juventud desde los años '90 en el que confluyen distintas disciplinas, perspectivas y enfoques que van enriqueciendo este campo. Del mismo modo, se reconocen otras líneas de abordaje que dan cuenta de una juventud portadora de nuevos signos de lo político, lo que daría lugar a la revisión de las interpretaciones tradicionales sobre la política y lo político. En base a lo señalado, en este estudio se indagan las representaciones sociales de la política en adolescentes escolarizados con edades entre 17 y 18 años (n=233) de la Ciudad Autónoma de Buenos Aires (CABA), analizando sus relaciones con el nivel educativo de sus hogares. Este último se determinó considerando el máximo nivel educativo alcanzado por el padre o la madre siendo la composición de la muestra: 17.2primario, 27.2secundario y 55.6estudios terciarios/universitarios. De esta manera se llevó a cabo un estudio descriptivo con un diseño transversal. La recolección de datos se realizó en el año 2010. Para describir las representaciones sociales se administró la técnica de asociación de palabras y se solicitó a los participantes que escriban las primeras cinco palabras que les vinieran a la mente al pensar en el término inductor 'política'. Resulta relevante indagar este problema ya que, en el contexto local no se conocen trabajos que se hayan ocupado de las representaciones sociales de la política. Al mismo tiempo, se plantea la necesidad de extender la indagación a edades anteriores a las que se han trabajado hasta el momento, para poder esclarecer cómo se configura el vínculo de los nuevos ciudadanos con la política desde su adolescencia. Las palabras asociadas fueron las siguientes: corrupción, presidente y políticos. Asimismo se han destacado, gobierno, dinero, nación, elecciones, mentira, poder, derecho y estado. Los resultados hallados revelan que el sentido que se pone de manifiesto en los términos asociados es análogo en los grupos correspondientes a participantes cuyos padres cuentan con un nivel educativo primario, secundario y terciario universitario. Aunque en el grupo correspondiente a los participantes cuyos padres cuentan con estudios universitarios o terciarios las palabras asociadas tienen una mayor variabilidad, su sentido es similar al de las asociadas por los otros dos grupos. Por lo tanto, podría tratarse de representaciones sociales hegemónicas. O bien, es posible que las diferencias entre las representaciones se pongan de manifiesto al incluir otras variables para definir los grupos sociales. De esta manera, resulta necesario continuar avanzando en el análisis de los resultados obtenidos incluyendo otras variables y realizando estudios más complejos para describir el campo semántico que se pone de manifiesto en las palabras asociadas por cada uno de los grupos
Resumo:
La temática principal de la presente exposición consiste en considerar la importancia de abordar las características subjetivas y socio-culturales en el momento histórico actual. Estos contenidos de abordaje permiten contextualizar la clínica psicoanalítica con niños, adolescentes y familias, teniendo en consideración la disposición entrelazada de factores, y que a su vez hace necesario adoptar una perspectiva epistemológica compleja. Esta propuesta temática se extiende al estudio del proceso de socialización, entendido este último como una dimensión amplia en el contexto del desarrollo psicológico en interacción con otros aspectos del mismo, pudiendo conceptualizar al psiquismo como un sistema complejo y abierto a las vicisitudes del contexto humano en el cual tiene lugar su surgimiento y evolución. Los objetivos planteados pretenden arribar a una articulación conceptual que posibilite brindar herramientas teórico-prácticas en los dispositivos de tratamiento, mostrando la relevancia de tener en cuenta el nuevo paradigma epistemológico que atraviesa hoy día el campo de la ciencia. Cabe añadir que en la actualidad el paradigma de la complejidad comprende las ciencias exactas y de la naturaleza, también las ciencias humanas y sociales, entre ellas las diversas corrientes de la psicología y del psicoanálisis. Dicho trabajo se halla dirigido a profesionales de la psicología que trabajan cotidianamente con relaciones complejas de elementos y factores propios de la naturaleza humana, pudiendo extender tal exposición a aquellos científicos que abordan temáticas socio-culturales en diversos ámbitos, a saber, centros de salud, educativos, comunitarios, entre otros. La metodología empleada para la realización de este trabajo consistió esencialmente en una indagación bibliográfica en textos específicos de autores que permitieran dar cuenta de la problemática expuesta. A su vez la práctica clínica se ofrece también como fuente de información teórico-clínica a partir de la experiencia terapéutica en la cual se incluye la relación entre subjetividad y cultura. Con todo ello se buscó efectuar un trabajo de articulación conceptual en el cual se problematizan aspectos de la realidad humana según una perspectiva epistemológica e histórico-social. Como resultado de tal indagación bibliográfica se hallaron contribuciones teóricas pertinentes para dar cuenta de la problemática instalada. Aportes de autores significativos, a saber, Edgar Morin y Piera Aulagnier, brindan herramientas conceptuales importantes para pensar la problemática planteada en torno de la perspectiva epistemológica de la complejidad que enmarca la interrelación teórica entre conceptos quefundamentan la actividad profesional. Como conclusión se puede sostener que la temática referida a la clínica psicoanalítica actual debe ser tratada necesariamente desde el paradigma de la complejidad; es pertinente considerar las múltiples interrelaciones de factores, y para ello es menester poseer un modo de pensamiento complejo y abierto aintercambios inter y transdisciplinarios. Este trabajo constituye una lectura singular sobre la relación entre psicoanálisis y cultura a partir del enfoque epistemológico propuesto. Dicha postura teórica se propone favorecer la emergencia de un intercambio de ideas enriquecedoras para propiciar así la construcción de conocimientos a partir del diálogo entre diversas conceptualizaciones de un mismo problema. Este propósito puede llevarse a cabo gracias a la existencia de un pensamiento crítico y abierto a diversas posibilidades. La clínica psicoanalítica en la actualidad nos enfrenta cotidianamente con problemáticas en las cuales entran en juego gran variedad de factores interrelacionados. Esta situación nos sugiere estar preparados constantemente para trabajar con la incertidumbre y la necesidad de implementar abordajes terapéuticos que integren las diferentes dimensiones de la subjetividad. A través de esta exposición temática se procuró dar cuenta de la importancia que poseen los diversos contextos socio-culturales y lingüísticos en el proceso de socialización del ser humano desde su nacimiento, organizando de esta manera su psiquismo, entendido como un sistema complejo y en continua interacción con el medio ambiente humano al cual adviene y se desarrolla
Resumo:
Esta es una tesis situada en el campo de estudios interdisciplinario de las Ciencias de la Educación, la Historia y la Psicología Social, por lo que es denominada como un estudio acerca de la educación, y su historia psicosocial. La identidad es un concepto sumamente prolífico a la hora de pensar las problemáticas educativas en claves históricas y psicosociales. Si a esto se le agrega la interacción con los cánones escolares, se alcanza un campo rico y fértil para ser investigado. A partir de ahí, la investigación se propone por objetivo general, producir un conocimiento explicativo en torno a la configuración de identidad y el impacto producido por los cánones culturales de la escuela en la herencia cultural de las poblaciones migratorias. A los fines de situar empíricamente el objeto, la dimensión espacial elegida, ha sido una comunidad de la ciudad de Rosario, Santa Fe. El barrio Belgrano y, en particular, la escuela No 91 República Federativa de Brasil, que es la oferta educativa estatal de nivel primario vinculada al mismo. Se desarrollan elementos analíticos que hacen a la configuración socio-histórica (segunda mitad del siglo XX) y educativa del barrio Belgrano. Se trabajan categorías que involucran a la identidad barrial, su historia, la transmisión del legado cultural y el sentido de pertenencia de los sujetos que viven e interactúan en él. Se parte de las siguientes hipótesis: los migrantes internos se incorporan a la comunidad local escapando de las necesidades económicas de su lugar de origen No obstante, una vez asentados los migrantes toman como propias las representaciones adquiridas confluyendo con las referidas a la pertenencia barrial. Si la escuela pretende que la identidad de los migrantes sea absorbida como una adaptación pasiva al canon cultural, esta fracasa en aquellos aspectos que hacen al legado cultural, aunque continúe con la reproducción de ciertos aspectos de la homogeneización y de las diferencias sociales. La metodología cualitativa se ajusta a las pretensiones establecidas. El análisis de entrevistas, documentos, y datos censales es utilizado siendo triangulados los datos para una mejor precisión de la información referida. Consecuentemente, se efectúa el examen del impacto de los movimientos migratorios interprovinciales e internos de la ciudad que conllevan a poblar y a extender el tejido social del barrio y sus alcances en la transmisión del legado cultural en la escuela. Los resultados ponen en evidencia que el arbitrario cultural dominante, a través de sus propios cánones, no que lineal ni se apoderó totalmente de toda la escuela No. 91. Al tener un sentido de pertenencia e identificación suprema con el barrio, no habría reproducido totalmente y sin cuestionamientos el canon cultural dominante. Implícitamente y quizá espontáneamente, las prácticas reprodujeron el mandato del discurso del conjunto social, amalgamado con los aprendizajes socialmente significativos del legado de la comunidad. Por último, hacia fines de los noventa, la vida cotidiana barrial se torna altamente fragmentada e individualizada sin expectativas de configurar un proyecto común. Estas características también se observaron en la práctica docente: la pérdida en el tiempo, del sentido histórico, que ocasiona un resquebrajamiento en los vínculos sociales.
Resumo:
Selected parts of ten frozen core samples from Holes 482A, 482B, 483A, and 485A, Leg 65 of the Deep Sea Drilling Project (DSDP), were analyzed for residual carbohydrates in order to determine the provenance and history of the organic material in the sediments. The samples, which represented silty-clay, shale, and nannofossil- chalk sediments, were analyzed for water-soluble monosaccharides, acid-soluble monosaccharides, and for starch and cellulose. Most samples yielded positive results for acid-extractable (polymeric) arabinose, fucose, xylose, mannose, galactose, and glucose. Amylose was detected in seven of the samples, whereas cellulose was found in only one. Possible explanations for the relatively high levels of free sugars are suggested in the conclusions to this chapter.
Resumo:
La utilización de biocombustibles derivados de aceites vegetales es una opción válida para contribuir a la reducción de emisiones de CO2 y extender la vida de los combustibles convencionales. El biodiésel (mezcla de ésteres metílicos de ácidos grasos) mezclado con gasóleo en motores diesel es una opción ya conocida, pero el análisis del comportamiento del motor en un vehículo ligero en tráfico real es aun un tema poco investigado. El objeto de esta ponencia es presentar la metodología de ensayo y los resultados obtenidos en un trabajo de investigación sobre el efecto que la variación del porcentaje de biodiesel en gasóleo tiene en las prestaciones del motor y su rendimiento térmico en tráfico urbano real. Las medidas se han realizado con equipos embarcados en un vehículo y utilizando el biodiesel producido en la Universidad de la Frontera en Temuco (Chile) mezclado en proporciones diferentes con gasóleo suministrado por Repsolypf, S.A., caracterizado en laboratorio. Los ensayos se han realizado en la ciudad de Madrid con un SEAT León TDI 2.0 con un solo conductor y aplicado dos estilos de conducción diferentes: agresiva y eficiente, caracterizadas según trabajos anteriores. Los resultados obtenidos en consumo de combustible no son los que cabía esperar en base al poder calorífico y la densidad de la mezcla, y no siguen los obtenidos en otras investigaciones realizadas en banco de pruebas. Para explicar esta discrepancia se aportan los resultados de un estudio de la energía aportada por el motor en cada instante seguido de una análisis estadístico de todo el volumen de datos obtenidos para presentar los resultados en una nueva forma que muestra cómo la potencia demandada en el vehículo es menor y el rendimiento térmico del motor diesel mejora al aumentar el porcentaje de biodiesel.
Resumo:
En un ejercicio no extenuante la frecuencia cardíaca (FC) guarda una relación lineal con el consumo máximo de oxígeno (V O2max) y se suele usar como uno de los parámetros de referencia para cuantificar la capacidad del sistema cardiovascular. Normalmente la frecuencia cardíaca puede remplazar el porcentaje de V O2max en las prescripciones básicas de ejercicio para la mejora de la resistencia aeróbica. Para obtener los mejores resultados en la mejora de la resistencia aeróbica, el entrenamiento de los individuos se debe hacer a una frecuencia cardíaca suficientemente alta, para que el trabajo sea de predominio dinámico con la fosforilación oxidativa como fuente energética primaria, pero no tan elevada que pueda suponer un riesgo de infarto de miocardio para el sujeto que se está entrenando. Los programas de entrenamiento de base mínima y de base óptima, con ejercicios de estiramientos para prevenir lesiones, son algunos de los programas más adecuados para el entrenamiento de la resistencia aeróbica porque maximizan los beneficios y minimizan los riesgos para el sistema cardiovascular durante las sesiones de entrenamiento. En esta tesis, se ha definido un modelo funcional para sistemas de inteligencia ambiental capaz de monitorizar, evaluar y entrenar las cualidades físicas que ha sido validado cuando la cualidad física es la resistencia aeróbica. El modelo se ha implementado en una aplicación Android utilizando la camiseta inteligente “GOW running” de la empresa Weartech. El sistema se ha comparado en el Laboratorio de Fisiología del Esfuerzo (LFE) de la Universidad Politécnica de Madrid (UPM) durante la realización de pruebas de esfuerzo. Además se ha evaluado un sistema de guiado con voz para los entrenamientos de base mínima y de base óptima. También el desarrollo del software ha sido validado. Con el uso de cuestionarios sobre las experiencias de los usuarios utilizando la aplicación se ha evaluado el atractivo de la misma. Por otro lado se ha definido una nueva metodología y nuevos tipos de cuestionarios diseñados para evaluar la utilidad que los usuarios asignan al uso de un sistema de guiado por voz. Los resultados obtenidos confirman la validez del modelo. Se ha obtenido una alta concordancia entre las medidas de FC hecha por la aplicación Android y el LFE. También ha resultado que los métodos de estimación del VO2max de los dos sistemas pueden ser intercambiables. Todos los usuarios que utilizaron el sistema de guiado por voz para entrenamientos de 10 base mínima y de base óptimas de la resistencia aeróbica consiguieron llevar a cabo las sesiones de entrenamientos con un 95% de éxito considerando unos márgenes de error de un 10% de la frecuencia cardíaca máxima teórica. La aplicación fue atractiva para los usuarios y hubo también una aceptación del sistema de guiado por voz. Se ha obtenido una evaluación psicológica positiva de la satisfacción de los usuarios que interactuaron con el sistema. En conclusión, se ha demostrado que es posible desarrollar sistemas de Inteligencia Ambiental en dispositivos móviles para la mejora de la salud. El modelo definido en la tesis es el primero modelo funcional teórico de referencia para el desarrollo de este tipo de aplicaciones. Posteriores estudios se realizarán con el objetivo de extender dicho modelo para las demás cualidades físicas que suponen modelos fisiológicos más complejos como por ejemplo la flexibilidad. Abstract In a non-strenuous exercise, the heart rate (HR) shows a linear relationship with the maximum volume of oxygen consumption (V O2max) and serves as an indicator of performance of the cardiovascular system. The heart rate replaces the %V O2max in exercise program prescription to improve aerobic endurance. In order to achieve an optimal effect during endurance training, the athlete needs to work out at a heart rate high enough to trigger the aerobic metabolism, while avoiding the high heart rates that bring along significant risks of myocardial infarction. The minimal and optimal base training programs, followed by stretching exercises to prevent injuries, are adequate programs to maximize benefits and minimize health risks for the cardiovascular system during single session training. In this thesis, we have defined an ambient intelligence system functional model that monitors, evaluates and trains physical qualities, and it has been validated for aerobic endurance. It is based on the Android System and the “GOW Running” smart shirt. The system has been evaluated during functional assessment stress testing of aerobic endurance in the Stress Physiology Laboratory (SPL) of the Technical University of Madrid (UPM). Furthermore, a voice system, designed to guide the user through minimal and optimal base training programs, has been evaluated. Also the software development has been evaluated. By means of user experience questionnaires, we have rated the attractiveness of the android application. Moreover, we have defined a methodology and a new kind of questionnaires in order to assess the user experience with the audio exercise guide system. The results obtained confirm the model. We have a high similarity between HR measurements made of our system and the one used by SPL. We have also a high correlation between the VO2max estimations of our system and the SPL system. All users, that tried the voice guidance system for minimal and optimal base training programs, were able to perform the 95% of the training session with an error lower than the 10% of theoretical maximum heart rate. The application appeared attractive to the users, and it has also been proven that the voice guidance system was useful. As result we obtained a positive evaluation of the users' satisfaction while they interacted with the system. In conclusion, it has been demonstrated that is possible to develop mobile Ambient Intelligence applications for the improvement of healthy lifestyle. AmIRTEM model is the first theoretical reference functional model for the design of this kind of applications. Further studies will be realized in order to extend the AmIRTEM model to other physical qualities whose physiological models are more complex than the aerobic endurance.
Resumo:
Este paper presenta la tecnología Java Card y los certificados X.509 como método de autenticación en aplicaciones web en ambientes universitarios, en el caso concreto la Universidad Tecnológica de Panamá (UTP). La solución consiste en mejorar el escenario de acceso a los servicios de la UTP tratando de extender el uso de la Infraestructura de Clave Pública, llevando a cabo la integración de estas tecnologías que aporten mayor seguridad a todos los usuarios y que gocen de un acceso a los servicios ofrecidos de manera flexible, segura, garantizando la autenticidad, confidencialidad, integridad y no repudio.
Resumo:
Resumen El diseño clásico de circuitos de microondas se basa fundamentalmente en el uso de los parámetros s, debido a su capacidad para caracterizar de forma exitosa el comportamiento de cualquier circuito lineal. La relación existente entre los parámetros s con los sistemas de medida actuales y con las herramientas de simulación lineal han facilitado su éxito y su uso extensivo tanto en el diseño como en la caracterización de circuitos y subsistemas de microondas. Sin embargo, a pesar de la gran aceptación de los parámetros s en la comunidad de microondas, el principal inconveniente de esta formulación reside en su limitación para predecir el comportamiento de sistemas no lineales reales. En la actualidad, uno de los principales retos de los diseñadores de microondas es el desarrollo de un contexto análogo que permita integrar tanto el modelado no lineal, como los sistemas de medidas de gran señal y los entornos de simulación no lineal, con el objetivo de extender las capacidades de los parámetros s a regímenes de operación en gran señal y por tanto, obtener una infraestructura que permita tanto la caracterización como el diseño de circuitos no lineales de forma fiable y eficiente. De acuerdo a esta filosofía, en los últimos años se han desarrollado diferentes propuestas como los parámetros X, de Agilent Technologies, o el modelo de Cardiff que tratan de proporcionar esta plataforma común en el ámbito de gran señal. Dentro de este contexto, uno de los objetivos de la presente Tesis es el análisis de la viabilidad del uso de los parámetros X en el diseño y simulación de osciladores para transceptores de microondas. Otro aspecto relevante en el análisis y diseño de circuitos lineales de microondas es la disposición de métodos analíticos sencillos, basados en los parámetros s del transistor, que permitan la obtención directa y rápida de las impedancias de carga y fuente necesarias para cumplir las especificaciones de diseño requeridas en cuanto a ganancia, potencia de salida, eficiencia o adaptación de entrada y salida, así como la determinación analítica de parámetros de diseño clave como el factor de estabilidad o los contornos de ganancia de potencia. Por lo tanto, el desarrollo de una formulación de diseño analítico, basada en los parámetros X y similar a la existente en pequeña señal, permitiría su uso en aplicaciones no lineales y supone un nuevo reto que se va a afrontar en este trabajo. Por tanto, el principal objetivo de la presente Tesis consistiría en la elaboración de una metodología analítica basada en el uso de los parámetros X para el diseño de circuitos no lineales que jugaría un papel similar al que juegan los parámetros s en el diseño de circuitos lineales de microondas. Dichos métodos de diseño analíticos permitirían una mejora significativa en los actuales procedimientos de diseño disponibles en gran señal, así como una reducción considerable en el tiempo de diseño, lo que permitiría la obtención de técnicas mucho más eficientes. Abstract In linear world, classical microwave circuit design relies on the s-parameters due to its capability to successfully characterize the behavior of any linear circuit. Thus the direct use of s-parameters in measurement systems and in linear simulation analysis tools, has facilitated its extensive use and success in the design and characterization of microwave circuits and subsystems. Nevertheless, despite the great success of s-parameters in the microwave community, the main drawback of this formulation is its limitation in the behavior prediction of real non-linear systems. Nowadays, the challenge of microwave designers is the development of an analogue framework that allows to integrate non-linear modeling, large-signal measurement hardware and non-linear simulation environment in order to extend s-parameters capabilities to non-linear regimen and thus, provide the infrastructure for non-linear design and test in a reliable and efficient way. Recently, different attempts with the aim to provide this common platform have been introduced, as the Cardiff approach and the Agilent X-parameters. Hence, this Thesis aims to demonstrate the X-parameter capability to provide this non-linear design and test framework in CAD-based oscillator context. Furthermore, the classical analysis and design of linear microwave transistorbased circuits is based on the development of simple analytical approaches, involving the transistor s-parameters, that are able to quickly provide an analytical solution for the input/output transistor loading conditions as well as analytically determine fundamental parameters as the stability factor, the power gain contours or the input/ output match. Hence, the development of similar analytical design tools that are able to extend s-parameters capabilities in small-signal design to non-linear ap- v plications means a new challenge that is going to be faced in the present work. Therefore, the development of an analytical design framework, based on loadindependent X-parameters, constitutes the core of this Thesis. These analytical nonlinear design approaches would enable to significantly improve current large-signal design processes as well as dramatically decrease the required design time and thus, obtain more efficient approaches.
Resumo:
Esta Tesis constituye una contribución a los Modelos y Metodologías para la Estimación de la Calidad Percibida por los Usuarios, o Calidad de Experiencia (QoE), a partir de Parámetros de Calidad y/o Rendimiento de Red y/o Servicio (QoS) en Servicios Multimedia, y específicamente en servicios Triple-Play (3P): servicios de Televisión (TV), Telefonía y Datos ofrecidos por un mismo operador como un paquete único. En particular, se centra en los servicios Triple-Play convergentes (desplegados sobre una Red de Transporte común basada en IP, gestionada por un único operador como un Sistema Autónomo (SA)), y la relación entre la Calidad Percibida por los usuarios de dichos servicios y los parámetros de rendimiento de la Red de Transporte IP subyacente. Específicamente, contribuye a la estimación ‘en línea’ (es decir, durante la prestación del servicio, en tiempo real o casi-real) de dicha calidad. La calidad de experiencia de los usuarios es un factor determinante para el éxito o fracaso de estos servicios, y su adecuada gestión resulta por tanto un elemento crucial para el despliegue exitoso de los mismos. La calidad de experiencia resulta fácil de entender, pero compleja de implementar en sistemas reales, debido principalmente a la dificultad de su modelado, evaluación, y traducción en términos de parámetros de calidad de servicio. Mientras que la calidad de servicio puede medirse, monitorizarse y controlarse fácilmente, la calidad de experiencia es todavía muy difícil de gestionar. Una metodología completa de gestión de la calidad de experiencia debe incluir al menos: monitorización de la experiencia de los usuarios durante el consumo del servicio; adaptación de la provisión de contenidos a las condiciones variables del contexto; predicción del nivel de degradación potencial de la calidad de experiencia; y recuperación de la degradación debida a cambios en el sistema. Para conseguir un control completo de la experiencia de los usuarios finales, todas estas tareas deben ser realizadas durante la prestación del servicio y de forma coordinada. Por lo tanto, la capacidad de medir, estimar y monitorizar la calidad percibida en tiempo casi-real, y relacionarla con las condiciones de servicio de la red, resulta crítica para los proveedores de este tipo de servicios, especialmente en el caso de los más exigentes, tales como la difusión de Televisión sobre IP (IPTV). Para ello se ha seleccionado un modelo ya existente, de tipo matricial, para la estimación de la Calidad Global en servicios complejos a partir de los parámetros de funcionamiento interno de los agentes que proporcionan los servicios. Este modelo, definido en términos de servicios y sus componentes, percepciones de los usuarios, capacidades de los agentes, indicadores de rendimiento y funciones de evaluación, permite estimar la calidad global de un conjunto de servicios convergentes, tal como la perciben uno o más grupos de usuarios. Esto se consigue combinando los resultados de múltiples modelos parciales, tales que cada uno de ellos proporciona la valoración de la calidad percibida para uno de los servicios componentes, obtenida a partir de un conjunto de parámetros de rendimiento y/o Calidad de Servicio de la red de transporte IP convergente. El modelo se basa en la evaluación de las percepciones de los usuarios a partir de Factores de Valoración, calculados a partir de Indicadores de Rendimiento, que se derivan a su vez de Parámetros de Funcionamiento Interno correspondientes a las capacidades de los distintos agentes que intervienen en la prestación de los servicios. El trabajo original incluye la aplicación del modelo a un servicio 3P (datos+voz+vídeo). En este trabajo, sin embargo, el servicio de vídeo (Vídeo bajo Demanda, VoD) se considera poco importante y es finalmente ignorado. En el caso de los usuarios residenciales, el servicio de voz (Voz sobre IP, VoIP) se considera asimismo poco importante y es también ignorado, por lo que el servicio global se reduce finalmente a los servicios de datos (Acceso a Internet y juegos interactivos). Esta simplificación era razonable en su momento, pero la evolución del mercado de servicios convergentes ha hecho que en la actualidad las razones que la justificaban no sean ya aplicables. En esta Tesis, por lo tanto, hemos considerado un servicio ‘Triple-Play’ completo, incluyendo servicios de datos, voz y vídeo. Partiendo de dicho modelo, se ha procedido a actualizar los servicios considerados, eliminando los no relevantes e incluyendo otros no considerados, así como a incluir nuevos elementos (percepciones) para la estimación de la calidad de los servicios; actualizar, extender y/o mejorar los modelos de estimación de los servicios ya incluidos; incluir modelos de estimación para los nuevos servicios y elementos añadidos; desarrollar nuevos modelos de estimación para aquellos servicios o elementos para los que no existen modelos adecuados; y por último, extender, actualizar y/o mejorar los modelos para la estimación de la calidad global. Con todo ello se avanza apreciablemente en la modelización y estimación de la Calidad de Experiencia (QoE) en Servicios Multimedia a partir de Parámetros de Calidad de Servicio (QoS) y/o Rendimiento de la Red, y específicamente en la estimación ‘en línea’, en tiempo casi-real, de dicha calidad en servicios Triple-Play convergentes. La presente Tesis Doctoral se enmarca en la línea de investigación sobre Calidad de Servicio del grupo de Redes y Servicios de Telecomunicación e Internet, dentro del Departamento de Ingeniería de Sistemas Telemáticos (DIT) de la Universidad Politécnica de Madrid (UPM).
Resumo:
La seguridad en el ámbito nuclear juega un papel muy importante debido a las graves consecuencias que pueden tener los posibles accidentes, cuyos efectos se pueden extender por extensos espacios y prolongarse mucho en el tiempo. Es por eso que desde el inicio del desarrollo de la tecnología nuclear siempre se ha vigilado por mantener las instalaciones nucleares en un nivel de riesgo aceptable. En esta tesis se pretende poner de manifiesto algunas carencias del análisis de riesgo clásico que se resumen en una forma de distinguir y separar transitorios de daño y transitorios seguros pertenecientes a una misma secuencia, definiendo el llamado dominio de daño y evaluando la probabilidad de que algún transitorio perteneciente a la secuencia sea de daño, es decir, que esté contenido dentro de la región del dominio de daño, aportando la llamada probabilidad de superación para obtener la frecuencia de superación de estados finales no deseados. En la tesis se realiza en primer lugar un breve resumen de algunos reactores de alta temperatura refrigerados con gas, de los que se ha elegido al reactor de prueba de alta temperatura (HTTR) como ejemplo para mostrar la metodología. Aparte de ver el diseño de los diferentes reactores y su aportación a la investigación y desarrollo de nuevos modelos, se estudiaron algunos incidentes y se tomaron datos de algunos de ellos para ajustar las probabilidades de los sucesos a emplear en los árboles de fallos. Seguidamente se realiza un análisis simple de una secuencia, según la metodología clásica de análisis probabilista del riesgo, usando solo arboles de fallos y de sucesos, evaluando la frecuencia de daño de dicha secuencia. En el núcleo de la Tesis se describe la metodología y la aportación que se propone para obtener la cuantificación de tan solo los transitorios de daño y su aportación al estado final. Una aportación significativa es el modelado del HTTR, plasmado en el programa de simulación HTTR5+, necesario para poder aplicar la metodología, con el que se ha llevado a cabo la simulación de un transitorio de prueba, a fin de realizar la comparación con el obtenido por el fabricante (JAERI), buscando el dominio de daño y su cuantificación. Para este fin, se desarrolló un módulo que gestiona las diferentes simulaciones para delinear el dominio de daño, el cual se integró al simulador HTTR5+ para crear el programa DD-HTTR5+. Los resultados de la frecuencia de superación de la variable de daño se han comparado con los obtenidos por el método tradicional, para finalmente extraer las conclusiones de la Tesis. Uno de los resultados más significativos es que para la secuencia analizada un 40% de los transitorios que pertenecen a la secuencia son de daño y el otro 60% son transitorios seguros. Al emplear el método clásico se estaba realizando una sobreestimación de la probabilidad y frecuencia de daño. La Tesis también contiene en anexos una descripción muy detallada del HTTR, con respecto a su diseño, modos de operación, sistemas y componentes, etc. También se detallan las propiedades termofísicas del HTTR, así como las tasas de fallos y los árboles de fallos utilizados. Toda esta información fue de gran ayuda para realizar el modelo y programa de simulación HTTR5+.
Resumo:
La mejora en la eficiencia energética y la reducción de la tasa de fallos en los contactos lubricados son aspectos que resultan de gran interés en numerosos sectores de la industria, y plantean en estos momentos nuevas dificultades operativas y retos para un futuro próximo. Los avances tecnológicos han incrementado las exigencias técnicas que se requieren a los aceites para cumplir su función al extender sus variables operativas a un mayor espectro de aplicaciones, tanto de condiciones de funcionamiento como a la gran variedad de nuevos materiales constitutivos de los engranajes en los que se tiene que utilizar. Por ello, actualmente se está incentivado el desarrollo de nuevos procedimientos que permitan comprender el comportamiento de este tipo de contactos lubricados, con el fin de lograr mejoras técnicas en su diseño y la correcta selección del aceite. En esta Tesis Doctoral se presenta una metodología de cálculo numérico que permite simular el comportamiento de contactos elastohidrodinámicos (EHD) puntuales, como puede ser el caso de un rodamiento. La resolución de este problema presenta diversas complejidades matemáticas y exige el desarrollo de un elaborado procedimiento de cálculo basado en técnicas multinivel. Para hacer del procedimiento una herramienta válida en un gran número de condiciones de funcionamiento y tipos de lubricantes, se ha tenido en cuenta en el cálculo la posible aparición de comportamientos no-Newtonianos del lubricante y fenómenos de generación y disipación de calor, provocados por el movimiento relativo del fluido y las superficies en contacto. Para la validación del procedimiento, se han contrastado los resultados numéricos obtenidos con nuestro método, con los resultados numéricos y experimentales publicados por otros autores y con valores experimentales propios medidos en un equipo de ensayo de contacto puntual tipo MTM. El desarrollo de este programa ha dotado a la División de Ingeniería de Máquinas de una herramienta que ha permitido, y sobre todo va permitir, evaluar la importancia de cada uno de los parámetros reológicos en los diferentes problemas que va a tener que abordar, evaluación que hasta el momento se realizaba con métodos aproximados que describen la fenomenología con mucha menos precisión. A la hora de emplear nuestro procedimiento numérico para simular situaciones reales, nos hemos encontrado con el obstáculo de que es muy complicado encontrar, en la bibliografía y bases de datos, los parámetros que caracterizan el comportamiento reológico del lubricante en las condiciones de presión, temperatura y grado de cizallamiento habituales en las que se trabaja en este tipo de contactos, y las pocas medidas que existen para estas condiciones de funcionamiento son poco fiables. Por ello como complemento al objetivo principal de esta Tesis hemos desarrollado una metodología para caracterizar los lubricantes en estas condiciones extremas. Dicha metodología está basada en la buena descripción que hace nuestro programa del coeficiente de fricción, lo que nos ha permitido obtener los parámetros reológicos del III lubricante a partir de las medidas experimentales del coeficiente de fricción generado en un equipo MTM lubricado con el lubricante que se desea caracterizar. Madrid, Octubre de 2012 IV Improving energy efficiency and reducing the failure rate in lubricated contacts are issues that are of great interest in many sectors of industry, and right now posed operational difficulties and new challenges for the near future. Technological advances have increased the technical demands required to oils to fulfil its role by extending its operational variables to a wider range of applications, both operating conditions and to the wide variety of new materials which constitute the gear in which must be used. For this reason, has being encouraged currently to develop new procedures to understand the behaviour of this type of lubricated contacts, in order to achieve improvements in design techniques and the correct oil selection. In this Thesis we present a numerical methodology to simulate the puntual elastohydrodynamic contact behaviour (EHD), such as a roller bearing. The resolution of this problem presents various mathematical complexities and requires the development of an elaborate calculation procedure based on multilevel techniques. To make the procedure a valid tool in a wide range of operating conditions and types of lubricants, has been taken into account in calculating the possible occurrence of non-Newtonian behaviour of the lubricant and phenomena of generation and dissipation of heat, caused by the fluid relative motion and contacting surfaces. For the validation of the method, we have compared the numerical results obtained with our method with numerical and experimental results published by other authors also with own experimental values measured on point-contact test equipment MTM. The development of this program has provided the Machines Engineering Division of a tool that has allowed, and especially will allow to evaluate the importance of each of the rheological parameters on the various problems that will have to be addressed, evaluation performed hitherto described methods that phenomenology approximated with much less accuracy. When using our numerical procedure to simulate real situations we have encountered the obstacle that is very difficult to find, in the literature and database, parameters characterizing the rheological behaviour of the lubricant in the usual conditions of pressure, temperature and shear rate in which you work in this type of contact, and the few measures that exist for these operating conditions are unreliable. Thus in addition to the main objective of this thesis, we have developed a methodology to characterize the lubricants in these extreme conditions. This methodology is based on the good description, which makes our program, of the coefficient of friction, that allowed us to obtain the lubricant rheological parameters from experimental measurements of the friction coefficient generated on lubricated MTM equipment with the lubricant to be characterized.
Resumo:
Dentro de los paradigmas de programación en el mundo de la informática tenemos la "Programación Lógica'', cuyo principal exponente es el lenguaje Prolog. Los programas Prolog se componen de un conjunto de predicados, cada uno de ellos definido en base a reglas que aportan un elevado nivel de abstracción y declaratividad al programador. Sin embargo, las formulación con reglas implica, frecuentemente, que un predicado se recompute varias veces para la misma consulta y además, Prolog utiliza un orden fijo para evaluar reglas y objetivos (evaluación SLD) que puede entrar en "bucles infinitos'' cuando ejecuta reglas recursivas declarativamente correctas. Estas limitaciones son atacadas de raiz por la tabulación, que se basa en "recordar'' en una tabla las llamadas realizadas y sus soluciones. Así, en caso de repetir una llamada tendríamos ya disponibles sus soluciones y evitamos la recomputación. También evita "bucles infinitos'' ya que las llamadas que los generan son suspendidas, quedando a la espera de que se computen soluciones para las mismas. La implementación de la tabulación no es sencilla. En particular, necesita de tres operaciones que no pueden ser ejecutadas en tiempo constante simultáneamente. Dichas operaciones son: suspensión de llamadas, relanzamiento de llamadas y {acceso a variables. La primera parte de la tesis compara tres implementaciones de tabulación sobre Ciao, cada una de las cuales penaliza una de estas operaciones. Por tanto, cada solución tiene sus ventajas y sus inconvenientes y se comportan mejor o peor dependiendo del programa ejecutado. La segunda parte de la tesis mejora la funcionalidad de la tabulación para combinarla con restricciones y también para evitar computaciones innecesarias. La programación con restricciones permite la resolución de ecuaciones como medio de programar, mecanismo altamente declarativo. Hemos desarrollado un framework para combinar la tabulación con las restricciones, priorizando objetivos como la flexibilidad, la eficiencia y la generalidad de nuestra solución, obteniendo una sinergia entre ambas técnicas que puede ser aplicada en numerosas aplicaciones. Por otra parte, un aspecto fundamental de la tabulación hace referencia al momento en que se retornan las soluciones de una llamada tabulada. Local evaluation devuelve soluciones cuando todas las soluciones de la llamada tabulada han sido computadas. Por contra, batched evaluation devuelve las soluciones una a una conforme van siendo computadas, por lo que se adapta mejor a problemas donde no nos interesa encontrar todas las soluciones. Sin embargo, su consumo de memoria es exponencialmente peor que el de local evaluation. La tesis presenta swapping evaluation, que devuelve soluciones tan pronto como son computadas pero con un consumo de memoria similar a la de local evaluation. Además, se implementan operadores de poda, once/1, para descartar la búsqueda de soluciones alternativas cuando encontramos la solución deseada. Por último, Prolog adopta con relativa facilidad soluciones para paralelismo gracias a su flexibilidad en el control de la ejecución y a que sus asignaciones son lógicas. La tercera parte de la tesis extiende el paralelismo conjuntivo de Ciao para trabajar con programas no deterministas, lo que presenta dos problemas principales: los objetivos atrapados y la recomputación de objetivos. Las soluciones clásicas para los objetivos atrapados rompían muchos invariantes de la ejecución Prolog, siendo soluciones difíciles de mantener y de extender, que la experiencia nos dice que han caído en desuso. Nosotros proponemos una solución modular (basada en la implementación de swapping evaluation), localizada y que no rompe los invariantes de la ejecución Prolog, pero que mantiene un alto rendimiento de la ejecución paralela. En referencia a la recomputación de objetivos paralelos en presencia de no determinismo hemos adaptado ténicas derivadas de la tabulación para memorizar computaciones de estos objetivos y evitar su recomputación.
Resumo:
Classical imaging optics has been developed over centuries in many areas, such as its paraxial imaging theory and practical design methods like multi-parametric optimization techniques. Although these imaging optical design methods can provide elegant solutions to many traditional optical problems, there are more and more new design problems, like solar concentrator, illumination system, ultra-compact camera, etc., that require maximum energy transfer efficiency, or ultra-compact optical structure. These problems do not have simple solutions from classical imaging design methods, because not only paraxial rays, but also non-paraxial rays should be well considered in the design process. Non-imaging optics is a newly developed optical discipline, which does not aim to form images, but to maximize energy transfer efficiency. One important concept developed from non-imaging optics is the “edge-ray principle”, which states that the energy flow contained in a bundle of rays will be transferred to the target, if all its edge rays are transferred to the target. Based on that concept, many CPC solar concentrators have been developed with efficiency close to the thermodynamic limit. When more than one bundle of edge-rays needs to be considered in the design, one way to obtain solutions is to use SMS method. SMS stands for Simultaneous Multiple Surface, which means several optical surfaces are constructed simultaneously. The SMS method was developed as a design method in Non-imaging optics during the 90s. The method can be considered as an extension to the Cartesian Oval calculation. In the traditional Cartesian Oval calculation, one optical surface is built to transform an input wave-front to an out-put wave-front. The SMS method however, is dedicated to solve more than 1 wave-fronts transformation problem. In the beginning, only 2 input wave-fronts and 2 output wave-fronts transformation problem was considered in the SMS design process for rotational optical systems or free-form optical systems. Usually “SMS 2D” method stands for the SMS procedure developed for rotational optical system, and “SMS 3D” method for the procedure for free-form optical system. Although the SMS method was originally employed in non-imaging optical system designs, it has been found during this thesis that with the improved capability to design more surfaces and control more input and output wave-fronts, the SMS method can also be applied to imaging system designs and possesses great advantage over traditional design methods. In this thesis, one of the main goals to achieve is to further develop the existing SMS-2D method to design with more surfaces and improve the stability of the SMS-2D and SMS-3D algorithms, so that further optimization process can be combined with SMS algorithms. The benefits of SMS plus optimization strategy over traditional optimization strategy will be explained in details for both rotational and free-form imaging optical system designs. Another main goal is to develop novel design concepts and methods suitable for challenging non-imaging applications, e.g. solar concentrator and solar tracker. This thesis comprises 9 chapters and can be grouped into two parts: the first part (chapter 2-5) contains research works in the imaging field, and the second part (chapter 6-8) contains works in the non-imaging field. In the first chapter, an introduction to basic imaging and non-imaging design concepts and theories is given. Chapter 2 presents a basic SMS-2D imaging design procedure using meridian rays. In this chapter, we will set the imaging design problem from the SMS point of view, and try to solve the problem numerically. The stability of this SMS-2D design procedure will also be discussed. The design concepts and procedures developed in this chapter lay the path for further improvement. Chapter 3 presents two improved SMS 3 surfaces’ design procedures using meridian rays (SMS-3M) and skew rays (SMS-1M2S) respectively. The major improvement has been made to the central segments selections, so that the whole SMS procedures become more stable compared to procedures described in Chapter 2. Since these two algorithms represent two types of phase space sampling, their image forming capabilities are compared in a simple objective design. Chapter 4 deals with an ultra-compact SWIR camera design with the SMS-3M method. The difficulties in this wide band camera design is how to maintain high image quality meanwhile reduce the overall system length. This interesting camera design provides a playground for the classical design method and SMS design methods. We will show designs and optical performance from both classical design method and the SMS design method. Tolerance study is also given as the end of the chapter. Chapter 5 develops a two-stage SMS-3D based optimization strategy for a 2 freeform mirrors imaging system. In the first optimization phase, the SMS-3D method is integrated into the optimization process to construct the two mirrors in an accurate way, drastically reducing the unknown parameters to only few system configuration parameters. In the second optimization phase, previous optimized mirrors are parameterized into Qbfs type polynomials and set up in code V. Code V optimization results demonstrates the effectiveness of this design strategy in this 2-mirror system design. Chapter 6 shows an etendue-squeezing condenser optics, which were prepared for the 2010 IODC illumination contest. This interesting design employs many non-imaging techniques such as the SMS method, etendue-squeezing tessellation, and groove surface design. This device has theoretical efficiency limit as high as 91.9%. Chapter 7 presents a freeform mirror-type solar concentrator with uniform irradiance on the solar cell. Traditional parabolic mirror concentrator has many drawbacks like hot-pot irradiance on the center of the cell, insufficient use of active cell area due to its rotational irradiance pattern and small acceptance angle. In order to conquer these limitations, a novel irradiance homogenization concept is developed, which lead to a free-form mirror design. Simulation results show that the free-form mirror reflector has rectangular irradiance pattern, uniform irradiance distribution and large acceptance angle, which confirm the viability of the design concept. Chapter 8 presents a novel beam-steering array optics design strategy. The goal of the design is to track large angle parallel rays by only moving optical arrays laterally, and convert it to small angle parallel output rays. The design concept is developed as an extended SMS method. Potential applications of this beam-steering device are: skylights to provide steerable natural illumination, building integrated CPV systems, and steerable LED illumination. Conclusion and future lines of work are given in Chapter 9. Resumen La óptica de formación de imagen clásica se ha ido desarrollando durante siglos, dando lugar tanto a la teoría de óptica paraxial y los métodos de diseño prácticos como a técnicas de optimización multiparamétricas. Aunque estos métodos de diseño óptico para formación de imagen puede aportar soluciones elegantes a muchos problemas convencionales, siguen apareciendo nuevos problemas de diseño óptico, concentradores solares, sistemas de iluminación, cámaras ultracompactas, etc. que requieren máxima transferencia de energía o dimensiones ultracompactas. Este tipo de problemas no se pueden resolver fácilmente con métodos clásicos de diseño porque durante el proceso de diseño no solamente se deben considerar los rayos paraxiales sino también los rayos no paraxiales. La óptica anidólica o no formadora de imagen es una disciplina que ha evolucionado en gran medida recientemente. Su objetivo no es formar imagen, es maximazar la eficiencia de transferencia de energía. Un concepto importante de la óptica anidólica son los “rayos marginales”, que se pueden utilizar para el diseño de sistemas ya que si todos los rayos marginales llegan a nuestra área del receptor, todos los rayos interiores también llegarán al receptor. Haciendo uso de este principio, se han diseñado muchos concentradores solares que funcionan cerca del límite teórico que marca la termodinámica. Cuando consideramos más de un haz de rayos marginales en nuestro diseño, una posible solución es usar el método SMS (Simultaneous Multiple Surface), el cuál diseña simultáneamente varias superficies ópticas. El SMS nació como un método de diseño para óptica anidólica durante los años 90. El método puede ser considerado como una extensión del cálculo del óvalo cartesiano. En el método del óvalo cartesiano convencional, se calcula una superficie para transformar un frente de onda entrante a otro frente de onda saliente. El método SMS permite transformar varios frentes de onda de entrada en frentes de onda de salida. Inicialmente, sólo era posible transformar dos frentes de onda con dos superficies con simetría de rotación y sin simetría de rotación, pero esta limitación ha sido superada recientemente. Nos referimos a “SMS 2D” como el método orientado a construir superficies con simetría de rotación y llamamos “SMS 3D” al método para construir superficies sin simetría de rotación o free-form. Aunque el método originalmente fue aplicado en el diseño de sistemas anidólicos, se ha observado que gracias a su capacidad para diseñar más superficies y controlar más frentes de onda de entrada y de salida, el SMS también es posible aplicarlo a sistemas de formación de imagen proporcionando una gran ventaja sobre los métodos de diseño tradicionales. Uno de los principales objetivos de la presente tesis es extender el método SMS-2D para permitir el diseño de sistemas con mayor número de superficies y mejorar la estabilidad de los algoritmos del SMS-2D y SMS-3D, haciendo posible combinar la optimización con los algoritmos. Los beneficios de combinar SMS y optimización comparado con el proceso de optimización tradicional se explican en detalle para sistemas con simetría de rotación y sin simetría de rotación. Otro objetivo importante de la tesis es el desarrollo de nuevos conceptos de diseño y nuevos métodos en el área de la concentración solar fotovoltaica. La tesis está estructurada en 9 capítulos que están agrupados en dos partes: la primera de ellas (capítulos 2-5) se centra en la óptica formadora de imagen mientras que en la segunda parte (capítulos 6-8) se presenta el trabajo del área de la óptica anidólica. El primer capítulo consta de una breve introducción de los conceptos básicos de la óptica anidólica y la óptica en formación de imagen. El capítulo 2 describe un proceso de diseño SMS-2D sencillo basado en los rayos meridianos. En este capítulo se presenta el problema de diseñar un sistema formador de imagen desde el punto de vista del SMS y se intenta obtener una solución de manera numérica. La estabilidad de este proceso se analiza con detalle. Los conceptos de diseño y los algoritmos desarrollados en este capítulo sientan la base sobre la cual se realizarán mejoras. El capítulo 3 presenta dos procedimientos para el diseño de un sistema con 3 superficies SMS, el primero basado en rayos meridianos (SMS-3M) y el segundo basado en rayos oblicuos (SMS-1M2S). La mejora más destacable recae en la selección de los segmentos centrales, que hacen más estable todo el proceso de diseño comparado con el presentado en el capítulo 2. Estos dos algoritmos representan dos tipos de muestreo del espacio de fases, su capacidad para formar imagen se compara diseñando un objetivo simple con cada uno de ellos. En el capítulo 4 se presenta un diseño ultra-compacto de una cámara SWIR diseñada usando el método SMS-3M. La dificultad del diseño de esta cámara de espectro ancho radica en mantener una alta calidad de imagen y al mismo tiempo reducir drásticamente sus dimensiones. Esta cámara es muy interesante para comparar el método de diseño clásico y el método de SMS. En este capítulo se presentan ambos diseños y se analizan sus características ópticas. En el capítulo 5 se describe la estrategia de optimización basada en el método SMS-3D. El método SMS-3D calcula las superficies ópticas de manera precisa, dejando sólo unos pocos parámetros libres para decidir la configuración del sistema. Modificando el valor de estos parámetros se genera cada vez mediante SMS-3D un sistema completo diferente. La optimización se lleva a cabo variando los mencionados parámetros y analizando el sistema generado. Los resultados muestran que esta estrategia de diseño es muy eficaz y eficiente para un sistema formado por dos espejos. En el capítulo 6 se describe un sistema de compresión de la Etendue, que fue presentado en el concurso de iluminación del IODC en 2010. Este interesante diseño hace uso de técnicas propias de la óptica anidólica, como el método SMS, el teselado de las lentes y el diseño mediante grooves. Este dispositivo tiene un límite teórica en la eficiencia del 91.9%. El capítulo 7 presenta un concentrador solar basado en un espejo free-form con irradiancia uniforme sobre la célula. Los concentradores parabólicos tienen numerosas desventajas como los puntos calientes en la zona central de la célula, uso no eficiente del área de la célula al ser ésta cuadrada y además tienen ángulos de aceptancia de reducido. Para poder superar estas limitaciones se propone un novedoso concepto de homogeneización de la irrandancia que se materializa en un diseño con espejo free-form. El análisis mediante simulación demuestra que la irradiancia es homogénea en una región rectangular y con mayor ángulo de aceptancia, lo que confirma la viabilidad del concepto de diseño. En el capítulo 8 se presenta un novedoso concepto para el diseño de sistemas afocales dinámicos. El objetivo del diseño es realizar un sistema cuyo haz de rayos de entrada pueda llegar con ángulos entre ±45º mientras que el haz de rayos a la salida sea siempre perpendicular al sistema, variando únicamente la posición de los elementos ópticos lateralmente. Las aplicaciones potenciales de este dispositivo son varias: tragaluces que proporcionan iluminación natural, sistemas de concentración fotovoltaica integrados en los edificios o iluminación direccionable con LEDs. Finalmente, el último capítulo contiene las conclusiones y las líneas de investigación futura.