874 resultados para FUNCIONES RACIONALES Y RADICALES
Resumo:
La categoría de los pronombres demostrativos es universal en las lenguas naturales, pero las características funcionales, formales, sintácticas y pragmáticas de estos elementos varían considerablemente de una a otra lengua. El propósito de este trabajo es describir las características funcionales, formales, sintácticas y pragmáticas de los demostrativos en la lengua indígena obsolescente chaná, perteneciente a la familia charrúa, que cuenta actualmente con un último semi hablante terminal residente en la ciudad de Paraná (provincia de Entre Ríos). Se trata de un idioma que se ha transmitido durante más de un siglo y medio de manera anormal, como lengua secreta femenina. En su estado actual, esta lengua presenta un sistema bastante simple de pronombres demostrativos, que distingue dos distancias y dos géneros. En la presente ponencia se describen y analizan los aspectos morfológicos, rasgos semánticos, funciones sintácticas y usos pragmáticos documentados de estos deícticos. Se comparan los datos actuales con los documentados para la misma lengua en 1815 por Dámaso A. Larrañaga, en Soriano (República Oriental del Uruguay), cuando era todavía un idioma vivo (aunque moribundo), de transmisión normal
Resumo:
El corpus está integrado por "Capitán Vargas" (ca. 1846), inconclusa y todavía inédita, las dos versiones publicadas de La Loca de la Guardia (1882 y 1896) y la "parte literaria" de la Historia de la República Argentina (1883-1893). Las historias narradas en estos textos forman un continuum desde el período de preparación del cruce de los Andes hasta el triunfo de Maipú. Desde un enfoque narratológico, analizamos las funciones sintácticas y los roles actanciales del personaje José de San Martín, en medio de un triple conflicto político: realistas versus insurgentes, chilenos versus argentinos y carrerinos versus ohigginistas, y de un conflicto sentimental: el triángulo amoroso Morgado-Pepita-Necochea. Observamos que la cualificación del novelista se va modificando disfóricamente ya que al atributo "genio militar" se le resta el de "estratega político", porque San Martín no se subordina al gobierno de Buenos Aires; en tanto que crece la valoración positiva de Juan Gregorio de Las Heras. La confrontación entre el plano de la acción y el nivel discursivo del narrador permite además descifrar el reproche que el autor formula al prócer respecto a su no injerencia en la guerra civil argentina, mostrando a su vez la validez del postulado que indica que, en una novela histórica, la interpretación del pasado se realiza desde el presente biohistórico del autor.
Resumo:
En el marco de la pragmática cognitiva, los marcadores discursivos han sido definidos como partículas extraoracionales que orientan al interlocutor sobre el proceso inferencial que le permitirán arribar a un nivel de relevancia óptima en el procesamiento de la información. Si bien existe un consenso extendido en el campo académico sobre esta conceptualización, se ha relevado en forma sistemática la dificultad que acarrean los intentos de construir una categorización exhaustiva y excluyente de estas partículas discursivas, fundamentalmente debido a su clara dependencia contextual y a la multiplicidad de matices que imprimen en el discurso. Teniendo en cuenta los problemas teóricos y metodológicos que encierra este campo de estudios, hemos analizado las apreciaciones espontáneas de estudiantes y profesionales de la Ciudad de La Plata sobre el uso de partículas como "posta", "de una", "ni hablar", "cualquiera", "ni ahí", "ah re" y "corte/corte que". Desde el punto de vista metodológico, los datos fueron recolectados a través de una encuesta escrita, anónima y autoadministrada de preguntas abiertas, y hemos procesado la información obtenida a través de estrategias cualitativas y cuantitativas de investigación. En esta oportunidad, nos abocaremos a presentar una caracterización pragmático discursiva de la partícula "corte/corte que", marcador empleado principalmente por nuestros informantes más jóvenes, que presenta un regular estado de gramaticalización y múltiples funciones pragmáticas y discursivas que problematizan su ubicación en las clasificaciones ?tradicionales?. En forma concomitante, hemos rastreado su empleo como marcador discursivo en "diccionarios" del argot carcelario bonaerense, en letras de "cumbia villera" y en guiones de series televisivas, ámbitos discursivos en los que probablemente se encuentre su origen y principal fuente de difusión socio-cultural
Resumo:
En este artículo analizamos el papel de la escuela en la producción y reproducción de la desigualdad social, a partir de una investigación realizada en veinticuatro escuelas medias de Ciudad de Buenos Aires y las provincias de Buenos Aires, Neuquén y Salta. Centrándonos en entrevistas a directivos de las escuelas. Tomaremos como ejes de análisis la percepción de los nuevos sectores sociales que se incorporan a la escuela secundaria y el cambio de funciones educativas y la definición de horizontes para la acción escolar. Buscaremos identificar cómo aparece la desigualdad social, y debatiremos si ella no es, a su turno, producida también desde la escuela media.
Resumo:
El objetivo de este trabajo es profundizar en las razones de los cambios que se operan en la estructura administrativa sanitaria nacional entre 1943 y 1945. Si bien la creación de la Dirección Nacional de Salud y Acción Social en 1943 responde a una larga demanda de los círculos académicos de centralización administrativa y de unificación de las funciones sanitarias y asistenciales, la corta duración del proyecto (menos de un año) expone consideraciones por afuera de la lógica administrativa. Analizamos aquellas que se vinculan con la complicada relación entre la repartición nacional con los gobiernos provinciales y las organizaciones de beneficencia, con la injerencia del gremialismo médico en el delineamiento de las políticas sanitarias y con el ascendiente de Juan Domingo Perón desde la Secretaría de Trabajo y Bienestar Social en la monopolización de la asistencia social como capital político.
Resumo:
Se evalúa con indicadores de gobernanza urbana la sostenibilidad de las formas de hacer ciudad hibrida compleja del gobierno de la gestión visible (GGV). Argumenta que el GGV hace ciudad para legitimarse por desempeño y fortalecer la gobernanza local, en un contexto de mutaciones múltiples y radicales que tienden a diluir y centralizar el poder local y fractalizar la ciudad, profundizando la segregación sociopolítica-territorial y la ingobernabilidad genética de la ciudad hibrida, poniendo en riesgo el Estado federal descentralizado, el derecho a la ciudad, al gobierno local y la gobernanza urbana y multinivel (hipótesis). La estrategia de evaluación de gobernanza innovadora (EEG+i) diseñada para evaluar la relación entre las formas de hacer ciudad hibrida (variables espaciales) y gobernanza (variable a-espacial) es transversal, multidimensional y se construye desde la complejidad, el análisis de escenarios, formulación de constructos, modelos e indicadores de gobernanza, entretejiendo tres campos de conocimiento, gobierno, ciudad y sostenibilidad, en cuatro fases. La Fase 1, contextualiza la gobernanza en la dramática del siglo XXI. La Fase 2, desarrolla la fundamentación teórico-práctica, nuevos conceptos y un abordaje analítico propio ‘genética territorial’, para analizar y comprehender la complejidad de la ciudad hibrida de países en desarrollo, tejiendo ontogenética territorial y el carácter autopoiético del gen informal. En la Fase 3, se caracterizan las formas de hacer ciudad desde la genética del territorio, se formulan modelos e indicadores de gobernanza con los que se evalúan, aplicando un delphi y cuestionarios, los genes tipológicos-formas de hacer ciudad y validan las conclusiones. En la Fase 4, se correlacionan los resultados de los instrumentos aplicados con la praxis urbana del GGV, durante cuatro periodos de gobierno (1996-2010). Concluyendo que, la estrategia de evaluación comprobó las hipótesis y demostró la correlación transversal y multinivel existente entre, las mutaciones en curso que contradicen el modelo de gobernanza constitucional, el paisaje de gobernanza latinoamericano y venezolano, la praxis de los regímenes híbridos ricos en recursos naturales, las perspectivas de desarrollo globales y se expresa sociopolíticamente en déficit de gobernanza, Estado de derecho y cohesión-capital social y, espaciolocalmente, en la ciudad hibrida dispersa y diluida (compleja) y en el gobierno del poder diluido centralizado. La confrontación de flujos de poder centrípetos y centrífugos en la ciudad profundiza la fragmentación socioespacial y política y el deterioro de la calidad de vida, incrementando las protestas ciudadanas e ingobernabilidad que obstaculiza la superación de la pobreza y gobernanza urbana y multinivel. La evaluación de la praxis urbana del GGV evidenció que la correlación entre gobernanza, la producción de genes formales y la ciudad por iniciativa privada tiende a ser positiva y entre gobernanza, genes y producción de ciudad informal negativa, por el carácter autopoiético-autogobernable del gen informal y de los nuevos gobiernos sublocales que dificulta gobernar en gobernanza. La praxis del GGV es contraria al modelo de gobernanza formulado y la disolución centralizada del gobierno local y de la ciudad hibrida-dispersa es socio-espacial y políticamente insostenible. Se proponen estrategias y tácticas de gobernanza multinivel para recuperar la cohesión social y de planificación de la gestión innovadora (EG [PG] +i) para orquestar, desde el Consejo Local de Gobernanza (CLG) y con la participación de los espacios y gobiernos sublocales, un proyecto de ciudad compartido y sostenible. ABSTRACT The sustainability of the forms of making the hybrid-complex city by the visible management government (VMG) is evaluated using urban governance indicators. Argues that the VMG builds city to legitimate itself by performance and to strengthen local governance in a context of multiple and radical mutations that tend to dilute and centralize local power and fractalize the city, deepening the socio-spatial and political segregation, the genetic ingovernability of the hybrid city and placing the decentralized federal State, the right to city, local government and urban governance at risk (hypothesis). The innovative governance evaluation strategy (GES+i) designed to assess the relationship between the forms of making the hybrid city (spatial variables) and governance (a-spatial variable) is transversal, multidimensional; is constructed from complexity, scenario analysis, the formulation of concepts, models and governance indicators, weaving three fields of knowledge, government, city and sustainability in four phases. Phase 1, contextualizes governance in the dramatic of the twenty-first century. Phase 2, develops the theoretical and practical foundations, new concepts and a proper analytical approach to comprehend the complexity of the hybrid city from developing countries, weaving territorial ontogenetic with the autopiethic character of the informal city gen. In Phase 3, the ways of making city are characterized from the genetics of territory; governance indicators and models are formulated to evaluate, using delphi and questionnaires, the ways of making city and validate the conclusions. In Phase 4, the results of the instruments applied are correlated with the urban praxis of the VMG during the four periods of government analyzed (1996-2010). Concluding that, the evaluation strategy proved the hypothesis and showed the transversal and multilevel correlation between, mutations that contradict the constitutional governance model, the governance landscape of Latinamerica and the country, the praxis of the hybrid regimes rich in natural resources, the perspectives of the glocal economy and expresses socio-politically the governance and rule of law and social capital-cohesion deficit and spatial-temporarily the hybrid disperse and diluted city (complex) and the diluted-centralized local government. The confrontation of flows of power centripetal and centrifugal in the city deepens the socio-spatial and political fragmentation and deterioration of the quality of life, increasing citizens' protests and ingovernability which hinders poverty eradication and, multilevel and urban governance. The evaluation of the VMG urban praxis showed the correlation between governance, the production of formal genes and city by private initiative tended to be positive and, between informal genes-city production and governance negative, due to its autopiethic-self governable character that hinders governance. The urban praxis of the VMG contradicts the formulated governance model and thecentralized dissolution of the local government and hybrid city are socio-spatial and politically unsustainable. Multiscale governance strategies are proposed to recreate social cohesion and a management planning innovative method (EG [PG] + i) to orchestrate, from the Local Governance Council (LGC) and with the participation of sublocal governments and spaces, a shared and sustainable city project.
Resumo:
El comercio ha sido históricamente un elemento constitutivo primordial del espacio público. Desde el ágora griega y el foro romano hasta la ciudad decimonónica y moderna la función comercial se asocia indisolublemente a los espacios públicos más representativos, los que concentran la mayor densidad de vida urbana, de funciones representativas y simbólicas de la colectividad. En los países de Europa meridional surgen las primeras grandes superficies -hipermercados primero, centros comerciales integrados después- a comienzos de los años setenta. Los conceptos de proximidad, fácil accesibilidad peatonal, óptima comunicación a través de los medios de transporte colectivo, carácter público y multifuncional del soporte urbano (calles, avenidas, etc.) se alteran entonces profundamente para dar prioridad absoluta al automóvil y a la gestión privada del espacio y la organización comercial. En este contexto se ha realizado un análisis empírico sobre la localización y características de la estructura comercial de la ciudad incluyendo tanto las formas tradicionales (centro clásico, subcentro interiores, ejes comerciales de distrito, ejes o zonas de barrio) como las nuevas formas comerciales (nuevos subcentros periféricos a nivel ciudad o distrito, existentes o proyectados). Asimismo se hace un resumen comparativo de siete implantaciones comerciales representativas junto a una evaluación de los riesgos de polarización de la estructura comercial conjunta hacia las nuevas modalidades comerciales.
Resumo:
Desde hace mucho tiempo, el hombre se ha preocupado por los fenómenos que rigen el movimiento humano. Así Aristóteles (384-322 a. J.C.) poseía conocimientos notables sobre el centro de gravedad, las leyes del movimiento y de las palancas, siendo el primero en describir el complejo proceso de la marcha. A este sabio le siguieron muchos otros: Arquímedes (287-212 a. J.C.)- Ga leno (131-201 a.J.C.) Leonardo Da Vinci (1452-1519), que describió la mecánica del cuerpo en posición erecta, en la marcha y en el salto. Galileo Galilei (1564-1643) proporcionó empuje al estudio de los fenómenos mecánicos en términos matemáticos, creando las bases para la biomecánica. Alfonso Borelli (1608-1679), considerado por algunos autores como el padre de la moderna biomecánica. Aseguraba que los músculos funcionan de acuerdo con principios matemáticos. Nicolas Andry (1658-1742), creador de la ciencia ortopédica. Isaac Newton, que estableció las bases de la dinámica moderna con la enunciación de sus leyes mecánicas todavía hoy vigentes. E.J. Marey (1830-1904), afirmaba que el movimiento es la más importante de las funciones humanas, y describió métodos fotográficos para la investigación biológica. c.w. Braune (1831-1892), y Otto Fischer (1861-1917), describieron un método experimental para determinar el centro de gravedad. Harold Edgerton, inventor del estroboscopio electrónico de aplicación en el análisis fotográfico del movimiento. Gideon Ariel, una de las máximas autoridades en la biomecánica del deporte actual. ••••••• oooOooo ••••••• En lo que respecta al ámbito deportivo, en los últimos años estamos asistiendo a una gran mejora del rendimiento. Esto es debido en gran parte a un mayor apoyo científico en el proceso de entrenamiento, tanto en lo que se refiere a los métodos para desarrollar la condición física, como en lo concerniente a la perfección de la técnica deportiva, es decir, el aprovechamiento más eficaz de las leyes mecánicas que intervienen en el movimiento deportivo. Según P. Rasch y R. Burke, la biomecánica se ocupa de la investigación del movimiento humano por medio de los conceptos de la física clásica y las disciplinas afines en el arte práctico de la ingeniería. Junto con la anatomía, biofísica, bioquímica, fisiología, psicología y cibernética, y estrechamente relacionada con ellas, la biomecánica, conforma las bases de la metodología deportiva. (Hochmuth) Entre los objetivos específicos de la biomecánica está la investigación dirigida a encontrar una técnica deportiva más eficaz. Actualmente, el perfeccionamiento de la técnica se realiza cada vez más apoyándose en los trabajos de análisis biomecánico. Efectivamente, esto tiene su razón de ser, pues hay detalles en el curso del ~~ movimiento que escapan a la simple observación visual por parte del entrenador. Entre dos lanzamientos de distinta longitud, en muchas ocasiones no se pueden percibir ninguna o como mucho sólo pequeñas diferencias. De ahí la necesidad de las investigaciones basadas en el análisis biomecánico, de cuyos resultados obtendrá el entrenador la información que precisa para realizar las modificaciones oportunas en cuanto a la técnica deportiva empleada por su atleta se refiere. Para el análisis biomecánico se considera el cuerpo humano como un conjunto de segmentos que forman un sistema de eslabones sometido a las leyes físicas. Estos segmentos son: la cabeza, el tronco, los brazos, los antebrazos, las manos, los muslos, las piernas y los pies. A través de estos segmentos y articulaciones se transmiten las aceleraciones y desaceleraciones para alcanzar la velocidad deseada en las porciones terminales y en el sistema propioceptivo que tiene su centro en el cerebro. De todo esto podemos deducir la práctica imposibilidad de descubrir un error en el curso del movimiento por la sola observación visual del entrenador por experto que este sea (Zanon). El aspecto biológico de la biomecánica no se conoce tanto como el aspecto mecánico, ya que este campo es mucho más complejo y se necesitan aparatos de medición muy precisos. Entre los objetivos que me he planteado al efectuar este trabajo están los siguientes: - Análisis biomecánico de uno de los mejores lanzadores de martillo de España. - Qué problemas surgen en el análisis biomecánico tridimensional. Cómo llevar a cabo este tipo de investigación con un material elemental, ya que no disponemos de otro. Ofrecer al técnico deportivo los procedimientos matemáticos del cálculo necesarios. En definitiva ofrecer una pequeña ayuda al entrenador, en su búsqueda de soluciones para el perfeccionamiento de la técnica deportiva.
Resumo:
El objetivo de este trabajo es analizar la estructura de gobernanza de la cadena de valor territorial en el cluster cerámico español, a través de la comprensión de las funciones anteriores y actuales de los diversos sectores involucrados en el sistema de creación de valor. Por medio de un estudio de casos y el enfoque de la metodología cuantitativa, se explora el cambio de paradigma donde los actores tradicionales de la cadena de valor están perdiendo el control de su contribución al sistema de creación de valor territorial, a la vez que aparecen nuevos actores con una función más estable y prometedora.
Resumo:
Cada vez es más frecuente que los sistemas de comunicaciones realicen buena parte de sus funciones (modulación y demodulación, codificación y decodificación...) mediante software en lugar de utilizar hardware dedicado. Esta técnica se denomina “Radio software”. El objetivo de este PFC es estudiar un algoritmo implementado en C empleado en sistemas de comunicaciones modernos, en concreto la decodificación de Viterbi, el cual se encarga de corregir los posibles errores producidos a lo largo de la comunicación, para poder trasladarlo a sistemas empotrados multiprocesador. Partiendo de un código en C para el decodificador que realiza todas sus operaciones en serie, en este Proyecto fin de carrera se ha paralelizado dicho código, es decir, que el trabajo que realizaba un solo hilo para el caso del código serie, es procesado por un número de hilos configurables por el usuario, persiguiendo que el tiempo de ejecución se reduzca, es decir, que el programa paralelizado se ejecute de una manera más rápida. El trabajo se ha realizado en un PC con sistema operativo Linux, pero la versión paralelizada del código puede ser empleada en un sistema empotrado multiprocesador en el cual cada procesador ejecuta el código correspondiente a uno de los hilos de la versión de PC. ABSTRACT It is increasingly common for communications systems to perform most of its functions (modulation and demodulation, coding and decoding) by software instead of than using dedicated hardware. This technique is called: “Software Radio”. The aim of the PFC is to study an implemented algorithm in C language used in modern communications systems, particularly Viterbi decoding, which amends any possible error produced during the communication, in order to be able to move multiprocessor embedded systems. Starting from a C code of the decoder that performs every single operation in serial, in this final project, this code has been parallelized, which means that the work used to be done by just a single thread in the case of serial code, is processed by a number of threads configured by the user, in order to decrease the execution time, meaning that the parallelized program is executed faster. The work has been carried out on a PC using Linux operating system, but the parallelized version of the code could also be used in an embedded multiprocessor system in which each processor executes the corresponding code to every single one of the threads of the PC version.
Resumo:
Este Proyecto Fin de Carrera está destinado a la ilustración y aprendizaje del uso de varios dispositivos de los laboratorios del Departamento de Ingeniería Audiovisual y Comunicaciones, de la Escuela Universitaria de Ingeniería Técnica de Telecomunicación, de la Universidad Politécnica de Madrid, en forma de vídeos tutoriales basados en mediciones y prácticas habituales de las asignaturas del departamento para que puedan ser utilizados por los alumnos de la escuela como apoyo a las explicaciones del profesor en ocasiones puntuales. En concreto se han realizado hasta seis vídeos tutoriales en los que se explica: el diseño de un circuito impreso y la creación y fabricación de éste. Por otro lado, también se ha explicado el fenómeno del ruido de fase y cómo es el proceso de su medida, como una de las muchas características de un analizador de espectros. A modo de análisis, se ha realizado otro tutorial acerca de la modulación en FM, sus características y sus aplicaciones. Por último se ha hecho un estudio del comportamiento de un analizador de redes, exponiendo su funcionamiento y explicando su proceso de calibración. Para la realización de estos tutoriales se han utilizado diferentes aplicaciones sobre creación de vídeos multimedia, animación, producción de audio y narración. En especial se han usado: Sprint-Layout 5.0, Adobe Flash Professional CS5.5, Camtasia studio 7, Corel VideoStudio Pro X4, Loquendo TTS7 y WinPlot. Para el apartado de las grabaciones de las diferentes escenas se ha necesitado el uso de distintos instrumentos de medida del laboratorio tales como: analizador de espectros, analizador de redes, generador de señal, generador de funciones, osciloscopio y otros equipos adicionales como: cámara de vídeo y trípode del departamento. Para la composición de los diferentes tutoriales se ha comenzado creando un guion, para cada uno de ellos, estableciendo la aparición de las imágenes, vídeos, y locución. A continuación se exponen los diferentes temas en los que se han basado estos tutoriales de laboratorio, uno a uno. ABSTRACT. This Project is destined to learn the use of several devices at the laboratory of “Ingeniería Audiovisual y Comunicaciones” Department at “Escuela Universitaria de Ingeniería técnica de Telecomunicaciones” of “Universidad Politécnica de Madrid”, on the way as tutorial videos base on the subjects from this department to be used by the college students as help of the teacher’s explanations. In this project you will find up to six tutorial videos, showing: printed circuit design, printed circuit board manufacture. You can also find an explanation about the phenomenon of phase noise and how it’s its measurement process, as one of the many features of a spectrum analyzer. Another tutorial video is based on FM modulation, its features and applications. The last tutorial explains the networks analyzer functionalities and its calibration process. To carry out these tutorials different applications have been used to create multimedia videos, animation, audio production and storytelling. Such as Sprint Layout 5.0, Camtasia 7.0, Corel VideoStudio Pro X4, Adobe Flash Professional CS5.5, Loquendo TTS7 y WinPlot. About the recording side of the different scenes, several equipment have been required at the laboratory, such as spectrums analyzer, signal generator, oscilloscope, function generator, network analyzer and other additional devices, such as: a video camera with its tripod. The composition of the different tutorials has begun creating a script, for each of them, setting the times of appearance of images, video, speech and music. After this abstract, the different topics of the tutorials are showed, one by one.
Resumo:
El objeto del presente proyecto es el diseño de una nueva solución de videoconferencia destinada especialmente a personas de la tercera edad que habiten en residencias. Su principal objetivo es el aumento de la calidad de vida de los residentes a través de la mejora de asistencia y condiciones de comunicación, especialmente con sus familiares. Este nuevo sistema permitirá a estas personas mantenerse en contacto con su familia y amigos de manera sencilla y eficaz. Se trata de una solución software que se implementará sobre interfaz web. Al dirigirse a un público poco familiarizado con la tecnología, se deberá caracterizar por un entorno amigable, fácil de usar e independiente de la infraestructura de la residencia. Además, debido a la base sobre la que se desarrollará el nuevo sistema, podrá contar con funcionalidades especialmente adaptadas a las necesidades del usuario (autenticación mediante smartcard, entrada a través de pantalla táctil, funciones sencillas y limitadas...) y ampliables de cara a un futuro, lo que daría la posibilidad de aplicarlo a nuevos ámbitos.
Resumo:
Walker et al. ([19], [20]) definieron dos familias de operaciones binarias sobre M (conjunto de las funciones de [0,1] en [0,1]), y determinaron que, bajo ciertas condiciones, estas operaciones son tnormas (normas triangulares) o t-conormas sobre L (subconjunto de las funciones normales y convexas de M). En este trabajo se introducen dos operaciones binarias sobre M, diferentes a las dadas por Walker et al., y se estudian varias propiedades de las mismas, con el objeto de deducir nuevas t-normas y t-conormas sobre L y sobre M.
Resumo:
La iluminación con diodos emisores de luz (LED) está reemplazando cada vez en mayor medida a las fuentes de luz tradicionales. La iluminación LED ofrece ventajas en eficiencia, consumo de energía, diseño, tamaño y calidad de la luz. Durante más de 50 años, los investigadores han estado trabajando en mejoras LED. Su principal relevancia para la iluminación está aumentando rápidamente. Esta tesis se centra en un campo de aplicación importante, como son los focos. Se utilizan para enfocar la luz en áreas definidas, en objetos sobresalientes en condiciones profesionales. Esta iluminación de alto rendimiento requiere una calidad de luz definida, que incluya temperaturas ajustables de color correlacionadas (CCT), de alto índice de reproducción cromática (CRI), altas eficiencias, y colores vivos y brillantes. En el paquete LED varios chips de diferentes colores (rojo, azul, fósforo convertido) se combinan para cumplir con la distribución de energía espectral con alto CRI. Para colimar la luz en los puntos concretos deseados con un ángulo de emisión determinado, se utilizan blancos sintonizables y diversos colores de luz y ópticas secundarias. La combinación de una fuente LED de varios colores con elementos ópticos puede causar falta de homogeneidad cromática en la distribución espacial y angular de la luz, que debe resolverse en el diseño óptico. Sin embargo, no hay necesidad de uniformidad perfecta en el punto de luz debido al umbral en la percepción visual del ojo humano. Por lo tanto, se requiere una descripción matemática del nivel de uniformidad del color con respecto a la percepción visual. Esta tesis está organizada en siete capítulos. Después de un capítulo inicial que presenta la motivación que ha guiado la investigación de esta tesis, en el capítulo 2 se presentan los fundamentos científicos de la uniformidad del color en luces concentradas, como son: el espacio de color aplicado CIELAB, la percepción visual del color, los fundamentos de diseño de focos respecto a los motores de luz y ópticas no formadoras de imágenes, y los últimos avances en la evaluación de la uniformidad del color en el campo de los focos. El capítulo 3 desarrolla diferentes métodos para la descripción matemática de la distribución espacial del color en un área definida, como son la diferencia de color máxima, la desviación media del color, el gradiente de la distribución espacial de color, así como la suavidad radial y axial. Cada función se refiere a los diferentes factores que influyen en la visión, los cuales necesitan un tratamiento distinto que el de los datos que se tendrán en cuenta, además de funciones de ponderación que pre- y post-procesan los datos simulados o medidos para la reducción del ruido, la luminancia de corte, la aplicación de la ponderación de luminancia, la función de sensibilidad de contraste, y la función de distribución acumulativa. En el capítulo 4, se obtiene la función de mérito Usl para la estimación de la uniformidad del color percibida en focos. Se basó en los resultados de dos conjuntos de experimentos con factor humano realizados para evaluar la percepción visual de los sujetos de los patrones de focos típicos. El primer experimento con factor humano dio lugar al orden de importancia percibida de los focos. El orden de rango percibido se utilizó para correlacionar las descripciones matemáticas de las funciones básicas y la función ponderada sobre la distribución espacial del color, que condujo a la función Usl. El segundo experimento con factor humano probó la percepción de los focos bajo condiciones ambientales diversas, con el objetivo de proporcionar una escala absoluta para Usl, para poder así sustituir la opinión subjetiva personal de los individuos por una función de mérito estandarizada. La validación de la función Usl se presenta en relación con el alcance de la aplicación y condiciones, así como las limitaciones y restricciones que se realizan en el capítulo 5. Se compararon los datos medidos y simulados de varios sistemas ópticos. Se discuten los campos de aplicación , así como validaciones y restricciones de la función. El capítulo 6 presenta el diseño del sistema de focos y su optimización. Una evaluación muestra el análisis de sistemas basados en el reflector y la lente TIR. Los sistemas ópticos simulados se comparan en la uniformidad del color Usl, sensibilidad a las sombras coloreadas, eficiencia e intensidad luminosa máxima. Se ha comprobado que no hay un sistema único que obtenga los mejores resultados en todas las categorías, y que una excelente uniformidad de color se pudo alcanzar por la conjunción de dos sistemas diferentes. Finalmente, el capítulo 7 presenta el resumen de esta tesis y la perspectiva para investigar otros aspectos. ABSTRACT Illumination with light-emitting diodes (LED) is more and more replacing traditional light sources. They provide advantages in efficiency, energy consumption, design, size and light quality. For more than 50 years, researchers have been working on LED improvements. Their main relevance for illumination is rapidly increasing. This thesis is focused on one important field of application which are spotlights. They are used to focus light on defined areas, outstanding objects in professional conditions. This high performance illumination required a defined light quality including tunable correlated color temperatures (CCT), high color rendering index (CRI), high efficiencies and bright, vivid colors. Several differently colored chips (red, blue, phosphor converted) in the LED package are combined to meet spectral power distribution with high CRI, tunable white and several light colors and secondary optics are used to collimate the light into the desired narrow spots with defined angle of emission. The combination of multi-color LED source and optical elements may cause chromatic inhomogeneities in spatial and angular light distribution which needs to solved at the optical design. However, there is no need for perfect uniformity in the spot light due to threshold in visual perception of human eye. Therefore, a mathematical description of color uniformity level with regard to visual perception is required. This thesis is organized seven seven chapters. After an initial one presenting the motivation that has guided the research of this thesis, Chapter 2 introduces the scientific basics of color uniformity in spot lights including: the applied color space CIELAB, the visual color perception, the spotlight design fundamentals with regards to light engines and nonimaging optics, and the state of the art for the evaluation of color uniformity in the far field of spotlights. Chapter 3 develops different methods for mathematical description of spatial color distribution in a defined area, which are the maximum color difference, the average color deviation, the gradient of spatial color distribution as well as the radial and axial smoothness. Each function refers to different visual influencing factors, and they need different handling of data be taken into account, along with weighting functions which pre- and post-process the simulated or measured data for noise reduction, luminance cutoff, the implementation of luminance weighting, contrast sensitivity function, and cumulative distribution function. In chapter 4, the merit function Usl for the estimation of the perceived color uniformity in spotlights is derived. It was based on the results of two sets of human factor experiments performed to evaluate the visual perception of typical spotlight patterns by subjects. The first human factor experiment resulted in the perceived rank order of the spotlights. The perceived rank order was used to correlate the mathematical descriptions of basic functions and weighted function concerning the spatial color distribution, which lead to the Usl function. The second human factor experiment tested the perception of spotlights under varied environmental conditions, with to objective to provide an absolute scale for Usl, so the subjective personal opinion of individuals could be replaced by a standardized merit function. The validation of the Usl function is presented concerning the application range and conditions as well as limitations and restrictions in carried out in chapter 5. Measured and simulated data of various optical several systems were compared. Fields of applications are discussed as well as validations and restrictions of the function. Chapter 6 presents spotlight system design and their optimization. An evaluation shows the analysis of reflector-based and TIR lens systems. The simulated optical systems are compared in color uniformity Usl , sensitivity to colored shadows, efficiency, and peak luminous intensity. It has been found that no single system which performed best in all categories, and that excellent color uniformity could be reached by two different system assemblies. Finally, chapter 7 summarizes the conclusions of the present thesis and an outlook for further investigation topics.
Resumo:
Se estudia una placa tipo Mindlin, reforzada con nervios distribuidos de forma periódica según direcciones arbitrarias, mediante técnicas de homogeneización basadas en métodos de desarrollos asintóticos en escalas múltiples. Se obtiene de esta forma la matriz de rigidez de la placa homogeneizada que resulta ser dependiente de las características geométricas de la celda periódica, es decir, de su oblicuidad, forma en planta, variación de espesores etc., así como de las constantes elásticas del material. El cálculo de esta matriz se lleva a cabo mediante un promedio sobre el dominio de la celda de una combinación lineal de soluciones de diferentes problemas de contorno deflexión de placa sobre el dominio de la celda y con condiciones de contorno de tipo periódico. Cada uno de estos problemas de contorno corresponde a unas cargas aplicadas sobre la placa que son derivadas de las funciones D y Do constantes de flexión y de cortante de la placa. Finalmente se presenta un ejemplo que ilustra la aplicación de esta metodología.