471 resultados para Fantoma homogêneo


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las sociedades indígenas de la pampa a mediados del siglo XIX, no constituyeron un mundo homogéneo. No obstante, es posible reconocer en esas comunidades, estrategias puestas en juego tendientes a definir un "nosotros" frente a los "otros", los blancos cristianos. Esta situación se advierte más claramente en el momento del avance de la sociedad estatal sobre el "desierto". Como construcción social, la identidad se reforzó mediante mecanismos de resistencia, innovación y apropiación cuyo objetivo consistió en mantener el control de recursos culturales propios y de aquellos ajenos, de los que se habían apropiado, para hacer posible la existencia de una cultura autónoma. La tierra, la lengua y el plano de lo simbólico resultaron claves en este proceso dinámico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El retorno del sistema democrático argentino inicia un ciclo signado por la inestabilidad de los partidos políticos tradicionales y por la emergencia de nuevos (Malamud, 2004). La fluctuación del voto del espectro de centro-derecha y centro-izquierda del electorado (Torre, 2003) evidencia una transformación del sistema de representación política partidaria (Manin, 1998). Al centrar la mirada en el comportamiento electoral del Gran Buenos Aires persiste en el imaginario la idea de un territorio homogéneo gobernado por la estructura partidaria del justicialismo. Si bien esto es relativamente cierto a nivel provincial, no sucede lo mismo a nivel municipal donde se observan diferentes experiencias dedicadas a la política local. Esta investigación se propone comprender la construcción política a nivel local a partir de la experiencia del partido político vecinal Acción Comunal que gobernó el municipio de Tigre entre los años 1987 y 2007. Desde una perspectiva socio-histórica (Michels, 2011) buscamos explorar los vínculos con los grupos de interés/apoyo (Panebianco, 1982; Gonzalez Bombal, 1988) y la comunidad de referencia del distrito (Frederic, 2002) para analizar las condiciones que le permitieron mantenerse al frente de la gobernación a pesar de las crisis económicas e institucionales que conmocionaros el escenario nacional y sacudieron todas las estructuras partidarias. Esta investigación nos permitirá reflexionar sobre los límites y alcances que enfrenta un partido político vecinal para mantenerse y trascender en el poder sin una estructura partidaria más amplia que lo contenga

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este trabajo se integran las trayectorias territoriales a la construcción del espacio de posiciones de los productores del Parque Pereyra Iraola (PPI). Desde la perspectiva de Bourdieu se recurre al concepto de espacio social para realizar una caracterización no tradicional, ni sectorial de los productores hortícolas, la cual tiene en cuenta la problemática de la tenencia de la tierra en este territorio del cinturón verde bonaerense. Sobre la base del Censo de Productores del PPI (2006) se realizó un análisis de componentes principales categóricos, integrando 155 observaciones y 24 variables, para dar cuenta no solo niveles de capitalización económica de los productores, sino también del origen de la población, las formas de acceso a la tierra, la antigüedad en la tenencia, la trayectoria en la horticultura, la composición del ingreso, las trayectorias laborales, las formas de residencia, las modalidades productivas y los niveles de participación y organización. De esta manera, se muestra como la heterogeneidad de estrategias de ocupación y uso del territorio, constituyen un conjunto obstáculos, dónde la política pública del Programa Cambio Rural Bonaerense proyecta un protocolo de producción destinado a productor-tipo homogéneo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Con el objetivo de evaluar la calidad de los procesos de organización del conocimiento en bibliotecas universitarias de arquitectura de Argentina, se realiza un estudio sobre la indización y condensación (resumen y nota de contenido) en los OPAC. Se analizan particularmente los principios de la exhaustividad y especificidad, el índice de errores y la consistencia de la indización; así como el índice de errores en la condensación. Además, se determina la integridad del registro según la inclusión de estos procesos. Los resultados demuestran que el nivel de exhaustividad en promedio es el recomendable, pero en algunos casos elevado y en otros muy bajo y, por lo tanto, poco homogéneo; mientras que el nivel de especificidad es aceptable para bibliotecas especializadas. Los cálculos indican un nivel de consistencia muy reducida. Si bien la mayoría de los registros poseen términos de indización, la inclusión de la condensación, es escasa en las bibliotecas. Incluso muchos resúmenes y/o notas de contenido presentan términos con errores. Se espera generar conciencia de la importancia de los procesos para lograr la eficacia en la recuperación de los documentos y de este modo satisfacer las necesidades de los usuarios y, además, promover la realización de acciones de mejora

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Desde finales de los 80, aparece una proliferación de relatos de mercado en la literatura mundial correlacionados con el contexto de la globalización que se esgrime como proyecto político planetario. Ese proyecto construido por las dirigencias de Occidente estuvo caracterizado por la imposición de un patrón económico como regulador de las sociedades a través del Mercado; de modo tal que algunos han leído la emergencia de una "sociedad de mercado" o de "vidas de consumo" o de "ciudadanos consumidores". En ese marco que se pretendía homogéneo cada una de las literaturas nacionales reaccionó y dio origen a relatos de mercado en donde "la presencia" del relato de los bienes simbólicos interfiere la producción literaria. Pero dentro de los marcos nacionales, si las respuestas, por un lado, mantenían ciertos puntos de contacto entre ellas, por el otro se redefinieron de acuerdo a capitales simbólicos y culturales particulares

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las referencias que hacen los policías de seguridad de la Provincia de Buenos Aires, al tiempo y sus usos en relación con sus tareas laborales cotidianas, nos permiten observar cómo se estructura la actividad policial. La disposición del tiempo comporta tensiones que revelan las relaciones de poder que surcan este espacio social, la imposición de jerarquías, y la articulación de recursos como mecanismo de negociación, así como también las avenencias y la aceptación que legitima dicha comprensión del tiempo. La temporalidad entonces, como dimensión estructurante del oficio policial, aparece en múltiples alusiones: la administración del tiempo para el ocio y/o el desarrollo de otros intereses y para el trabajo, las comparaciones con otros trabajos y sus temporalidades, los vínculos con familiares y amigos, la valoración del mundo social desde su noción de servicio, las expectativas hacia el futuro, entre otras. En estas páginas describiremos prácticas cotidianas de la tarea policial, desde un abordaje etnográfico sobre algunas de las múltiples dimensiones que surcan este campo, evitando conceptualizarlo como un espacio culturalmente cerrado y homogéneo. Asimismo, mediante este ejercicio descriptivo, intentamos exponer elementos para abordar las singularidades y/o familiaridades del trabajo policial, en diálogo con otras actividades laborales

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La investigación que aquí presentamos tiene como propósito analizar los estudios políticos sobre los gobiernos de Néstor Kirchner [2003-2007] y Cristina Fernández [2007-2011] en el campo de abordaje de las Ciencias Sociales. El análisis del kirchnerismo como fenómeno político ha sido extensamente abordado por el análisis político, sin embargo es difícil concebir este campo como un corpus homogéneo de abordaje. Esto nos ubica frente al desafío de recuperar, sistematizar y analizar las diversas aproximaciones realizadas en el horizonte de su comprensión. Específicamente, nos proponemos indagar los análisis políticos sobre el 'proceso kirchnerista' a través de la pregunta por la 'democracia' desde algunas de las disciplinas presentes en las Ciencias Sociales: la ciencia política, la sociología política, la teoría política y el análisis del discurso. Esta clave interpretativa nos permite vertebrar una serie de otros debates propios del análisis político en torno al decisionismo, el liderazgo, la representación, las instituciones, la participación, la decisión política, el rol de la justicia, el sujeto democrático y la constitución del 'pueblo' en la configuración democrática actual

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente trabajo incluye algunos resultados obtenidos a partir de la realización de las primeras entrevistas piloto de carácter exploratorio efectuadas con el método clínico crítico piagetiano, a 13 chicos/as de entre 8 y 12 años. Las mismas se orientaron a explorar las ideas de los niños acerca de la producción de noticias/prácticas mediáticas y la información se obtuvo por medio del diálogo y el pedido elaboración de dibujos. Las primeras reflexiones acerca de dicho material exploratorio orientarían a pensar en tres dimensiones de análisis. La primera se refiere a que el modo en que los chicos/as se representan las noticias aparece fuertemente marcado a través del medio televisivo. En una investigación reciente acerca de la relación entre medios masivos de comunicación y escuela (Nakache, D. 2000) se visualizó la televisión como el principal dispositivo considerado por los chicos/as, que ejerce una gran influencia en sus prácticas cotidianas, actividades recreativas, juegos y modos de hablar (jergas). Nos preguntamos si la pregnancia de la televisión a la hora de concebir el acceso a las noticias tiene relación, o bien con el poder de ilusión de realidad de la imagen, o bien con que simplemente la televisión es el medio más consumido, o bien ambas posibilidades a la vez. A su vez, como segunda dimensión en nuestras primeras reflexiones, se notaría que lo noticiable para este grupo de chicos se habría referido a hechos catastróficos como robos y fenómenos naturales excepcionales. En este sentido, Pierre Bourdieu (1996) postula que la televisión, a la hora de emitir noticias, seleccionaría o buscaría lo sensacional o espectacular caracterizándolo con 'palabras extraordinarias'. La tercera dimensión surge de la observación de cierta preponderancia en las conceptualizaciones de los chicos acerca del proceso de producción de noticias que indica que muchos conciben la producción de las noticias como un simple proceso sin considerar mediaciones entre el hecho y la noticia. En este sentido, de lo que se trataría en relación con los medios de comunicación, es de la transmisión de información en bruto sin mayores intenciones por parte del emisor más que la de informar a un receptor que decodificaría el mensaje. Estaríamos hablando de una mirada ingenua acerca de la producción de noticias que no considera la intencionalidad del discurso a la hora de producir noticias. Según Charaudeau, la misma se sustenta en un modelo de comunicación que sólo considera un emisor, un receptor y una instancia de transmisión que media entre ambos, siendo todos los problemas de transmisión externos al propio mecanismo, creándose una superposición entre el acto de comunicación y lo que sería la información. Este modelo, compartido por el sentido común, concibe la comunicación como un circuito cerrado, además de homogéneo y objetivo; ya que 'elimina todo efecto perverso de la intersubjetividad constitutiva de los intercambios humanos' (Charaudeau, ob. Cit: 43) En contrapartida, se plantea una segunda mirada que considera que la información no existe en sí misma en un espacio exterior al hombre, sino que construye saber en forma de discurso. Así, se problematiza la pertinencia de la información, la selección y se enfatiza la existencia de un principio de influencia. A partir de esta segunda mirada es que se visibilizan las intenciones e intereses de quien comunica. A la luz de estas dimensiones, cabe agregar que las características del dispositivo TV (ilusión de realidad entre otras) no pueden ser pensadas como obstáculo sino como condición en la que los chicos van a desarrollar o no su lectura crítica. Es así que esta ponencia comienza a interrogarse por el lugar que puede desempeñar la escuela como espacio de reflexión y construcción de lectura crítica en relación con las noticias mediáticas. Desde la perspectiva teórica de un constructivismo relacional se concibe la lectura crítica como una práctica del lenguaje que se construye a partir de la participación de los sujetos en diversos contextos y prácticas sociales. Las condiciones sociales, los contextos de práctica, así como las representaciones que circulan socialmente y preexisten a los sujetos conformarían el marco epistémico desde el cual construyen las hipótesis acerca del objeto social abordado (Castorina y Lenzi, 2000; Castorina et al, 2007; Perelman, 2008)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabajo aborda el estudio de la calidad acústica de restaurantes y propone la inteligibilidad como magnitud adecuada para su valoración. La conversación en el entorno de cada mesa se considera como señal de interés para quienes la ocupan, mientras que las conversaciones de los comensales de las restantes mesas se consideran ruido perturbador junto con el procedente de otras fuentes interiores o exteriores, ruido este que por otra parte suele estar limitado por ordenanzas o reglamentaciones ad hoc, a niveles muy por debajo del nivel de conversación medio y se suele tratar como un ruido estacionario homogéneamente distribuido en todo el restaurante. Las condiciones de inteligibilidad en cada mesa del restaurante deben ser equivalentes. La relación señal-ruido juega un papel primordial en todos los modelos objetivos de predicción de la inteligibilidad en recintos comúnmente aceptados en la actualidad. La calificación de la inteligibilidad de un recinto de restauración requiere un mapa de inteligibilidad en una retícula suficientemente fina que cubra la zona de público, en cuyos puntos se necesita calcular los niveles de señal y de ruido, así como el tiempo de reverberación u otro parámetro relacionado con la señal recibida en el tiempo de integración auditiva. Esto conlleva una cantidad ingente de potencia computacional tanto en memoria como en tiempo. Si se dispone de ecuaciones sencillas y fiables de distribución del nivel sonoro en función de la distancia a la fuente sonora los enormes requerimientos de cálculo mencionados podrían reducirse en un factor importante. La teoría estadística clásica de recintos presenta justamente este escenario, pero trabajos relativamente recientes de Barron y colaboradores indican la mejor adecuación de ecuaciones empíricas algo más complejas, dentro de la sencillez, las cuales a su vez han sido cuestionadas en parte por otros autores. La importancia de estas ecuaciones ha condicionado que en esta tesis se haya planeado un programa de exploraciones experimentales ambicioso, a la par que lo mas simplificado posible, para obtener distribuciones de campos sonoros en recintos prismáticos de plantas en forma de I, L y U; en donde se exploran trayectorias axiales y diagonales. En paralelo se exploro el tiempo de reverberación y se completo con estudios análogos en recintos acoplados formados a partir del recinto de planta en U, por su utilidad actual en recintos de interés arquitectónico rehabilitados para restaurantes. Por su facilidad operativa la experimentación se planteo en maquetas a escala reducida asegurando el cumplimiento de los requisitos en este tipo de estudios. Los resultados experimentales directos se corrigieron de los efectos alineales derivados de las descargas eléctricas usadas como señales de excitación, tanto en el tiempo de reverberación como en la distribución de niveles. Con este fin se desarrollaron ecuaciones de corrección de ambas magnitudes en función del parámetro de alinealidad en el rango de débil alinealidad. También se aplicaron correcciones del exceso de absorción sonora en el seno del aire a los valores de humedad relativa, temperatura y presión atmosféricas reinantes en el interior de las maquetas durante la experimentación, para las frecuencias transpuestas por el factor de escala, en relación con la escala real. Como resultado se obtuvo un paquete de archivos de datos experimentales correspondientes a condiciones lineales. Se ha mostrado que una generalización de la ecuación de Barron consigue un buen ajuste a los valores experimentales en todos los casos considerados, lo que apoya el gran fundamento de esta ecuación tipo. El conjunto de ecuaciones empíricas que ajusta cada caso particular solamente difiere en el valor de una de las tres constantes del tipo funcional: el factor ligado al término exponencial. Un valor de esta constante cercano al valor medio de la serie de casos estudiados se ha usado en el cálculo de los mapas de inteligibilidad en recintos prismáticos que se comentaran más adelante Los resultados experimentales del nivel sonoro a lo largo de trayectorias axiales y diagonales comparados a los calculados numéricamente con las ecuaciones empíricas presentan disminuciones justamente detrás de las esquinas de los recintos con plantas en forma de L y de U. Las aéreas de estas zonas afónicas son función de la frecuencia de manera bastante coincidente con las encontradas en las barreras de ruido por efecto de la difracción. A distancias superiores los valores experimentales caen de nuevo sobre las curvas empíricas. Se ha estudiado la influencia en los mapas de inteligibilidad del ruido de fondo, de la absorción sonora, de la distribución de las mesas, de la densidad de mesas por unidad de superficie, del porcentaje de ocupación y su distribución espacial así como de la posición de la mesa de señal. El ruido conversacional resulta ser el factor más adverso a la inteligibilidad. Al aumentar la densidad de mesas (ocupadas) la valoración de la inteligibilidad disminuye e inversamente. La influencia negativa de las mesas de ruido conversacional disminuye rápidamente al aumentar la distancia a la mesa de señal: pudiendo afirmarse que las 4 a 8 mesas mas próximas a la de señal, junto con la absorción total del recinto, constituyen los dos factores que condicionan la inteligibilidad influyendo negativamente el primero y positivamente el segundo. Este resultado difiere del ofrecido por la teoría geométrico estadística clásica donde todas las mesas tienen la misma influencia con independencia del sitio que ocupen en el recinto, y también con la teoría derivada de la ecuación de Barron, que ocupa una posición intermedia. Mayor absorción y menor densidad de mesas (ocupadas) mejoran la inteligibilidad en todos los casos pero la absorción no siempre puede neutralizar el efecto adverso de la densidad de mesas de la cual parece existir un valor frontera imposible de neutralizar en la práctica con incrementos de absorción. El grado de inteligibilidad en torno a la mesa de señal es poco sensible a la posición de esta dentro del recinto, resultado que simplifica el enunciado de criterios de calidad acústica de utilidad práctica tanto en diseño como en reglamentaciones de control. La influencia del ruido de fondo estacionario y homogéneo resulta de escasa o nula influencia en la inteligibilidad para niveles de hasta 50-55 dB, si se admite que los niveles normales de conversación se sitúan de 65 a 70 dB. La subdivisión del restaurante en subespacios menores mediante septa de separación parcial media y alta, presenta ventajas ya que dentro de cada subespacio la inteligibilidad no depende más que de las características de este

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las recientes investigaciones realizadas en los potentes yacimientos de arcillas que se encuentran en la Ciudad de Malabo (Bioko Norte), República de Guinea Ecuatorial, revelaron la presencia mayoritaria de una fase compuesta por sepiolita, acompañada por especies secundarias de feldespato, caolinita, hematita, moscovita e illita. Los análisis por microscopía electrónica de barrido (MEB), difracción de rayos x (DRX) y agregado orientado con etilenglicol (AO), indican un comportamiento similar y homogéneo de la composición de las muestras estudiadas. Por otro lado, los análisis químicos, puzolanicidad, granulometría (tamizado en seco), consistencia, tiempo de inicio y final de fraguado y la determinación de la estabilidad de volumen, confirman la idoneidad de estas arcillas sepiolíticas no expansivas para sustituir hasta un 25% del cemento portland en los proyectos de mezclas de morteros. No se tiene noticia sobre la realización de proyectos de investigación en estas formaciones sedimentarias, por lo que se considera el primer trabajo de carácter científico que se inicia para la caracterización, sistematización y posibles aplicaciones de estas arcillas en la aún incipiente industria de la construcción ecuatoguineana.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La construcción de túneles en suelos y rocas blandas y/o muy diaclasadas presenta mayores inconvenientes en la estabilidad del frente e incluso es frecuente que ocurran colapsos. [1]. Otro obstáculo con el cual se encuentran en la mayoría de los casos al realizar un túnel es la heterogeneidad del terreno. La mayoría de los estudios que se refieren a la estabilidad del frente proponen mecanismos de rotura que consideran el terreno como un material homogéneo. En el presente trabajo se analiza la influencia de los estratos en base a sus propiedades resistentes, la ubicación del mismo y geometría. Éste análisis se realiza a través de un mecanismo de rotura. Se trata de un mecanismo rotacional de un bloque rígido correspondiente a una solución de contorno superior basado en el mecanismo propuesto por Mollon. El mecanismo se desarrolla en el programa de MatLab. El terreno es divido en dos estratos, uno resistente y uno suelto. La programación permite variar las propiedades del terreno de acuerdo a la cota de los estratos. Esta variación de propiedades permite analizar la influencia de los estratos de acuerdo a la ubicación de los mismos con respecto a la superficie y posición en el frente. A fin de evaluar el mecanismo, los resultados son comparados con aquellos obtenidos con la herramienta FLAC y el mecanismo propuesto por Broere para suelos estratificados. Se puede observar que existe una buena convergencia entre el mecanismo propuesto y el desarrollado en FLAC, sin embargo, no ocurre lo mismo con el mecanismo multicapas propuesto por Broere. A partir de los casos analizados, se elaboraron gráficas en las cuales se presentan diferentes perspectivas de la variación de la presión de acuerdo a la posición de los estratos y sus propiedades. Permiten, además, analizar la relación entre la presión necesaria en el caso de tener un terreno resistente con un espesor igual al diámetro del túnel y la necesaria si el terreno suelto se encuentra a la cota inferior del diámetro del túnel.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Hablar de “los mapuche” como sinónimo de grupo homogéneo y de una cultura tradicional puede inducir a inexactitudes. Habría que decir que hablar de “los mapuche” es referirse a una serie de poblaciones que si bien forman parte de un proceso histórico compartido, difieren en grado relevante entre sí. Bajo la denominación mapuche se agrupan colectivos que provienen de diferentes territorios. Wixan mapu, los mapus o territorios originales, habrían sido los espacios donde históricamente se han desarrollado los diferentes segmentos de la sociedad mapuche. Desde estos espacios es posible trazar tradiciones localizadas dentro del amplio espacio de la Wallmapu, o país mapuche. Nos referimos a agrupaciones más o menos diferenciadas que han desarrollado variaciones lingüísticas, religiosas-rituales y económicas. Sociedades mapuche que han administrado históricamente de diversas formas las relaciones con aliados o adversarios, hayan sido la corona española, el estado chileno, colonos, latifundistas y misioneros entre otros. También son sociedades que han administrado de forma diferenciada el uso y apropiación de elementos culturales occidentales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tesis se centra en el estudio y desarrollo de dispositivos de aplicación basados en cristal líquido polimérico. Las propiedades de los cristales líquidos los hacen interesantes para su uso en el desarrollo de dispositivos de seguridad para autenticación de productos y marcas, y detección y prevención de falsificaciones. Asimismo, pueden ser muy útiles para fabricar dispositivos basados en CLs dispersos en polímero, los cuales tienen a su vez múltiples aplicaciones. La orientación de las moléculas de cristal líquido y la birrefringencia son las dos características principales que afectan a las propiedades de estos dispositivos. Un dispositivo de cristal líquido estándar consiste en un sándwich formado por dos sustratos de vidrio transparente, dotados con electrodo de ITO (Indium Tin Oxide) en su superficie interna, que confinan el cristal líquido en su interior. En la primera parte de esta tesis se describen las características más importantes que describen una célula de cristal líquido. Esta introducción básica en necesaria para la correcta comprensión de los capítulos posteriores en los que se detalla el desarrollo concreto de los dispositivos desarrollados en la investigación llevada a cabo. Por ejemplo, en el caso de los dispositivos de seguridad se han eliminado los sustratos de vidrio (en la última fase de su desarrollo) para conseguir dispositivos flexibles. En la segunda parte de la tesis se incluye la descripción completa de los dispositivos fabricados, así como de los protocolos de fabricación seguidos y diseñados específicamente para ello. También se detallan en esta parte los resultados obtenidos, así como las propiedades ópticas y electroópticas en cada caso, y el/los equipos de caracterización utilizados. Utilizando cristal líquido nemático y colorante dicroico, se han desarrollado dispositivos que contienen múltiples imágenes latentes en cada cara del mismo. Utilizando distintas técnicas de alineamiento se consigue crear cualquier tipo de motivo latente, ya sean símbolos sencillos, figuras, logotipos o incluso imágenes con escala de gris. Cuanto más complejo es el dispositivo, mayor es la dificultad para reproducirlo en una eventual falsificación. Para visualizar e identificar los motivos es necesario emplear luz polarizada, por ejemplo, con la ayuda de un sencillo polarizador lineal. Dependiendo de si el polarizador está colocado delante del dispositivo o detrás del él, se mostrarán las imágenes generadas en una u otra cara. Este efecto es posible gracias al colorante dicroico añadido al CL, a la orientación inducida sobre las moléculas, y a la estructura de twist utilizada en los dispositivos. En realidad, para ver el efecto de los dispositivos no es necesario el uso de un polarizador, basta con el reflejo de una superficie dielétrica (percialmente polarizado), o la luz emitida por la pantalla de dispositivos de consumo comunes como un televisor LCD, un monitor de ordenador o un “smartphone”. Por otro lado, utilizando una mezcla entre un CL nemático polimérico y un CL nemático no polimérico es posible fabricar dispositivos LCPC (Liquid Crystal Polymer Composite) con propiedades electroópticas muy interesantes, que funcionan a tensiones de conmutación bajas. El CL polimérico conforma una estructura de red en el interior del sándwich que mantiene confinado al CL nemático en pequeños microdominios. Se han fabricado dispositivos LCPC con conmutación inversa utilizando tanto alineamiento homogéneo como homeotrópico. Debido a que tanto la estructura de CL polimérico como el CL nemático que rellena los microdominios están orientados en una misma dirección de alineamiento preinducida, la luz dispersada por el dispositivo se encuentra polarizada. La dirección de polarización coincide con la dirección de alineamiento. La innovación aportada por esta investigación: un nuevo dispositivo LCPC inverso de respuesta ultrarápida y polarizada basado en la mezcla de dos CL nemáticos y, un dispositivo de seguridad y autenticación, patentado internacionalmente, basado en CL nemáticos dopados con colorante dicroico. Abstract This thesis is centered on the availability to use polymerizable liquid crystals to develop non-display application LC devices. Liquid crystal properties make them useful for the development of security devices in applications of authentication and detection of fakes, and also to achieve polymer dispersed LC devices to be used for different applications that will be studied here. Induced orientation of liquid crystal molecules and birefringence are the two main properties used in these devices. A standard liquid crystal device is a sandwich consisting of two parallel glass substrates carrying a thin transparent ITO (Indium‐Tin‐Oxide) electrode on their inner surfaces with the liquid crystal in the middle. The first part of this thesis will describe the most important parameters describing a liquid crystal cell. This basis is necessary for the understanding of later chapters where models of the liquid crystal devices will be discussed and developed. In the case of security devices the standard structure of an LC device has been modified by eliminating the glass substrates in order to achieve plastic and flexible devices. The second part of the thesis includes a detailed description of the devices achieved and the manufacturing protocols that have been developed ad-hoc. The optical and electrooptical properties and the characterization equipment are described here as well. Employing nematic liquid crystal and dichroic colorants, we have developed devices that show, with the aid of a polarizer, multiple images on each side of the device. By different alignment techniques it is possible to create any kind of symbols, drawings or motifs with a grayscale; the more complex the created device is, the more difficult is to fake it. To identify the motifs it is necessary to use polarized light. Depending on whether the polarizer is located in front of the LC cell or behind it, different motifs from one or the other substrate are shown. The effect arises from the dopant color dye added to the liquid crystal, the induced orientation and the twist structure. In practice, a grazing reflection on a dielectric surface is polarized enough to see the effect. Any LC flat panel display (LCD TV, computer, mobile phone) can obviously be used as backlight as well. On the other hand, by using a mixture of polymerizable and non-polymerizable nematics liquid crystals it is also possible to achieve LCPC (Liquid Crystal Polymer Composite) devices that show really interesting electrooptical characteristics using low switching voltages. Polymerizable LC creates a hollow structure inside the sandwich glass cell that keep nematics liquid crystal confined creating microdomains. Homogeneous and homeotropic alignments have been used to develop inverse switching mode LCPCs. Due to the double LC oriented structure, the outgoing scattered light from these devices is already polarized. The polarization axis coincides with LC molecules director, the alignment direction promoted. The novelties derived from the investigation presented here, new ultrafast inverse LCPC with polarized outgoing scattered light based on oriented nematic LC mixture, and an internationally patented security and authentication device based on nematics (doped with dichroic dye) oriented polymerizable LC.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El gran desarrollo industrial y demográfico de las últimas décadas ha dado lugar a un consumo crecientemente insostenible de energía y materias primas, que influye negativamente en el ambiente por la gran cantidad de contaminantes generados. Entre las emisiones tienen gran importancia los compuestos orgánicos volátiles (COV), y entre ellos los compuestos halogenados como el tricloroetileno, debido a su elevada toxicidad y resistencia a la degradación. Las tecnologías generalmente empleadas para la degradación de estos compuestos presentan inconvenientes derivados de la generación de productos tóxicos intermedios o su elevado coste. Dentro de los procesos avanzados de oxidación (Advanced Oxidation Processes AOP), la fotocatálisis resulta una técnica atractiva e innovadora de interés creciente en su aplicación para la eliminación de multitud de compuestos orgánicos e inorgánicos, y se ha revelado como una tecnología efectiva en la eliminación de compuestos orgánicos volátiles clorados como el tricloroetileno. Además, al poder aprovechar la luz solar como fuente de radiación UV permite una reducción significativa de costes energéticos y de operación. Los semiconductores más adecuados para su empleo como fotocatalizadores con aprovechamiento de la luz solar son aquellos que tienen una banda de energía comparable a la de los fotones de luz visible o, en su defecto, de luz ultravioleta A (Eg < 3,5 eV), siendo el más empleado el dióxido de titanio (TiO2). El objetivo principal de este trabajo es el estudio de polímeros orgánicos comerciales como soporte para el TiO2 en fotocatálisis heterogénea y su ensayo para la eliminación de tricloroetileno en aire. Para ello, se han evaluado sus propiedades ópticas y su resistencia a la fotodegradación, y se ha optimizado la fijación del fotocatalizador para conseguir un recubrimiento homogéneo, duradero y con elevada actividad fotocatalítica en diversas condiciones de operación. Los materiales plásticos ensayados fueron el polietileno (PE), copolímero de etil vinil acetato con distintos aditivos (EVA, EVA-H y EVA-SH), polipropileno (PP), polimetil (metacrilato) fabricado en colada y extrusión (PMMA-C y PMMA-E), policarbonato compacto y celular (PC-C y PC-Ce), polivinilo rígido y flexible (PVC-R y PVC-F), poliestireno (PS) y poliésteres (PET y PETG). En base a sus propiedades ópticas se seleccionaron el PP, PS, PMMA-C, EVA-SH y PVC-R, los cuales mostraron un valor de transmitancia superior al 80% en el entorno de la región estudiada (λ=365nm). Para la síntesis del fotocatalizador se empleó la tecnología sol-gel y la impregnación multicapa de los polímeros seleccionados por el método de dip-coating con secado intermedio a temperaturas moderadas. Con el fin de evaluar el envejecimiento de los polímeros bajo la radiación UV, y el efecto sobre éste del recubrimiento fotoactivo, se realizó un estudio en una cámara de exposición a la luz solar durante 150 días, evaluándose la resistencia química y la resistencia mecánica. Los resultados de espectroscopía infrarroja y del test de tracción tras el envejecimiento revelaron una mayor resistencia del PMMA y una degradación mayor en el PS, PVC-R y EVA SH, con una apreciable pérdida del recubrimiento en todos los polímeros. Los fotocatalizadores preparados sobre soportes sin tratamiento y con tres capas de óxido de titanio mostraron mejores resultados de actividad con PMMA-C, PET y PS, con buenos resultados de mineralización. Para conseguir una mayor y mejor fijación de la película al soporte se realizaron tratamientos químicos abrasivos con H2SO4 y NaOH y tratamientos de funcionalización superficial por tecnología de plasma a presión atmosférica (APP) y a baja presión (LPP). Con los tratamientos de plasma se consiguió una excelente mojabilidad de los soportes, que dio lugar a una distribución uniforme y más abundante del fotocatalizador, mientras que con los tratamientos químicos no se obtuvo una mejora significativa. Asimismo, se prepararon fotocatalizadores con una capa previa de dióxido de silicio con la intervención de surfactantes (PDDA-SiO2-3TiO2 y SiO2FC-3TiO2), consiguiéndose buenas propiedades de la película en todos los casos. Los mejores resultados de actividad con tratamiento LPP y tres capas de TiO2 se lograron con PMMA-C (91% de conversión a 30 ppm de TCE y caudal 200 ml·min-1) mejorando significativamente también la actividad fotocatalítica en PVC-R y PS. Sin embargo, el material más activo de todos los ensayados fue el PMMA-C con el recubrimiento SiO2FC-3TiO2, logrando el mejor grado de mineralización, del 45%, y una velocidad de 1,89 x 10-6 mol· m-2 · s-1, que dio lugar a la eliminación del 100 % del tricloroetileno en las condiciones anteriormente descritas. A modo comparativo se realizaron ensayos de actividad con otro contaminante orgánico tipo, el formaldehído, cuya degradación fotocatalítica fue también excelente (100% de conversión y 80% de mineralización con 24 ppm de HCHO en un caudal de aire seco de 200 ml·min-1). Los buenos resultados de actividad obtenidos confirman las enormes posibilidades que ofrecen los polímeros transparentes en el UV-A como soportes del dióxido de titanio para la eliminación fotocatalítica de contaminantes en aire. ABSTRACT The great industrial and demographic development of recent decades has led to an unsustainable increase of energy and raw materials consumption that negatively affects the environment due to the large amount of waste and pollutants generated. Between emissions generated organic compounds (VOCs), specially the halogenated ones such as trichloroethylene, are particularly important due to its high toxicity and resistance to degradation. The technologies generally used for the degradation of these compounds have serious inconveniences due to the generation of toxic intermediates turn creating the problem of disposal besides the high cost. Among the advanced oxidation processes (AOP), photocatalysis is an attractive and innovative technique with growing interest in its application for the removal of many organic and inorganic compounds, and has emerged as an effective technology in eliminating chlorinated organic compounds such as trichloroethylene. In addition, as it allows the use of sunlight as a source of UV radiation there is a significant reduction of energy costs and operation. Semiconductors suitable to be used as photocatalyst activated by sunlight are those having an energy band comparable to that of the visible or UV-A light (Eg <3,5 eV), being titanium dioxide (TiO2), the most widely used. The main objective of this study is the test of commercial organic polymers as supports for TiO2 to be applied in heterogeneous photocatalysis and its assay for removing trichloroethylene in air. To accomplish that, its optical properties and resistance to photooxidation have been evaluated, and different operating conditions have been tested in order to optimize the fixation of the photocatalyst to obtain a homogeneous coating, with durable and high photocatalytic activity. The plastic materials tested were: polyethylene (PE), ethyl vinyl acetace copolymers with different additives (EVA, EVA-H and EVA -SH), polypropylene (PP), poly methyl (methacrylate) manufactured by sheet moulding and extrusion (PMMA-C and PMMA-E), compact and cellular polycarbonates (PC-C PC-Ce), rigid and flexible polyvinyl chloride (PVC-R and PVC-F), polystyrene (PS) and polyesters (PET and PETG). On the basis of their optical properties PP, PS, PMMA-C, EVA-SH and PVC-R were selected, as they showed a transmittance value greater than 80% in the range of the studied region (λ = 365nm). For the synthesis of the photocatalyst sol-gel technology was employed with multilayers impregnation of the polymers selected by dip-coating, with intermediate TiO2 drying at moderate temperatures. To evaluate the polymers aging due to UV radiation, and the effect of photoactive coating thereon, a study in an sunlight exposure chamber for 150 days was performed, evaluating the chemical resistance and the mechanical strength. The results of infrared spectroscopy and tensile stress test after aging showed the PMMA is the most resistant sample, but a greater degradation in PS, PVC-R and EVA SH, with a visible loss of the coating in all the polymers tested. The photocatalysts prepared on the untreated substrates with three layers of TiO2 showed better activity results when PMMA-C, PET and PS where used. To achieve greater and better fixation of the film to the support, chemical abrasive treatments, with H2SO4 and NaOH, as well as surface functionalization treatments with atmospheric pressure plasma (APP) and low pressure plasma (LPP) technologies were performed. The plasma treatment showed the best results, with an excellent wettability of the substrates that lead to a better and uniform distribution of the photocatalyst compared to the chemical treatments tested, in which no significant improvement was obtained. Also photocatalysts were prepared with the a silicon dioxide previous layer with the help of surfactants (SiO2- 3TiO2 PDDA-and-3TiO2 SiO2FC), obtaining good properties of the film in all cases. The best activity results for LPP-treated samples with three layers of TiO2 were achieved with PMMA-C (91% conversion, in conditions of 30 ppm of TCE and 200 ml·min-1 air flow rate), with a significant improvement of the photocatalytic activity in PVC-R and PS samples too. However, among all the materials assayed, PMMA-C with SiO2FC-3TiO2 coating was the most active one, achieving the highest mineralization grade (45%) and a reaction rate of 1,89 x 10-6 mol· m-2 · s-1, with total trichloroethylene elimination in the same conditions. As a comparative assay, an activity test was also performed with another typical organic contaminant, formaldehyde, also with good results (100% conversion with 24 ppm of HCHO and 200 ml·min-1 gas flow rate). The good activity results obtained in this study confirm the great potential of organic polymers which are transparent in the UV-A as supports for titanium dioxide for photocatalytic removal of air organic pollutants.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Separated transitional boundary layers appear on key aeronautical processes such as the flow around wings or turbomachinery blades. The aim of this thesis is the study of these flows in representative scenarios of technological applications, gaining knowledge about phenomenology and physical processes that occur there and, developing a simple model for scaling them. To achieve this goal, experimental measurements have been carried out in a low speed facility, ensuring the flow homogeneity and a low disturbances level such that unwanted transitional mechanisms are avoided. The studied boundary layers have been developed on a flat plate, by imposing a pressure gradient by means of contoured walls. They generate an initial acceleration region followed by a deceleration zone. The initial region is designed to obtain at the beginning of the deceleration the Blasius profile, characterized by its momentum thickness, and an edge boundary layer velocity, defining the problem characteristic velocity. The deceleration region is designed to obtain a linear evolution of the edge velocity, thereby defining the characteristic length of the problem. Several experimental techniques, both intrusive (hot wire anemometry, total pressure probes) as nonintrusive (PIV and LDV anemometry, high-speed filming), have been used in order to take advantage of each of them and allow cross-validation of the results. Once the boundary layer at the deceleration beginning has been characterized, ensuring the desired integral parameters and level of disturbance, the evolution of the laminar boundary layer up to the point of separation is studied. It has been compared with integral methods, and numerical simulations. In view of the results a new model for this evolution is proposed. Downstream from the separation, the flow near to the wall is configured as a shear layer that encloses low momentum recirculating fluid. The region where the shear layer remains laminar tends to be positioned to compensate the adverse pressure gradient associated with the imposed deceleration. Under these conditions, the momentum thickness remains almost constant. This laminar shear layer region extends up to where transitional phenomena appear, extension that scales with the momentum thickness at separation. These transitional phenomena are of inviscid type, similar to those found in free shear layers. The transitional region analysis begins with a study of the disturbances evolution in the linear growth region and the comparison of experimental results with a numerical model based on Linear Stability Theory for parallel flows and with data from other authors. The results’ coalescence for both the disturbances growth and the excited frequencies is stated. For the transition final stages the vorticity concentration into vortex blobs is found, analogously to what happens in free shear layers. Unlike these, the presence of the wall and the pressure gradient make the large scale structures to move towards the wall and quickly disappear under certain circumstances. In these cases, the recirculating flow is confined into a closed region saying the bubble is closed or the boundary layer reattaches. From the reattachment point, the fluid shows a configuration in the vicinity of the wall traditionally considered as turbulent. It has been observed that existing integral methods for turbulent boundary layers do not fit well to the experimental results, due to these methods being valid only for fully developed turbulent flow. Nevertheless, it has been found that downstream from the reattachment point the velocity profiles are self-similar, and a model has been proposed for the evolution of the integral parameters of the boundary layer in this region. Finally, the phenomenon known as bubble burst is analyzed. It has been checked the validity of existing models in literature and a new one is proposed. This phenomenon is blamed to the inability of the large scale structures formed after the transition to overcome with the adverse pressure gradient, move towards the wall and close the bubble. El estudio de capas límites transicionales con separación es de gran relevancia en distintas aplicaciones tecnológicas. Particularmente, en tecnología aeronáutica, aparecen en procesos claves, tales como el flujo alrededor de alas o álabes de turbomaquinaria. El objetivo de esta tesis es el estudio de estos flujos en situaciones representativas de las aplicaciones tecnológicas, ganando por un lado conocimiento sobre la fenomenología y los procesos físicos que aparecen y, por otra parte, desarrollando un modelo sencillo para el escalado de los mismos. Para conseguir este objetivo se han realizado ensayos en una instalación experimental de baja velocidad específicamente diseñada para asegurar un flujo homogéneo y con bajo nivel de perturbaciones, de modo que se evita el disparo de mecanismos transicionales no deseados. La capa límite bajo estudio se ha desarrollado sobre una placa plana, imponiendo un gradiente de presión a la misma por medio de paredes de geometría especificada. éstas generan una región inicial de aceleración seguida de una zona de deceleración. La región inicial se diseña para tener en al inicio de la deceleración un perfil de capa límite de Blasius, caracterizado por su espesor de cantidad de movimiento, y una cierta velocidad externa a la capa límite que se considera la velocidad característica del problema. La región de deceleración está concebida para que la variación de la velocidad externa a la capa límite sea lineal, definiendo de esta forma una longitud característica del problema. Los ensayos se han realizado explotando varias técnicas experimentales, tanto intrusivas (anemometría de hilo caliente, sondas de presión total) como no intrusivas (anemometrías láser y PIV, filmación de alta velocidad), de cara a aprovechar las ventajas de cada una de ellas y permitir validación cruzada de resultados entre las mismas. Caracterizada la capa límite al comienzo de la deceleración, y garantizados los parámetros integrales y niveles de perturbación deseados se procede al estudio de la zona de deceleración. Se presenta en la tesis un análisis de la evolución de la capa límite laminar desde el inicio de la misma hasta el punto de separación, comparando con métodos integrales, simulaciones numéricas, y proponiendo un nuevo modelo para esta evolución. Aguas abajo de la separación, el flujo en las proximidades de la pared se configura como una capa de cortadura que encierra una región de fluido recirculatorio de baja cantidad de movimiento. Se ha caracterizado la región en que dicha capa de cortadura permanece laminar, encontrando que se posiciona de modo que compensa el gradiente adverso de presión asociado a la deceleración de la corriente. En estas condiciones, el espesor de cantidad de movimiento permanece prácticamente constante y esta capa de cortadura laminar se extiende hasta que los fenómenos transicionales aparecen. Estos fenómenos son de tipo no viscoso, similares a los que aparecen en una capa de cortadura libre. El análisis de la región transicional comienza con un estudio de la evolución de las vii viii RESUMEN perturbaciones en la zona de crecimiento lineal de las mismas y la comparación de los resultados experimentales con un modelo numérico y con datos de otros autores. La coalescencia de los resultados tanto para el crecimiento de las perturbaciones como para las frecuencias excitadas queda demostrada. Para los estadios finales de la transición se observa la concentración de la vorticidad en torbellinos, de modo análogo a lo que ocurre en capas de cortadura libres. A diferencia de estas, la presencia de la pared y del gradiente de presión hace que, bajo ciertas condiciones, la gran escala se desplace hacia la pared y desaparezca rápidamente. En este caso el flujo recirculatorio queda confinado en una región cerrada y se habla de cierre de la burbuja o readherencia de la capa límite. A partir del punto de readherencia se tiene una configuración fluida en las proximidades de la pared que tradicionalmente se ha considerado turbulenta. Se ha observado que los métodos integrales existentes para capas límites turbulentas no ajustan bien a las medidas experimentales realizadas, hecho imputable a que no se obtiene en dicha región un flujo turbulento plenamente desarrollado. Se ha encontrado, sin embargo, que pasado el punto de readherencia los perfiles de velocidad próximos a la pared son autosemejantes entre sí y se ha propuesto un modelo para la evolución de los parámetros integrales de la capa límite en esta región. Finalmente, el fenómeno conocido como “estallido” de la burbuja se ha analizado. Se ha comprobado la validez de los modelos existentes en la literatura y se propone uno nuevo. Este fenómeno se achaca a la incapacidad de la gran estructura formada tras la transición para vencer el gradiente adverso de presión, desplazarse hacia la pared y cerrar la burbuja.