916 resultados para Dispositions, gap, circulariry, insufficiency.


Relevância:

20.00% 20.00%

Publicador:

Resumo:

One of the core objectives of urban planning practice is to provide spatial equity in terms of opportunities and use of public space and facilities. Accessibility is the element that serves this purpose as a concept linking the reciprocal relationship between transport and land use, thus shaping individual potential mobility to reach the desired destinations. Accessibility concepts are increasingly acknowledged as fundamental to understand the functioning of cities and urban regions. Indeed, by introducing them in planning practice, better solutions can be achieved in terms of spatial equity. The COST Action TU1002 "Accessibility instruments for planning practice" was specifically designed to address the gap between scientific research in measuring and modelling accessibility, and the current use of indicators of accessibility in urban planning practice. This paper shows the full process of introducing an easily understandable measure of accessibility to planning practitioners in Madrid, which is one of the case studies of the above-mentioned COST action. Changes in accessibility after the opening of a new metro line using contour measures were analyzed and then presented to a selection of urban planners and practitioners in Madrid as part of a workshop to evaluate the usefulness of this tool for planning practice. Isochrone maps were confirmed as an effective tool, as their utility can be supplemented by other indicators, and being GIS-based, it can be easily computed (when compared with transport models) and integrated with other datasets.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta tesis analiza los criterios con que fueron proyectadas y construidas las estructuras de hormigón hasta 1973, fecha coincidente con la Instrucción EH-73, que en contenido, formato y planteamiento, consagró la utilización de los criterios modernamente utilizados hasta ahora. Es heredera, además, de las CEB 1970. Esos años marcan el cambio de planteamiento desde la Teoría Clásica hacia los Estados Límite. Los objetivos perseguidos son, sintéticamente: 1) Cubrir un vacío patente en el estudio de la evolución del conocimiento. Hay tratados sobre la historia del hormigón que cubren de manera muy completa el relato de personajes y realizaciones, pero no, al menos de manera suficiente, la evolución del conocimiento. 2) Servir de ayuda a los técnicos de hoy para entender configuraciones estructurales, geometrías, disposiciones de armado, formatos de seguridad, etc, utilizados en el pasado, lo que servirá para la redacción más fundada de dictámenes preliminares sobre estructuras existentes. 3) Ser referencia para la realización de estudios de valoración de la capacidad resistente de construcciones existentes, constituyendo la base de un documento pre-normativo orientado en esa dirección. En efecto, esta tesis pretende ser una ayuda para los ingenieros de hoy que se enfrentan a la necesidad de conservar y reparar estructuras de hormigón armado que forman parte del patrimonio heredado. La gran mayoría de las estructuras, fueron construidas hace más de 40 años, por lo que es preciso conocer los criterios que marcaron su diseño, su cálculo y su construcción. Pretende determinar cuáles eran los límites de agotamiento y por tanto de seguridad, de estructuras dimensionadas con criterios de antaño, analizadas por la metodología de cálculo actual. De este modo, se podrá determinar el resguardo existente “real” de las estructuras dimensionadas y calculadas con criterios “distintos” a los actuales. Conocer el comportamiento de las estructuras construidas con criterios de la Teoría Clásica, según los criterios actuales, permitirá al ingeniero de hoy tratar de la forma más adecuada el abanico de necesidades que se puedan presentar en una estructura existente. Este trabajo se centra en la evolución del conocimiento por lo que no se encuentran incluidos los procesos constructivos. En lo relativo a los criterios de proyecto, hasta mediados del siglo XX, éstos se veían muy influidos por los ensayos y trabajos de autor consiguientes, en los que se basaban los reglamentos de algunos países. Era el caso del reglamento prusiano de 1904, de la Orden Circular francesa de 1906, del Congreso de Lieja de 1930. A partir de la segunda mitad del siglo XX, destacan las aportaciones de ingenieros españoles como es el caso de Alfredo Páez Balaca, Eduardo Torroja y Pedro Jiménez Montoya, entre otros, que permitieron el avance de los criterios de cálculo y de seguridad de las estructuras de hormigón, hasta los que se conocen hoy. El criterio rector del proyecto de las estructuras de hormigón se fundó, como es sabido, en los postulados de la Teoría Clásica, en particular en el “momento crítico”, aquel para el que hormigón y acero alcanzan sus tensiones admisibles y, por tanto, asegura el máximo aprovechamiento de los materiales y sin pretenderlo conscientemente, la máxima ductilidad. Si el momento solicitante es mayor que el crítico, se dispone de armadura en compresión. Tras el estudio de muchas de las estructuras existentes de la época por el autor de esta tesis, incluyendo entre ellas las Colecciones Oficiales de Puentes de Juan Manuel de Zafra, Eugenio Ribera y Carlos Fernández Casado, se concluye que la definición geométrica de las mismas no se corresponde exactamente con la resultante del momento crítico, dado que como ahora resultaba necesario armonizar los criterios de armado a nivel sección con la organización de la ferralla a lo largo de los diferentes elementos estructurales. Los parámetros de cálculo, resistencias de los materiales y formatos de seguridad, fueron evolucionando con los años. Se fueron conociendo mejor las prestaciones de los materiales, se fue enriqueciendo la experiencia de los propios procesos constructivos y, en menor medida, de las acciones solicitantes y, consiguientemente, acotándose las incertidumbres asociadas lo cual permitió ir ajustando los coeficientes de seguridad a emplear en el cálculo. Por ejemplo, para el hormigón se empleaba un coeficiente de seguridad igual a 4 a finales del siglo XIX, que evolucionó a 3,57 tras la publicación de la Orden Circular francesa de 1906, y a 3, tras la Instrucción española de 1939. En el caso del acero, al ser un material bastante más conocido por cuanto se había utilizado muchísimo previamente, el coeficiente de seguridad permaneció casi constante a lo largo de los años, con un valor igual a 2. Otra de las causas de la evolución de los parámetros de cálculo fue el mejor conocimiento del comportamiento de las estructuras merced a la vasta tarea de planificación y ejecución de ensayos, con los estudios teóricos consiguientes, realizados por numerosos autores, principalmente austríacos y alemanes, pero también norteamericanos y franceses. En cuanto a los criterios de cálculo, puede sorprender al técnico de hoy el conocimiento que tenían del comportamiento del hormigón desde los primeros años del empleo del mismo. Sabían del comportamiento no lineal del hormigón, pero limitaban su trabajo a un rango de tensióndeformación lineal porque eso aseguraba una previsión del comportamiento estructural conforme a las hipótesis de la Elasticidad Lineal y de la Resistencia de Materiales, muy bien conocidas a principios del s. XX (no así sucedía con la teoría de la Plasticidad, aún sin formular, aunque estaba implícita en los planteamientos algunos ingenieros especializados en estructuras de fábrica (piedra o ladrillo) y metálicas. Además, eso permitía independizar un tanto el proyecto de los valores de las resistencias reales de los materiales, lo que liberaba de la necesidad de llevar a cabo ensayos que, en la práctica, apenas se podían hacer debido a la escasez de los laboratorios. Tampoco disponían de programas informáticos ni de ninguna de las facilidades de las que hoy se tienen, que les permitiera hacer trabajar al hormigón en un rango no lineal. Así, sabia y prudentemente, limitaban las tensiones y deformaciones del material a un rango conocido. El modus operandi seguido para la elaboración de esta tesis, ha sido el siguiente: -Estudio documental: se han estudiado documentos de autor, recomendaciones y normativa generada en este ámbito, tanto en España como con carácter internacional, de manera sistemática con arreglo al índice del documento. En este proceso, se han detectado lagunas del conocimiento (y su afección a la seguridad estructural, en su caso) y se han identificado las diferencias con los procedimientos de hoy. También ha sido necesario adaptar la notación y terminología de la época a los criterios actuales, lo que ha supuesto una dificultad añadida. -Desarrollo del documento: A partir del estudio previo se han ido desarrollando los siguientes documentos, que conforman el contenido de la tesis: o Personajes e instituciones relevantes por sus aportaciones al conocimiento de las estructuras de hormigón (investigación, normativa, docencia). o Caracterización de las propiedades mecánicas de los materiales (hormigón y armaduras), en relación a sus resistencias, diagramas tensión-deformación, módulos de deformación, diagramas momento-curvatura, etc. Se incluye aquí la caracterización clásica de los hormigones, la geometría y naturaleza de las armaduras, etc. o Formatos de seguridad: Se trata de un complejo capítulo del que se pretende extraer la información suficiente que permita a los técnicos de hoy entender los criterios utilizados entonces y compararlos con los actuales. o Estudio de secciones y piezas sometidas a tensiones normales y tangenciales: Se trata de presentar la evolución en el tratamiento de la flexión simple y compuesta, del cortante, del rasante, torsión, etc. Se tratan también en esta parte del estudio aspectos que, no siendo de preocupación directa de los técnicos de antaño (fisuración y deformaciones), tienen hoy mayor importancia frente a cambios de usos y condiciones de durabilidad. o Detalles de armado: Incluye el tratamiento de la adherencia, el anclaje, el solapo de barras, el corte de barras, las disposiciones de armado en función de la geometría de las piezas y sus solicitaciones, etc. Es un capítulo de importancia obvia para los técnicos de hoy. Se incluye un anejo con las referencias más significativas a los estudios experimentales en que se basaron las propuestas que han marcado hito en la evolución del conocimiento. Finalmente, junto a las conclusiones más importantes, se enuncian las propuestas de estudios futuros. This thesis analyzes the criteria with which structures of reinforced concrete have been designed and constructed prior to 1973. Initially, the year 1970 was chosen as starting point, coinciding with the CEB recommendations, but with the development of the thesis it was decided that 1973 was the better option, coinciding with the Spanish regulations of 1973, whose content, format and description introduced the current criteria. The studied period includes the Classic Theory. The intended goals of this thesis are: 1) To cover a clear gap in the study of evolution of knowledge about reinforced concrete. The concept and accomplishments achieved by reinforced concrete itself has been treated in a very complete way by the main researchers in this area, but not the evolution of knowledge in this subject area. 2) To help the engineers understand structural configurations, geometries, dispositions of steel, safety formats etc, that will serve as preliminary judgments by experts on existing structures. To be a reference to the existing studies about the valuation of resistant capacity of existing constructions, constituting a basic study of a pre-regulation document. This thesis intends to be a help for the current generation of engineers who need to preserve and repair reinforced concrete structures that have existed for a significant number of years. Most of these structures in question were constructed more than 40 years ago, and it is necessary to know the criteria that influenced their design, the calculation and the construction. This thesis intends to determine the safety limits of the old structures and analyze them in the context of the current regulations and their methodology. Thus, it will then be possible to determine the safety of these structures, after being measured and calculated with the current criteria. This will allow the engineers to optimize the treatment of such a structure. This work considers the evolution of the knowledge, so constructive methods are not included. Related to the design criteria, there existed until middle of the 20th century a large number of diverse European tests and regulations, such as the Prussian norm of 1904, the Circular French Order of 1906, the Congress of Liège of 1930, as well as individual engineers’ own notes and criteria which incorporated the results of their own tests. From the second half of the 20th century, the contributions of Spanish engineers as Alfredo Páez Balaca, Eduardo Torroja and Pedro Jiménez Montoya, among others, were significant and this allowed the advancement of the criteria of the calculation of safety standards of concrete structures, many of which still exist to the present day. The design and calculation of reinforced concrete structures by the Classic Theory, was based on the ‘Critical Bending Moment’, when concrete and steel achieve their admissible tensions, that allows the best employment of materials and the best ductility. If the bending moment is major than the critical bending moment, will be necessary to introduce compression steel. After the study of the designs of many existing structures of that time by the author of this thesis, including the Historical Collections of Juan Manuel de Zafra, Eugenio Ribera and Carlos Fernandez Casado, the conclusion is that the geometric definition of the structures does not correspond exactly with the critical bending moment inherent in the structures. The parameters of these calculations changed throughout the years. The principal reason that can be outlined is that the materials were improving gradually and the number of calculated uncertainties were decreasing, thus allowing the reduction of the safety coefficients to use in the calculation. For example, concrete used a coefficient of 4 towards the end of the 19th century, which evolved to 3,57 after the publication of the Circular French Order of 1906, and then to 3 after the Spanish Instruction of 1939. In the case of the steel, a much more consistent material, the safety coefficient remained almost constant throughout the years, with a value of 2. Other reasons related to the evolution of the calculation parameters were that the tests and research undertaken by an ever-increasing number of engineers then allowed a more complete knowledge of the behavior of reinforced concrete. What is surprising is the extent of knowledge that existed about the behavior of the concrete from the outset. Engineers from the early years knew that the behavior of the concrete was non-linear, but they limited the work to a linear tension-deformation range. This was due to the difficulties of work in a non-linear range, because they did not have laboratories to test concrete, or facilities such as computers with appropriate software, something unthinkable today. These were the main reasons engineers of previous generations limited the tensions and deformations of a particular material to a known range. The modus operandi followed for the development of this thesis is the following one: -Document study: engineers’ documents, recommendations and regulations generated in this area, both from Spain or overseas, have been studied in a systematic way in accordance with the index of the document. In this process, a lack of knowledge has been detected concerning structural safety, and differences to current procedures have been identified and noted. Also, it has been necessary to adapt the notation and terminology of the Classic Theory to the current criteria, which has imposed an additional difficulty. -Development of the thesis: starting from the basic study, the next chapters of this thesis have been developed and expounded upon: o People and relevant institutions for their contribution to the knowledge about reinforced concrete structures (investigation, regulation, teaching). Determination of the mechanical properties of the materials (concrete and steel), in relation to their resistances, tension-deformation diagrams, modules of deformation, moment-curvature diagrams, etc. Included are the classic characterizations of concrete, the geometry and nature of the steel, etc. Safety formats: this is a very difficult chapter from which it is intended to provide enough information that will then allow the present day engineer to understand the criteria used in the Classic Theory and then to compare them with the current theories. Study of sections and pieces subjected to normal and tangential tensions: it intends to demonstrate the evolution in the treatment of the simple and complex flexion, shear, etc. Other aspects examined include aspects that were not very important in the Classic Theory but currently are, such as deformation and fissures. o Details of reinforcement: it includes the treatment of the adherence, the anchorage, the lapel of bars, the cut of bars, the dispositions of reinforcement depending on the geometry of the pieces and the solicitations, etc. It is a chapter of obvious importance for current engineers. The document will include an annex with the most references to the most significant experimental studies on which were based the proposals that have become a milestone in the evolution of knowledge in this area. Finally, there will be included conclusions and suggestions of future studies. A deep study of the documentation and researchers of that time has been done, juxtaposing their criteria and results with those considered relevant today, and giving a comparison between the resultant safety standards according to the Classic Theory criteria and currently used criteria. This thesis fundamentally intends to be a guide for engineers who have to treat or repair a structure constructed according to the Classic Theory criteria.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Entrevista a José Antonio Martín Pereda, Secretario Coordinador del Plan Nacional de Investigación Científica y Desarrollo Tecnológico, en la que el investigador reflexiona sobre la bajísima participación económica de las empresas españolas en los programas de investigación europeos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Desde hace ya algunos años la búsqueda de energías alternativas a los combustibles fósiles es uno de los grandes retos a nivel mundial. Según los datos de la Agencia Estadounidense de Información sobre la Energía (EIA), el consumo energético en el mundo fue de 18 TW en 2015 y se espera que este consumo se dispare hasta alcanzar los 25 TW en 2035 y los 30 TW en 2050. Parece, por tanto, necesario dar respuesta a esta demanda creciente, y no solo considerar de dónde va a proceder esta energía sino también cuáles van a ser las consecuencias derivadas de este aumento en el consumo energético. Ya en el año 2007 la Academia Sueca reconoció, con la concesión del Premio Nobel de la Paz al ex vicepresidente de Estados Unidos Al Gore y al Grupo Intergubernamental de expertos sobre Cambio Climático (IPCC) de Naciones Unidas, la necesidad de concienciación de que el modelo de desarrollo que tenemos es ecológicamente insostenible. En este contexto, las energías renovables en general y, la energía solar en particular, tienen mucho que ofrecer. Una de las mayores ventajas de la energía solar respecto a las otras fuentes de energía es su enorme potencial, que los investigadores que trabajan en este campo resumen con la siguiente afirmación: la cantidad de energía solar que la Tierra recibe en una hora es mayor que el consumo mundial en el planeta durante todo un año. Al hablar de energía solar se suele distinguir entre energía solar térmica y energía solar fotovoltaica; la primera consiste en aprovechar la energía del sol para convertirla en calor, mientras que la segunda pretende transformar la radiación solar en electricidad por medio de unos dispositivos llamados células fotovoltaicas. Y es precisamente en este campo donde se centra este proyecto. El fundamento científico en el que se basan las células fotovoltaicas es el efecto fotoeléctrico, descubierto por Becquerel en 1839. No obstante, tendrían que pasar más de cien años hasta que investigadores de los laboratorios Bell en 1954 desarrollaran una célula de silicio monocristalino con un rendimiento del 6%. Y en 1958, con el lanzamiento del satélite Vangard I equipado con paneles solares se pudo demostrar la viabilidad de esta tecnología. Desde entonces, la investigación en esta área ha permitido desarrollar dispositivos con eficiencias superiores al 20%. No obstante, la fotovoltaica tradicional basada en elementos semiconductores tipo silicio presenta algunos inconvenientes como el impacto visual de los parques solares, los costes elevados o los rendimientos no muy altos. El descubrimiento de materiales orgánicos semiconductores, reconocido con el Premio Nobel de Química a Heeger, MacDiarmid y Shirakawa en 1976, ha permitido ampliar el campo de la fotovoltaica, ofreciendo la posibilidad de desarrollar células solares orgánicas frente a las células tradicionales inorgánicas. Las células fotovoltaicas orgánicas resultan atractivas ya que, en principio, presentan ventajas como reducción de costes y facilidad de procesado: los materiales orgánicos se pueden elaborar mediante procesos de impresión y recubrimiento de alta velocidad, aerosoles o impresión por inyección y se podrían aplicar como una pintura sobre superficies, tejados o edificios. La transformación de la energía solar en corriente eléctrica es un proceso que transcurre en varias etapas: 1. Absorción del fotón por parte del material orgánico. 2. Formación de un excitón (par electrón-hueco), donde el electrón, al absorber el fotón, es promovido a un nivel energético superior dejando un hueco en el nivel energético en el que se encontraba inicialmente. 3. Difusión del excitón, siendo muy decisiva la morfología del dispositivo. 4. Disociación del excitón y transporte de cargas, lo que requiere movilidades altas de los portadores de cargas. 5. Recolección de cargas en los electrodos. En el diseño de las células solares orgánicas, análogamente a los semiconductores tipo p y tipo n inorgánicos, se suelen combinar dos tipos de materiales orgánicos: un material orgánico denominado dador, que absorbe el fotón y que a continuación deberá ceder el electrón a un segundo material orgánico, denominado aceptor. Para que la célula resulte eficaz es necesario que se cumplan simultáneamente varios requisitos: 1. La energía del fotón incidente debe ser superior a la diferencia de energía entre los orbitales frontera del material orgánico, el HOMO (orbital molecular ocupado de más alta energía) y el LUMO (orbital desocupado de menor energía). Para ello, se necesitan materiales orgánicos semiconductores que presenten una diferencia de energía entre los orbitales frontera (ELUMO-EHOMO= band gap) menor de 2 eV. Materiales orgánicos con estas características son los polímeros conjugados, donde alternan dobles enlaces carbono-carbono con enlaces sencillos carbono-carbono. Uno de los polímeros orgánicos más utilizados como material dador es el P3HT (poli-3-hexiltiofeno). 2. Tanto el material orgánico aceptor como el material orgánico dador deben presentar movilidades altas para los portadores de carga, ya sean electrones o huecos. Este es uno de los campos en los que los materiales orgánicos se encuentran en clara desventaja frente a los materiales inorgánicos: la movilidad de electrones en el silicio monocristalino es 1500 cm2V-1s-1 y en el politiofeno tan solo 10-5 cm2V-1s-1. La movilidad de los portadores de carga aparece muy relacionada con la estructura del material, cuanto más cristalino sea el material, es decir, cuanto mayor sea su grado de organización, mejor será la movilidad. Este proyecto se centra en la búsqueda de materiales orgánicos que puedan funcionar como dadores en el dispositivo fotovoltaico. Y en lugar de centrarse en materiales de tipo polimérico, se ha preferido explorar otra vía: materiales orgánicos semiconductores pero con estructura de moléculas pequeñas. Hay varias razones para intentar sustituir los materiales poliméricos por moléculas pequeñas como, por ejemplo, la difícil reproducibilidad de resultados que se encuentra con los materiales poliméricos y su baja cristalinidad, en general. Entre las moléculas orgánicas sencillas que pudieran ser utilizadas como el material dador en una célula fotovoltaica orgánica llama la atención el atractivo de las moléculas de epindolidiona y quinacridona. En los dos casos se trata de moléculas planas, con enlaces conjugados y que presentan anillos condensados, cuatro en el caso de la epindolidiona y cinco en el caso de la quinacridona. Además ambos compuestos aparecen doblemente funcionalizados con grupos dadores de enlace de hidrógeno (NH) y aceptores (grupos carbonilo C=O). Por su estructura, estas moléculas podrían organizarse tanto en el plano, mediante la formación de varios enlaces de hidrógeno intermoleculares, como en apilamientos verticales tipo columnar, por las interacciones entre las superficies de los anillos aromáticos que forman parte de su estructura (tres en el caso de la quinacridona) y dos (en el caso de la epindolidiona). Esta organización debería traducirse en una mayor movilidad de portadores de carga, cumpliendo así con uno de los requisitos de un material orgánico para su aplicación en fotovoltaica. De estas dos moléculas, en este trabajo se profundiza en las moléculas tipo quinacridona, ya que el desarrollo de las moléculas tipo epindolidiona se llevó a cabo en un proyecto de investigación financiado por una beca Repsol y concedida a Guillermo Menéndez, alumno del Grado en Tecnologías Industriales de esta escuela. La quinacridona es uno de los pigmentos más utilizados y se estima que la venta anual de los mismos alcanza las 4.000 toneladas por año. Son compuestos muy estables tanto desde el punto de vista térmico como fotoquímico y su síntesis no resulta excesivamente compleja. Son además compuestos no tóxicos y la legislación autoriza su empleo en cosméticos y juguetes para niños. El inconveniente principal de la quinacridona es su elevada insolubilidad (soluble en ácido sulfúrico concentrado), por lo que aunque resulta un material muy atractivo para su aplicación en fotovoltaica, resulta difícil su implementación. De hecho, solo es posible su incorporación en dispositivos fotovoltaicos funcionalizando la quinacridona con algún grupo lábil que le proporcione la suficiente solubilidad para poder ser aplicado y posteriormente eliminar dicho grupo lábil. La propuesta inicial de este proyecto es intentar desarrollar quinacridonas que sean solubles en los disolventes orgánicos más habituales tipo cloruro de metileno o cloroformo, para de este modo poder cumplir con una de las ventajas que, a priori, ofrecen las células fotovoltaicas orgánicas frente a las inorgánicas, como es la facilidad de su procesado. El objetivo se centra, por lo tanto, en la preparación de quinacridonas solubles pero sin renunciar a su capacidad para formar enlaces de hidrógeno ni a su capacidad de apilamiento π-π, ya que se quiere mantener los valores de movilidad de portadores para la quinacridona (movilidad de huecos 0,2 cm2V-1s-1). En primer lugar se intenta la preparación de una quinacridona que presenta la ventaja de que los materiales de partida para su síntesis son comerciales: a partir del succinato de dimetilo y de 4-tetradecilanilina se podía acceder, en una síntesis de cuatro etapas, a la molécula deseada. La elección de la amina aromática con la sustitución en posición 4 presenta la ventaja de que en la etapa de doble ciclación necesaria en la síntesis, solo se forma uno de los regioisómeros posibles; este hecho es de gran relevancia para conseguir compuestos con altas movilidades, ya que la presencia de mezcla de regioisómeros, como se ha demostrado con otros compuestos como el P3HT, reduce considerablemente la movilidad de los portadores. Se obtiene así una quinacridona funcionalizada con dos cadenas lineales de 14 carbonos cada una en posiciones simétricas sobre los anillos aromáticos de los extremos. Se espera que la presencia de la superficie aromática plana y las dos cadenas lineales largas pueda conducir a una organización del material similar a la de un cristal líquido discótico. Sin embargo, el producto obtenido resulta ser tremendamente insoluble, no siendo suficiente las dos cadenas de 14 carbonos para aumentar su solubilidad respecto a la quinacridona sin funcionalizar. Se prepara entonces un derivado de esta quinacridona por alquilación de los nitrógenos. Este derivado, incapaz de formar enlaces de hidrógeno, resulta ser fácilmente soluble lo que proporciona una idea de la importancia de los enlaces de hidrógeno en la organización del compuesto. La idea inicial es conseguir, con una síntesis lo más sencilla posible, una quinacridona soluble, por lo que se decide utilizar la 4-t-butilanilina, también comercial, en lugar de la 4-tetradecilanilina. La cadena de t-butilo solo aporta cuatro átomos de carbono, pero su disposición (tres grupos metilo sobre un mismo átomo de carbono) suele conducir a resultados muy buenos en términos de solubilidad. Otra vez, la incorporación de los dos grupos t-butilo resulta insuficiente en términos de solubilidad del material. En estos momentos, y antes de explorar otro tipo de modificaciones sobre el esqueleto de quinacridona, en principio más complejos, se piensa en utilizar una amina aromática funcionalizada en la posición adyacente a la amina, de manera que el grupo funcional cumpliera una doble misión: por una parte, proporcionar solubilidad y por otra parte, perturbar ligeramente la formación de enlaces de hidrógeno, que han evidenciado ser una de las causas fundamentales para la insolubilidad del compuesto. Se realiza un análisis sobre cuáles podrían ser los grupos funcionales más idóneos en esta posición, valorando dos aspectos: el impedimento estérico que dificultaría la formación de enlaces de hidrógeno y la facilidad en su preparación. Ello conduce a optar por un grupo tioéter como candidato, ya que el 2-aminobencenotiol es un compuesto comercial y su adecuada funcionalización conduciría a una anilina con las propiedades deseadas. Se realiza simultáneamente la preparación de una quinacridona con una cadena de 18 átomos de carbono y otra quinacridona de cadena corta pero ramificada. Y finalmente, con estas quinacridonas se logra obtener compuestos solubles. Por último, se realiza el estudio de sus propiedades ópticas, mediante espectroscopia UV-Visible y fluorescencia, y se determinan experimentalmente los band gap, que se aproximan bastante a los resultados teóricos, en torno a 2,2 eV en disolución. No obstante, y aun cuando el band gap pueda parecer algo elevado, se sabe que en disolución las barreras energéticas son más elevadas que cuando el material se deposita en film. Por otra parte, todas las quinacridonas sintetizadas han demostrado una elevada estabilidad térmica. Como resumen final, el trabajo que aquí se presenta, ha permitido desarrollar una ruta sintética hacia derivados de quinacridona solubles con buenas perspectivas para su aplicación en dispositivos fotovoltaicos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Acknowledgements This work was supported by the UK Energy Research Centre Phase 2, under its Energy and Environment theme Grant Number NE/J005924/1 and NE/G007748/1. Open Access funded by Natural Environment Research Council

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Perforant path long-term potentiation (LTP) in intact mouse hippocampal dentate gyrus increased the neuron-specific, growth-associated protein GAP-43 mRNA in hilar cells 3 days after tetanus, but surprisingly not in granule cells, the perforant path target. This increase was positively correlated with level of enhancement and restricted to central hilar cells on the side of stimulation. Blockade of LTP by puffing dl-aminophosphonovalerate (APV), an N-methyl-d-aspartate (NMDA) receptor blocker into the molecular layer, eliminated LTP-induced GAP-43 mRNA elevation in hilar cells. To determine whether the mRNA elevation was mediated by transcription, LTP was studied in transgenic mice bearing a GAP-43 promoter-lacZ reporter gene. Promoter activity as indexed by Transgene expression (PATE) increased as indicated by blue staining of the lacZ gene product, β-galactosidase. Potentiation induced a blue band bilaterally in the inner molecular layer of the dentate gyrus along the entire septotemporal axis. Because mossy cells are the only neurons in the central hilar zone that project to the inner molecular layer bilaterally along the entire septotemporal axis and LTP-induced activation of PATE in this zone was confined to the side of stimulation, we concluded that mossy cells were unilaterally activated, increasing synthesis of β-galactosidase, which was transported bilaterally. Neither granule cells nor pyramidal cells demonstrated increased PATE or increased GAP-43 mRNA levels. These results and recent evidence indicating the necessity of hilar neurons for LTP point to previously unheralded mossy cells as potentially critical for perforant path LTP and the GAP-43 in these cells as important for LTP persistence lasting days.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

While chemical synapses are very plastic and modifiable by defined activity patterns, gap junctions, which mediate electrical transmission, have been classically perceived as passive intercellular channels. Excitatory transmission between auditory afferents and the goldfish Mauthner cell is mediated by coexisting gap junctions and glutamatergic synapses. Although an increased intracellular Ca2+ concentration is expected to reduce gap junctional conductance, both components of the synaptic response were instead enhanced by postsynaptic increases in Ca2+ concentration, produced by patterned synaptic activity or intradendritic Ca2+ injections. The synaptically induced potentiations were blocked by intradendritic injection of KN-93, a Ca2+/calmodulin-dependent kinase (CaM-K) inhibitor, or CaM-KIINtide, a potent and specific peptide inhibitor of CaM-KII, whereas the responses were potentiated by injection of an activated form of CaM-KII. The striking similarities of the mechanisms reported here with those proposed for long-term potentiation of mammalian glutamatergic synapses suggest that gap junctions are also similarly regulated and indicate a primary role for CaM-KII in shaping and regulating interneuronal communication, regardless of its modality.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In the present study we show that expression of the neural PKC-substrate B-50 (growth-associated protein [GAP-43]) in Rat-1 fibroblasts induced the formation of filopodial extensions during spreading. This morphological change was accompanied by an enhanced formation of peripheral actin filaments and by accumulation of vinculin immunoreactivity in filopodial focal adhesions, colocalizing with B-50. In time lapse experiments, the B-50–induced filopodial extensions were shown to stay in close contact with the substratum and appeared remarkably stable, resulting in a delayed lamellar spreading of the fibroblasts. The morphogenetic effects of the B-50 protein were entirely dependent on the integrity of the two N-terminal cysteines involved in membrane association (C3C4), but were not significantly affected by mutations of the PKC-phosphorylation site (S41) or deletion of the C terminus (177–226). Cotransfection of B-50 with dominant negative Cdc42 or Rac did not prevent B-50–induced formation of filopodial cells, whereas this process could be completely blocked by cotransfection with dominant negative Rho or Clostridium botulinum C3-transferase. Conversely, constitutively active Rho induced a similar filopodial phenotype as B-50. We therefore propose that the induction of surface extensions by B-50 in spreading Rat-1 fibroblasts depends on Rho-guanosine triphosphatase function.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Bone-forming cells are organized in a multicellular network interconnected by gap junctions. In these cells, gap junctions are formed by connexin43 (Cx43) and connexin45 (Cx45). Cx43 gap junctions form pores that are more permeable to negatively charged dyes such as Lucifer yellow and calcein than are Cx45 pores. We studied whether altering gap junctional communication by manipulating the relative expression of Cx43 and Cx45 affects the osteoblast phenotype. Transfection of Cx45 in cells that express primarily Cx43 (ROS 17/2.8 and MC3T3-E1) decreased both dye transfer and expression of osteocalcin (OC) and bone sialoprotein (BSP), genes pivotal to bone matrix formation and calcification. Conversely, transfection of Cx43 into cells that express predominantly Cx45 (UMR 106–01) increased both cell coupling and expression of OC and BSP. Transient cotransfection of promoter–luciferase constructs and connexin expression vectors demonstrated that OC and BSP gene transcription was down-regulated by Cx45 cotransfection in ROS 17/2.8 and MC3T3-E1 cells, in association with a decrease in dye coupling. Conversely, cotransfection of Cx43 in UMR 106–01 cells up-regulated OC and BSP gene transcription. Activity of other less specific osteoblast promoters, such as osteopontin and osteonectin, was less sensitive to changes in gap junctional communication. Thus, altering gap junctional permeability by manipulating the expression of Cx43 and Cx45 in osteoblastic cells alters transcriptional activity of osteoblast-specific promoters, presumably via modulation of signals that can diffuse from cell to cell. A communicating intercellular network is required for the full elaboration of a differentiated osteoblastic phenotype.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Connexin (Cx) 43 and Cx40 are coexpressed in several tissues, including cardiac atrial and ventricular myocytes and vascular smooth muscle. It has been shown that these Cxs form homomeric/homotypic channels with distinct permeability and gating properties but do not form functional homomeric/heterotypic channels. If these Cxs were to form heteromeric channels, they could display functional properties not well predicted by the homomeric forms. We assessed this possibility by using A7r5 cells, an embryonic rat aortic smooth muscle cell line that coexpresses Cxs 43 and 40. Connexons (hemichannels), which were isolated from these cells by density centrifugation and immunoprecipitated with antibody against Cx43, contained Cx40. Similarly, antibody against Cx40 coimmunoprecipitated Cx43 from the same connexon fraction but only Cx40 from Cx (monomer) fractions. These results indicate that heteromeric connexons are formed by these Cxs in the A7r5 cells. The gap junction channels formed in the A7r5 cells display many unitary conductances distinct from homomeric/homotypic Cx43 or Cx40 channels. Voltage-dependent gating parameters in the A7r5 cells are also quite variable compared with cells that express only Cx40 or Cx43. These data indicate that Cxs 43 and 40 form functional heteromeric channels with unique gating and conductance properties.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Fiber cells of the lens are interconnected by an extensive network of gap junctions containing α3 (Cx46) and α8 (Cx50) connexins. A specific role for these connexins in lens homeostasis is not known. To determine the contribution of these connexins to lens function, we used impedance techniques to study cell-to-cell coupling in lenses from homozygous α3 knockout (−/−), heterozygous (+/−), and wild-type (+/+) mice. Western blots and immunofluorescence data indicated that α8 remained at similar levels in the three classes of lenses, whereas α3 was approximately 50% of the normal level in the +/− lenses, and it was absent from the −/− lenses. Moreover, the data from +/+ lenses suggest that a cleavage of connexins occurs abruptly between the peripheral shell of differentiating fibers (DF) and the inner core of mature fibers (MF). The appearance of the cleaved connexins was correlated to a change in the coupling conductance. In −/− lenses the coupling conductance of MF was zero, and these fibers were depolarized by about 30 mV from normal (≈−65 mV). The DF remained coupled, but the conductance was reduced to 30–35% of normal. However, the gap junctions in the DF of α3 −/− lenses remained sensitive to pH. We conclude that α3 connexin is necessary for the coupling of central fibers to peripheral cells, and that this coupling is essential for fiber cell homeostasis because uncoupled MF depolarize and subsequently become opaque.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Gap junctional communication between microglia was investigated at rat brain stab wounds and in primary cultures of rat and mouse cells. Under resting conditions, rat microglia (FITC-isolectin-B4-reactive cells) were sparsely distributed in the neocortex, and most (95%) were not immunoreactive for Cx43, a gap junction protein subunit. At brain stab wounds, microglia progressively accumulated over several days and formed aggregates that frequently showed Cx43 immunoreactivity at interfaces between cells. In primary culture, microglia showed low levels of Cx43 determined by Western blotting, diffuse intracellular Cx43 immunoreactivity, and a low incidence of dye coupling. Treatment with the immunostimulant bacterial lipopolysaccharide (LPS) or the cytokines interferon-γ (INF-γ) or tumor necrosis factor-α (TNF-α) one at a time did not increase the incidence of dye coupling. However, microglia treated with INF-γ plus LPS showed a dramatic increase in dye coupling that was prevented by coapplication of an anti-TNF-α antibody, suggesting the release and autocrine action of TNF-α. Treatment with INF-γ plus TNF-α also greatly increased the incidence of dye coupling and the Cx43 levels with translocation of Cx43 to cell–cell contacts. The cytokine-induced dye coupling was reversibly inhibited by 18α-glycyrrhetinic acid, a gap junction blocker. Cultured mouse microglia also expressed Cx43 and developed dye coupling upon treatment with cytokines, but microglia from homozygous Cx43-deficient mice did not develop significant dye coupling after treatment with either INF-γ plus LPS or INF-γ plus TNF-α. This report demonstrates that microglia can communicate with each other through gap junctions that are induced by inflammatory cytokines, a process that may be important in the elaboration of the inflammatory response.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The Ras family of GTPases is a collection of molecular switches that link receptors on the plasma membrane to signaling pathways that regulate cell proliferation and differentiation. The accessory GTPase-activating proteins (GAPs) negatively regulate the cell signaling by increasing the slow intrinsic GTP to GDP hydrolysis rate of Ras. Mutants of Ras are found in 25–30% of human tumors. The most dramatic property of these mutants is their insensitivity to the negative regulatory action of GAPs. All known oncogenic mutants of Ras map to a small subset of amino acids. Gln-61 is particularly important because virtually all mutations of this residue eliminate sensitivity to GAPs. Despite its obvious importance for carcinogenesis, the role of Gln-61 in the GAP-stimulated GTPase activity of Ras has remained a mystery. Our molecular dynamics simulations of the p21ras–p120GAP–GTP complex suggest that the local structure around the catalytic region can be different from that revealed by the x-ray crystal structure. We find that the carbonyl oxygen on the backbone of the arginine finger supplied in trans by p120GAP (Arg-789) interacts with a water molecule in the active site that is forming a bridge between the NH2 group of the Gln-61 and the γ-phosphate of GTP. Thus, Arg-789 may play a dual role in generating the nucleophile as well as stabilizing the transition state for P—O bond cleavage.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Until the mid-1990s a person could not point to any celestial object and say with assurance that “here is a brown dwarf.” Now dozens are known, and the study of brown dwarfs has come of age, touching upon major issues in astrophysics, including the nature of dark matter, the properties of substellar objects, and the origin of binary stars and planetary systems.