973 resultados para trigonometria seno coseno Tolomeo Eulero


Relevância:

10.00% 10.00%

Publicador:

Resumo:

El volumen de cuentos Los que se van (1930), escrito por Demetrio Aguilera Malta, Enrique Gil Gilbert y Joaquín Gallegos Lara, es considerado por la crítica ecuatoriana como el gran hito de la modernización literaria en Ecuador. La obra ha sido leída como una elocuente intervención en los debates políticos y estéticos sobre la literatura y la sociedad ecuatoriana de los años 30. No obstante, su arquitectura formal presenta una serie de particularidades que tornan a la perspectiva sociológica limitada al momento de articular una lectura orgánica del texto. En este sentido, el análisis de los procedimientos narrativos permite afirmar que el recurrente montaje de tiempos, personajes y escenas, estructura la serie de relatos y los coloca en distintas coordenadas de un mismo espacio literario: el construido por la violencia social desatada en el seno de una comunidad rural sin justificación alguna. La figura del machete funciona en este sentido como la condensación estética de las operaciones literarias desarrolladas: en primer lugar, la asunción del cuento como artificio y la renuncia a la explicación didáctica de injusticias sociales (el machete como metáfora poética). Luego, la construcción de la trama a través de la sucesión de fragmentos (el machete como corte). En tercer lugar, el borramiento de descripciones, introspecciones y narradores omniscientes (el machete como desmonte retórico). Finalmente, la figura del machete resalta la fatalidad de la violencia social, lo que exime al texto de voluntariosos afanes militantes (el machete como sobredeterminación). La puesta en relación de estos procedimientos con el contexto histórico en que fue producida la obra permite una reflexión que, partiendo de su materialidad textual, reconstruye su sentido en diálogo con el valor de intervención que sus propios autores le atribuyeron, pero sin limitarla a su carácter referencial o revelador de verdades ocultas

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente trabajo se enmarca en el proceso de acreditación de carreras de Psicología y Lic. en Psicología de la República Argentina. Ante el actual proceso de acreditación de dichas carreras, se torna necesario poder pensar al mismo desde diversas perspectivas. Hace más de diez años que la Comunidad Europea está llevando adelante un gran y complejo emprendimiento de evaluación de carreras a nivel superior. Esta experiencia es un punto más pero de importancia desde el cual poder pensarnos, tomando en cuenta los resultados allí obtenidos, aquí en nuestro país. La Argentina también es parte de un armado Geopolítico, el Mercosur, en cuyo seno se han confeccionado y acordado ejes en materia de Educación. Entre las múltiples cuestiones que vienen aparejadas en Europa, se encuentra el Modelo por Competencias como uno de sus bastiones. Este trabajo pretende analizar y explorar la existencia y condiciones de posibilidad del Modelo por Competencias en el diseño curricular de las carreras de psicología argentinas, a sabiendas del lugar protagónico que el mismo tiene en el marco de los procesos de acreditación de carreras de ES de la Comunidad Europea. Competencias, más allá de ser es un concepto en boga en materia de educación, no deja de entrecruzarse con visiones críticas del mismo que van desde planteos sobre cuestiones ideológicas y sus consecuencias en la educación, pasando por el carácter confuso del términos, hasta llegar al otro extremos del abanico de críticas que encuentran en dicho modelo la oportunidad para un cambio revolucionario en pos de la excelencia formativa. Sobre la base de trabajos realizados por investigadores de nuestro país en Formación del Psicólogo y de catedráticos e investigadores Europeos en materia de Competencias, se analizará material bibliográfico, documentos e informes especializados de los procesos de acreditación de carreras de psicología en Argentina, España y Europa. Se tomará en cuenta: las declaraciones de Bologna 'junto a sus antecedentes y sucesores-; el Proyecto Tuning Europeo; El Libro Blanco para El Título de Grado de Psicología de España; Currículas de Grado en Psicología de España; Documentos base e informes generados por la Asociación de Unidades Académicas en Psicología (AUAPsi) y por la Unidad de Vinculación Académica de Psicología de Universidades de Gestión Privada (UVAPSI); la Resolución Ministerial 343/09 de Estándares para la acreditación de las carreras correspondientes a los títulos de Psicólogo y Licenciado en Psicología'; y los casos de los planes de estudios de la Facultad de Psicología de la UNMdP. Para detectar la presencia del Modelo de Competencias, se comparan todos estos elementos. Considerando estos aspectos como diversos planos, es que se observa una marcada ausencia de dicho Modelo por Competencias en la formación psicológica de nuestro país, inclusive en tiempos de acreditación de carreras, lo que genera interrogantes de cara a un futuro cercano tanto por la formación del psicólogo y los caminos que empieza a transcurrir este proceso evaluativo, como también la capacidad o no- de respuesta crítica que tengan las Universidades y la comunidad psi, en caso de presentarse abruptamente una exigencia estatal de reforma educativa a nivel superior basado en este modelo

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabajo se propone discutir la caracterización de ciertas prácticas de patronazgo en la Atenas Clásica como formas de "clientelismo estatal". Para la pólis griega las definiciones de estado no parecen adecuarse a sus prácticas sociales. Concretamente, la existencia de relaciones políticas ejercidas por la democracia, expresión del poder del dêmos, no expresan relaciones políticas que permitan una exclusividad en el monopolio de la coerción. En consecuencia, no hay ni separación entre sociedad civil y sociedad política, ni tampoco hay un aparato político que se distinga en su ejercicio sobre aquellos que constituyen el cuerpo soberano. De este modo la existencia de relaciones de patronazgo parecen ubicarse en la tensión surgida entre los mecanismos de reciprocidad y redistribución que los miembros de la elite usufructúan como modo de adquirir prestigio y preponderancia política en el seno de su comunidad, y las demandas del pueblo, de modo que a este último le resulta posible instrumentarlas a su favor

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabajo aborda el estudio de la calidad acústica de restaurantes y propone la inteligibilidad como magnitud adecuada para su valoración. La conversación en el entorno de cada mesa se considera como señal de interés para quienes la ocupan, mientras que las conversaciones de los comensales de las restantes mesas se consideran ruido perturbador junto con el procedente de otras fuentes interiores o exteriores, ruido este que por otra parte suele estar limitado por ordenanzas o reglamentaciones ad hoc, a niveles muy por debajo del nivel de conversación medio y se suele tratar como un ruido estacionario homogéneamente distribuido en todo el restaurante. Las condiciones de inteligibilidad en cada mesa del restaurante deben ser equivalentes. La relación señal-ruido juega un papel primordial en todos los modelos objetivos de predicción de la inteligibilidad en recintos comúnmente aceptados en la actualidad. La calificación de la inteligibilidad de un recinto de restauración requiere un mapa de inteligibilidad en una retícula suficientemente fina que cubra la zona de público, en cuyos puntos se necesita calcular los niveles de señal y de ruido, así como el tiempo de reverberación u otro parámetro relacionado con la señal recibida en el tiempo de integración auditiva. Esto conlleva una cantidad ingente de potencia computacional tanto en memoria como en tiempo. Si se dispone de ecuaciones sencillas y fiables de distribución del nivel sonoro en función de la distancia a la fuente sonora los enormes requerimientos de cálculo mencionados podrían reducirse en un factor importante. La teoría estadística clásica de recintos presenta justamente este escenario, pero trabajos relativamente recientes de Barron y colaboradores indican la mejor adecuación de ecuaciones empíricas algo más complejas, dentro de la sencillez, las cuales a su vez han sido cuestionadas en parte por otros autores. La importancia de estas ecuaciones ha condicionado que en esta tesis se haya planeado un programa de exploraciones experimentales ambicioso, a la par que lo mas simplificado posible, para obtener distribuciones de campos sonoros en recintos prismáticos de plantas en forma de I, L y U; en donde se exploran trayectorias axiales y diagonales. En paralelo se exploro el tiempo de reverberación y se completo con estudios análogos en recintos acoplados formados a partir del recinto de planta en U, por su utilidad actual en recintos de interés arquitectónico rehabilitados para restaurantes. Por su facilidad operativa la experimentación se planteo en maquetas a escala reducida asegurando el cumplimiento de los requisitos en este tipo de estudios. Los resultados experimentales directos se corrigieron de los efectos alineales derivados de las descargas eléctricas usadas como señales de excitación, tanto en el tiempo de reverberación como en la distribución de niveles. Con este fin se desarrollaron ecuaciones de corrección de ambas magnitudes en función del parámetro de alinealidad en el rango de débil alinealidad. También se aplicaron correcciones del exceso de absorción sonora en el seno del aire a los valores de humedad relativa, temperatura y presión atmosféricas reinantes en el interior de las maquetas durante la experimentación, para las frecuencias transpuestas por el factor de escala, en relación con la escala real. Como resultado se obtuvo un paquete de archivos de datos experimentales correspondientes a condiciones lineales. Se ha mostrado que una generalización de la ecuación de Barron consigue un buen ajuste a los valores experimentales en todos los casos considerados, lo que apoya el gran fundamento de esta ecuación tipo. El conjunto de ecuaciones empíricas que ajusta cada caso particular solamente difiere en el valor de una de las tres constantes del tipo funcional: el factor ligado al término exponencial. Un valor de esta constante cercano al valor medio de la serie de casos estudiados se ha usado en el cálculo de los mapas de inteligibilidad en recintos prismáticos que se comentaran más adelante Los resultados experimentales del nivel sonoro a lo largo de trayectorias axiales y diagonales comparados a los calculados numéricamente con las ecuaciones empíricas presentan disminuciones justamente detrás de las esquinas de los recintos con plantas en forma de L y de U. Las aéreas de estas zonas afónicas son función de la frecuencia de manera bastante coincidente con las encontradas en las barreras de ruido por efecto de la difracción. A distancias superiores los valores experimentales caen de nuevo sobre las curvas empíricas. Se ha estudiado la influencia en los mapas de inteligibilidad del ruido de fondo, de la absorción sonora, de la distribución de las mesas, de la densidad de mesas por unidad de superficie, del porcentaje de ocupación y su distribución espacial así como de la posición de la mesa de señal. El ruido conversacional resulta ser el factor más adverso a la inteligibilidad. Al aumentar la densidad de mesas (ocupadas) la valoración de la inteligibilidad disminuye e inversamente. La influencia negativa de las mesas de ruido conversacional disminuye rápidamente al aumentar la distancia a la mesa de señal: pudiendo afirmarse que las 4 a 8 mesas mas próximas a la de señal, junto con la absorción total del recinto, constituyen los dos factores que condicionan la inteligibilidad influyendo negativamente el primero y positivamente el segundo. Este resultado difiere del ofrecido por la teoría geométrico estadística clásica donde todas las mesas tienen la misma influencia con independencia del sitio que ocupen en el recinto, y también con la teoría derivada de la ecuación de Barron, que ocupa una posición intermedia. Mayor absorción y menor densidad de mesas (ocupadas) mejoran la inteligibilidad en todos los casos pero la absorción no siempre puede neutralizar el efecto adverso de la densidad de mesas de la cual parece existir un valor frontera imposible de neutralizar en la práctica con incrementos de absorción. El grado de inteligibilidad en torno a la mesa de señal es poco sensible a la posición de esta dentro del recinto, resultado que simplifica el enunciado de criterios de calidad acústica de utilidad práctica tanto en diseño como en reglamentaciones de control. La influencia del ruido de fondo estacionario y homogéneo resulta de escasa o nula influencia en la inteligibilidad para niveles de hasta 50-55 dB, si se admite que los niveles normales de conversación se sitúan de 65 a 70 dB. La subdivisión del restaurante en subespacios menores mediante septa de separación parcial media y alta, presenta ventajas ya que dentro de cada subespacio la inteligibilidad no depende más que de las características de este

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Análisis matemático e implementación de la transformada del coseno tipo 3 para transmisión de señales mediante sistemas multiportadora

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uno de los rasgos fundamentales del complejo ofiolítico de la región noroccidental de la Provincia Holguín es la gran variedad de productos metasomáticos, originados a partir de múltiples factores relacionados con su emplazamiento alóctono, bien por su relación espacial con las litofacies vecinas, bien por variaciones producidas en el propio seno de las ofiolitas; esto último se refiere a procesos de autometamorfismo, y también a frecuentes intrusiones de cuerpos de composición intermedia, originados, posiblemente, por diferenciación del complejo ofiolítico, en fases tardías. Uno de los productos más comunes del metamorfismo de contacto en este escenario es la turingita, que constituye el objetivo central de la presente comunicación. La turingita está espacialmente relacionada con las litologías de la serie ultramáfica del complejo ofiolítico, formando estrechos afloramientos de morfología variada, y vinculados con zonas donde se ha verificado una fuerte actividad hidrotermal. Su origen puede explicarse a partir del efecto que tuvo lugar cuando las disoluciones calientes, tanto las procedentes del autometamorfismo como las que acompañaron a los cuerpos intrusivos, actuaron sobre las rocas ultrabásicas El presente trabajo pretende aportar un breve resumen de los análisis mineralógicos realizados sobre algunas muestras de turingita recolectadas en el campo mineral de Aguas Claras y sus alrededores.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Es importante poder conocer la deformación que sufre una estructura en momentos concretos por carga, temperatura y comportamiento del suelo, refiriéndola a un marco externo estable. Esto puede realizarse mediante un control geodésico de deformaciones. La posterior comparación entre las coordenadas obtenidas de las diversas campañas de control, nos darán los movimientos relativos de la presa (o vectores de deformación) y alrededores, indicando si ha sufrido alguna deformación, información de suma importancia a la hora del mantenimiento y detección de posibles incidencias ocurridas en la estructura. La presa de La Tajera, ubicada en el río Tajuña en su tramo de cabecera, cuenta con una cuenca vertiente de 595 km2, desde la cual se atienden la mayoría de las demandas de la cuenca. La presa de titularidad estatal, lleva en servicio desde el año 1994. En Octubre de 2010, la Confederación Hidrográfica encargó la reobservación de la red geodésica de control y la comparación con la campaña de 1993 de la presa de La Antes de entrar en carga, con el embalse vacío y a altas temperaturas, se detectó una fisura en el paramento de aguas abajo, a lo largo de la transición entre bóveda y zócalo, extendiéndose hasta la clave de la galería perimetral. Motivo por el cual, se realizaron entre 2001 y 2002, varios trabajos de reparación, debido a los cuales se obstruyó parte del acceso a la infraestructura de control. La infraestructura de control de la presa de La Tajera consta de: - Red de pilares de control (incluyendo ménsulas de paramento en el extradós del muro de presa, en dos niveles.). - Red de nivelación trigonométrica de precisión de ménsulas de paramento. - Nivelación geométrica de precisión de las líneas existentes. Debido a la falta de control de geodésico desde el 1993, la comparación entre grupos de coordenadas, de tan solo dos épocas diferentes, aportó menos información que la que se hubiera obtenido haciendo controles anuales, puesto que no se pudo discernir entre movimientos atribuidos al asentamiento, carga, temperatura, fisuras u otros. En el 1993 se utilizó para la observación de la red el láser submilimétrico ME-5000, actualmente descatalogado, debido a lo cual, en el 2010 se optó por usar otro instrumento de gran precisión, para aprovechar la precisión del grupo de observaciones del 93, una Estación Total TRIMBLE S6, puesto que los requerimientos técnicos de precisión, quedaron cubiertos con sus precisiones instrumentales. Debido lo anterior, hubo que buscar un sistema común, coherente y riguroso de cálculo, para relacionar ambos grupos de observaciones bajo unos criterios comunes y poder así realizar un estudio comparativo de resultados. Previo a la observación, además de todas las verificaciones rutinarias, se uso un estudio de puntería por desorientación sobre los miniprimas, que concluía con la introducción de un casquillo suplementario de 13 mm, para evitar un posible error. También se realizó un estudio, para determinar el error producido, en las medidas de distancia, por la presión y la temperatura en el electrodistanciómetro. Como dato a tener en cuenta sobre las estaciones robóticas, decir que, durante la observación de la red de pilares hubo que detener el desagüe de la presa, puesto que las vibraciones producidas por este, impedían al sistema de puntería automática (Autolock) fijar la dirección a la estación visada. La nivelación trigonométrica de las ménsulas de paramento se hizo, en ambos años, por Nivelación trigonométrica de Precisión, descomponiendo la figura en triángulos independientes y observando cenitales recíprocos y simultáneos, con 3 teodolitos Wild T2 provistos de placas Nitrival pequeñas, esta técnica tiende a compensar errores de coeficiente de refracción y de esfericidad. Un error en la distancia geométrica repercute en función del coseno del ángulo cenital. Como en nuestro caso la determinación de distancias fue milimétrica, y las alturas de instrumentos eran las mismas, la precisión que obtuvimos en la determinación de desniveles fue submilimétrica. Las líneas de nivelación existentes se observaron, como en 1993, con nivelación geométrica de precisión, realizada con un equialtímetro NA2 provisto de micrómetro y observando sobre mira con escala ínvar. En los cálculos se usaron como coordenadas de referencia las obtenidas en 1993, de manera que los residuales mostraban directamente los vectores deformación. El control del 1993 se realizo con el embalse vació y a altas temperaturas, el control de 2010 se realizó con el embalse en carga máxima y con bajas temperaturas, este motivo se tuvo en cuenta a la hora de los cálculos y las interpretaciones de los vectores de deformación. Previo al trabajo de campo se realizó un reconocimiento como comprobación del estado de visuales entre pilares, el estado de los mismos, así como de los clavos de nivelación, para proceder posteriormente a realizar trabajos de tala entre visuales, limpieza de señales, y suplir las señales perdidas. El proyecto contiene la descripción del historial de control, de las actuaciones realizadas, los resultados obtenidos y toda la información relevante disponible, con las oportunas referencias a la campaña previa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Una planta AIP es cualquier sistema propulsivo capaz de posibilitar la navegación de un vehículo submarino bajo la superficie del mar de forma completamente independiente de la atmósfera terrestre. El uso a bordo de submarinos de plantas AIP basadas en la reacción química entre un hidrocarburo y oxígeno (ambos almacenados en el interior del submarino) da lugar a la producción en grandes cantidades de agua y CO2, residuos que necesitan ser eliminados. En concreto, la producción de CO2 en grandes cantidades (y en estado gaseoso) constituye un auténtico problema en un submarino navegando en inmersión, ya que actualmente no resulta viable almacenarlo a bordo, y su eliminación tiene que llevarse a cabo de forma discreta y con un coste energético reducido. Actualmente, hay varias alternativas para eliminar el CO2 producido en la propulsión de un submarino navegando en inmersión, siendo la más ventajosa la disolución de dicha sustancia en agua de mar y su posterior expulsión al exterior del submarino. Esta alternativa consta básicamente de 3 etapas bien definidas: • Etapa 1.- Introducir agua de mar a bordo del submarino, haciendo bajar su presión desde la existente en el exterior hasta la presión a la que se quiere realizar el proceso de disolución. • Etapa 2.- Llevar a cabo el proceso de disolución a presión constante e independiente de la existente en el exterior del submarino. • Etapa 3.- Expulsar fuera del submarino el agua de mar saturada de CO2 haciendo subir su presión desde la correspondiente al proceso de disolución hasta la existente en el exterior. Para ejecutar las etapas 1 y 3 con un coste energético aceptable, resulta necesaria la instalación de un sistema de recuperación de energía, el cual basa su funcionamiento en aprovechar la energía producida en la caída de presión del flujo de agua entrante para elevar la presión del flujo de agua saliente saturada de CO2. El sistema arriba citado puede implementarse de 3 formas alternativas: • Recuperación de doble salto mediante máquinas hidráulicas de desplazamiento positivo. • Recuperación directa mediante cilindros estacionarios dotados de pistones internos. • Recuperación directa mediante cilindros rotativos sin pistones internos. Por otro lado, para ejecutar la etapa 2 de forma silenciosa, y sin ocupar excesivo volumen, resulta necesaria la instalación de un sistema de disolución de CO2 en agua de mar a baja presión, existiendo actualmente 2 principios funcionales viables: • Dispersión de finas burbujas de gas en el seno de una masa de agua. • Difusión directa de CO2 a través de una inter-fase líquido/gas estable sin procesos de dispersión previos. Una vez dicho todo esto, el objetivo de la tesis consiste en llevar a cabo dos estudios comparativos: uno para analizar las ventajas/inconvenientes que presentan las 3 alternativas de recuperación de energía citadas y otro para analizar las ventajas/inconvenientes que presentan los sistemas de disolución de CO2 en agua de mar basados en los 2 principios funcionales mencionados. En ambos estudios se van a tener en cuenta las singularidades propias de una instalación a bordo de submarinos. Para finalizar este resumen, cabe decir que la ejecución de los estudios arriba citados ha exigido el desarrollo de un código software específico (no disponible en la bibliografía) para llevar a cabo la simulación numérica de los distintos sistemas presentados en la tesis. Este código software se ha desarrollado bajo una serie de restricciones importantes, las cuales se listan a continuación: • Ha sido necesario tener en cuenta fluidos de trabajo multi-componente: agua de mar con CO2 disuelto. • El fluido de trabajo se encuentra normalmente en estado líquido, habiendo sido necesario considerar fenómenos de cambio de fase únicamente en etapas incipientes. • La algoritmia se ha diseñado de la forma más simple posible, al objeto de facilitar el subsiguiente proceso de programación y reducir al máximo el tiempo de ejecución en máquina. • La algoritmia arriba citada se ha diseñado para llevar a cabo análisis de tipo comparativo solamente, y no para obtener resultados extremadamente precisos en términos absolutos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Actualmente se está empezando a consolidar una nueva forma de gestionar la conservación y mantenimiento de la red viaria de las Administraciones Públicas, basándose en contratos de colaboración público-privadas (PPP). Las motivaciones que están provocando este movimiento son de diversa índole. Por un lado, en el seno de la Unión Europea, existen serias restricciones presupuestarias debido al alto endeudamiento del sector público, lo que está llevando a buscar la forma óptima de disminuir el endeudamiento público, sin dejar de prestar servicios a la sociedad como la conservación y mantenimiento de las redes viarias. Por esta vertiente, se trata de convertir contratos convencionales de conservación viaria a esquemas de colaboración público-privada, donde se transferiría al sector privado el riesgo de disponibilidad de la vía mediante el uso de indicadores de calidad y servicio. Con esta transferencia de riesgo, junto con la transferencia del riesgo de demanda/construcción, no consolidaría la deuda de la sociedad de propósito específico constituida para la gestión del contrato de colaboración público-privada dentro de las cuentas públicas, con lo que se conseguiría no aumentar el déficit público, permitiendo continuar ofreciendo el servicio demandado por la sociedad. Por otro lado, la segunda motivación del desarrollo de este tipo de contratos, no tan economicista como la anterior y más enfocada a la gestión, se trata de utilizar los contratos de gestión basados en el uso de indicadores de calidad de servicio para mejorar las prestaciones de la red viaria competencia de una Administración. Con el uso de estos indicadores, el gestor tiene una herramienta muy útil para controlar la actividad del sector privado y asegurar que se ofrece un buen servicio. En la presente tesis, la investigación se ha centrado más en la vertiente de los indicadores de calidad relacionados con la gestión eficiente de las vías objeto de conservación y mantenimiento mediante el empleo de contratos de gestión privada que utilicen este tipo de herramientas de control, monitorización y gestión. En una primera parte, la presente tesis estudia el estado de la red de carreteras, referido principalmente a España, comparando su estado con el resto de redes de carreteras de Europa, detectando las principales carencias de la misma, sobre todo en cuanto a la gestión y conservación de firmes. En un segundo bloque, la tesis analiza el estado del arte de los nuevos procedimientos de gestión de la conservación y mantenimiento basados en indicadores de calidad del servicio en el mundo, destacándose que se trata de un tema relativamente reciente, con gran interés para el sector de la gestión y financiación de infraestructuras viarias. Al ser tan novedoso, por la falta de experiencias previas, las distintas Administración, tanto propias como foráneas, han pecado de un exceso de celo a la hora de establecer los umbrales sobre los que giran los distintos indicadores de calidad de servicio que permiten controlar la gestión de la conservación y mantenimiento de la vía. Partiendo de la labor de análisis descrita, la tesis realiza una investigación más detallada de los indicadores de calidad de servicio correspondientes a firmes bituminosos, debido a que estos indicadores son los más delicados y decisivos a la hora de realizar una correcta gestión de la vía a largo plazo. Dentro de los indicadores de firmes bituminosos, se ha realizado un modelo específico de evolución de comportamiento a lo largo del tiempo de la regularidad superficial, parámetro básico para numerosas Administraciones y organismos investigadores para poder conocer la evolución de un firme a lo largo del tiempo. A esta metodología se le ha dado el nombre de Modelo JRB para evaluar la racionalidad económica de indicadores de calidad asociados a parámetros de firmes. El modelo propuesto básicamente evalúa el valor óptimo desde la perspectiva económica que ha de tener el parámetro técnico que defina alguna propiedad del firme, aplicado a la definición de los indicadores de calidad de servicio. Esta visión del valor umbral del indicador deja a un lado consideraciones de equidad o de cualquier otra índole, basándose más en una visión económica. La metodología del Modelo JRB se puede aplicar a cualquier indicador de calidad relacionado con firmes, ya que lo que se obtiene es el valor óptimo económico que debería tener el umbral del indicador de calidad. El Modelo JRB consta de varias fases. En las primeras etapas el Modelo realiza el cálculo de los costes totales de transporte utilizando como herramienta el software HDM-IV desarrollado por el Banco Mundial. En etapas posteriores, el Modelo realiza análisis de sensibilidad para distintas propuestas de sección de firme, intensidades de tráfico y restricciones al parámetro técnico que define el indicador de calidad de servicio. Como ejercicio práctico de cara a contrastar la metodología del Modelo JRB se ha realizado un Caso de Estudio. Se ha tomado un tramo teórico, con características similares a la red de carreteras española, y con una flota vehicular similar a la española, donde se ha elegido como indicador de calidad la regularidad superficial (IRI). Con las sensibilidades realizadas con el Modelo JRB, se ha determinado el rango de valores que debería tener un indicador de calidad basado en el IRI para que dichos valores fueran óptimos desde la perspectiva económica Nowadays is becoming a new way to manage O&M (operation and maintenance) in public road networks, based on PPP contracts (public-private partnership). There are several issues which are driving this trend. On the one hand, EU (European Union) has serious budgetary constraints due to the high public sector borrowing. EU politicians are looking for the best way to reduce public debt, keeping services to society such as O&M of road networks. For this aspect, conventional O&M contracts are switching to PPP scenarios, where availability risk would be transfer to private sector using PI (performance indicators), along with demand risk transfer With this risk transference, along with the transfer of demand/construction risk, SPV (specific purpose vehicle) debt doesn’t consolidate in public accounts, so deficit wouldn’t increase, allowing the continuation of services demanded by society. On the other hand, the second motivation for developing this kind of contracts, not so economist as above and more focused to management, it is about using O&M contracts based on the use of PI to improve road network maintenance. Using these indicators, manager has a very useful tool to monitor private sector activity and ensure that it is provided a good service. In this thesis, the research has been focused on PI quality aspect, related with efficient management of PPP contracts for roads, which use these tools for control, monitoring and management. In the first part, this thesis examines the state of road network, based mainly in Spain, comparing with other road networks in Europe, identifying the main gaps in it, especially with regard to the management and maintenance of pavements. In a second block, the thesis analyzes the state of art of new O&M contracts based on PI in the world, emphasizing that they are relatively recent. These kinds of contracts have a great interest in road management and financing sector. Administrations all around the world have launch tenders with very exigent PI thresholds due to several factors: this knowledge is a new area, the lack of previous experiences and the variety of Administrations which have bid these contracts. Building on the described analysis, thesis develops a more detailed research about PI for bituminous pavements, because these PI are the most delicate and decisive in making a proper long term road management. Among bituminous pavements PI, IRI (International Roughness Index) has been analyzed with more detail and has been developed a specific model of behaviour evolution over time for evenness (IRI), basic parameter for many administrations and research departments in order to know the evolution of a pavement over time. This methodology has been given the name of JRB Model to evaluate the economic rationality of performance indicators associated with pavements parameters. The proposed model basically evaluates the optimal value from an economic perspective it must have the technical parameter which defines some pavement characteristic applied to the definition of performance indicators. This point of view of indicator value threshold sets aside justice considerations or otherwise, based more on an economic perspective. JRB Model methodology can be applied to any performance indicator associated to pavements, because what you get is the economic optimum threshold should have the performance indicator. JRB Model consists of several phases. In the early stages, the Model calculates transport total cost using HDM-IV software, developed by the World Bank, as a tool. In later stages, the Model performs sensitivity analyzes for different pavement section, AADT and restrictions to the technical parameter which defines the performance indicator. As a practical exercise to test JRB Model methodology, it has done a Case Study. It has taken a theoretical section, with similar characteristics to Spanish road network, and a vehicles fleet similar to Spanish. Evenness (IRI) was chosen as a performance indicator. JRB Model calculated some sensitivities, which were useful to determined thresholds range for pavement performance indicators based on IRI to be optimal from an economic perspective.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract This work is a contribution to the research and development of the intermediate band solar cell (IBSC), a high efficiency photovoltaic concept that features the advantages of both low and high bandgap solar cells. The resemblance with a low bandgap solar cell comes from the fact that the IBSC hosts an electronic energy band -the intermediate band (IB)- within the semiconductor bandgap. This IB allows the collection of sub-bandgap energy photons by means of two-step photon absorption processes, from the valence band (VB) to the IB and from there to the conduction band (CB). The exploitation of these low energy photons implies a more efficient use of the solar spectrum. The resemblance of the IBSC with a high bandgap solar cell is related to the preservation of the voltage: the open-circuit voltage (VOC) of an IBSC is not limited by any of the sub-bandgaps (involving the IB), but only by the fundamental bandgap (defined from the VB to the CB). Nevertheless, the presence of the IB allows new paths for electronic recombination and the performance of the IBSC is degraded at 1 sun operation conditions. A theoretical argument is presented regarding the need for the use of concentrated illumination in order to circumvent the degradation of the voltage derived from the increase in the recombi¬nation. This theory is supported by the experimental verification carried out with our novel characterization technique consisting of the acquisition of photogenerated current (IL)-VOC pairs under low temperature and concentrated light. Besides, at this stage of the IBSC research, several new IB materials are being engineered and our novel character¬ization tool can be very useful to provide feedback on their capability to perform as real IBSCs, verifying or disregarding the fulfillment of the “voltage preservation” principle. An analytical model has also been developed to assess the potential of quantum-dot (QD)-IBSCs. It is based on the calculation of band alignment of III-V alloyed heterojunc-tions, the estimation of the confined energy levels in a QD and the calculation of the de¬tailed balance efficiency. Several potentially useful QD materials have been identified, such as InAs/AlxGa1-xAs, InAs/GaxIn1-xP, InAs1-yNy/AlAsxSb1-x or InAs1-zNz/Alx[GayIn1-y]1-xP. Finally, a model for the analysis of the series resistance of a concentrator solar cell has also been developed to design and fabricate IBSCs adapted to 1,000 suns. Resumen Este trabajo contribuye a la investigación y al desarrollo de la célula solar de banda intermedia (IBSC), un concepto fotovoltaico de alta eficiencia que auna las ventajas de una célula solar de bajo y de alto gap. La IBSC se parece a una célula solar de bajo gap (o banda prohibida) en que la IBSC alberga una banda de energía -la banda intermedia (IB)-en el seno de la banda prohibida. Esta IB permite colectar fotones de energía inferior a la banda prohibida por medio de procesos de absorción de fotones en dos pasos, de la banda de valencia (VB) a la IB y de allí a la banda de conducción (CB). El aprovechamiento de estos fotones de baja energía conlleva un empleo más eficiente del espectro solar. La semejanza antre la IBSC y una célula solar de alto gap está relacionada con la preservación del voltaje: la tensión de circuito abierto (Vbc) de una IBSC no está limitada por ninguna de las fracciones en las que la IB divide a la banda prohibida, sino que está únicamente limitada por el ancho de banda fundamental del semiconductor (definido entre VB y CB). No obstante, la presencia de la IB posibilita nuevos caminos de recombinación electrónica, lo cual degrada el rendimiento de la IBSC a 1 sol. Este trabajo argumenta de forma teórica la necesidad de emplear luz concentrada para evitar compensar el aumento de la recom¬binación de la IBSC y evitar la degradación del voltage. Lo anterior se ha verificado experimentalmente por medio de nuestra novedosa técnica de caracterización consistente en la adquisicin de pares de corriente fotogenerada (IL)-VOG en concentración y a baja temperatura. En esta etapa de la investigación, se están desarrollando nuevos materiales de IB y nuestra herramienta de caracterizacin está siendo empleada para realimentar el proceso de fabricación, comprobando si los materiales tienen capacidad para operar como verdaderas IBSCs por medio de la verificación del principio de preservación del voltaje. También se ha desarrollado un modelo analítico para evaluar el potencial de IBSCs de puntos cuánticos. Dicho modelo está basado en el cálculo del alineamiento de bandas de energía en heterouniones de aleaciones de materiales III-V, en la estimación de la energía de los niveles confinados en un QD y en el cálculo de la eficiencia de balance detallado. Este modelo ha permitido identificar varios materiales de QDs potencialmente útiles como InAs/AlxGai_xAs, InAs/GaxIni_xP, InAsi_yNy/AlAsxSbi_x ó InAsi_zNz/Alx[GayIni_y]i_xP. Finalmente, también se ha desarrollado un modelado teórico para el análisis de la resistencia serie de una célula solar de concentración. Gracias a dicho modelo se han diseñado y fabricado IBSCs adaptadas a 1.000 soles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El artículo presenta un resumen de la situación actual en cuanto a la determinación de coeficientes de impacto en puentes. Los numerosos ensayos realizados en el seno de la Unión Internacional de Ferrocarriles por medio de su oficina de investigación (O.R.E.)han permitido relacionar los estudios teóricos con los resultados experimentales y establecer para el impacto una fórmula universal que no depende del material ni tipo estructural, y sí solamente de las características dinámicas del puente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este trabajo de tesis se propone un esquema de votación telemática, de carácter paneuropeo y transnacional, que es capaz de satisfacer las más altas exigencias en materia de seguridad. Este enfoque transnacional supone una importante novedad que obliga a identificar a los ciudadanos más allá de las fronteras de su país, exigencia que se traduce en la necesidad de que todos los ciudadanos europeos dispongan de una identidad digital y en que ésta sea reconocida más allá de las fronteras de su país de origen. Bajo estas premisas, la propuesta recogida en esta tesis se aborda desde dos vertientes complementarias: por una parte, el diseño de un esquema de votación capaz de conquistar la confianza de gobiernos y ciudadanos europeos y, por otra, la búsqueda de una respuesta al problema de interoperabilidad de Sistemas de Gestión de Identidad (IDMs), en consonancia con los trabajos que actualmente realiza la UE para la integración de los servicios proporcionados por las Administraciones Públicas de los distintos países europeos. El punto de partida de este trabajo ha sido la identificación de los requisitos que determinan el adecuado funcionamiento de un sistema de votación telemática para, a partir de ellos,proponer un conjunto de elementos y criterios que permitan, por una parte, establecer comparaciones entre distintos sistemas telemáticos de votación y, por otra, evaluar la idoneidad del sistema propuesto. A continuación se han tomado las más recientes y significativas experiencias de votación telemática llevadas a cabo por diferentes países en la automatización de sus procesos electorales, analizándolas en profundidad para demostrar que, incluso en los sistemas más recientes, todavía subsisten importantes deficiencias relativas a la seguridad. Asimismo, se ha constatado que un sector importante de la población se muestra receloso y, a menudo, cuestiona la validez de los resultados publicados. Por tanto, un sistema que aspire a ganarse la confianza de ciudadanos y gobernantes no sólo debe operar correctamente, trasladando los procesos tradicionales de votación al contexto telemático, sino que debe proporcionar mecanismos adicionales que permitan superar los temores que inspira el nuevo sistema de votación. Conforme a este principio, el enfoque de esta tesis, se orienta, en primer lugar, hacia la creación de pruebas irrefutables, entendibles y auditables a lo largo de todo el proceso de votación, que permitan demostrar con certeza y ante todos los actores implicados en el proceso (gobierno, partidos políticos, votantes, Mesa Electoral, interventores, Junta Electoral,jueces, etc.) que los resultados publicados son fidedignos y que no se han violado los principios de anonimato y de “una persona, un voto”. Bajo este planteamiento, la solución recogida en esta tesis no sólo prevé mecanismos para minimizar el riesgo de compra de votos, sino que además incorpora mecanismos de seguridad robustos que permitirán no sólo detectar posibles intentos de manipulación del sistema, sino también identificar cuál ha sido el agente responsable. De forma adicional, esta tesis va más allá y traslada el escenario de votación a un ámbito paneuropeo donde aparecen nuevos problemas. En efecto, en la actualidad uno de los principales retos a los que se enfrentan las votaciones de carácter transnacional es sin duda la falta de procedimientos rigurosos y dinámicos para la actualización sincronizada de los censos de votantes de los distintos países que evite la presencia de errores que redunden en la incapacidad de controlar que una persona emita más de un voto, o que se vea impedido del todo a ejercer su derecho. Este reconocimiento de la identidad transnacional requiere la interoperabilidad entre los IDMs de los distintos países europeos. Para dar solución a este problema, esta tesis se apoya en las propuestas emergentes en el seno de la UE, que previsiblemente se consolidarán en los próximos años, tanto en materia de identidad digital (con la puesta en marcha de la Tarjeta de Ciudadano Europeo) como con el despliegue de una infraestructura de gestión de identidad que haga posible la interoperabilidad de los IDMs de los distintos estados miembros. A partir de ellas, en esta tesis se propone una infraestructura telemática que facilita la interoperabilidad de los sistemas de gestión de los censos de los distintos estados europeos en los que se lleve a cabo conjuntamente la votación. El resultado es un sistema versátil, seguro, totalmente robusto, fiable y auditable que puede ser aplicado en elecciones paneuropeas y que contempla la actualización dinámica del censo como una parte crítica del proceso de votación. ABSTRACT: This Ph. D. dissertation proposes a pan‐European and transnational system of telematic voting that is capable of meeting the strictest security standards. This transnational approach is a significant innovation that entails identifying citizens beyond the borders of their own country,thus requiring that all European citizens must have a digital identity that is recognized beyond the borders of their country of origin. Based on these premises, the proposal in this thesis is analyzed in two mutually‐reinforcing ways: first, a voting system is designed that is capable of winning the confidence of European governments and citizens and, second, a solution is conceived for the problem of interoperability of Identity Management Systems (IDMs) that is consistent with work being carried out by the EU to integrate the services provided by the public administrations of different European countries. The starting point of this paper is to identify the requirements for the adequate functioning of a telematic voting system and then to propose a set of elements and criteria that will allow for making comparisons between different such telematic voting systems for the purpose of evaluating the suitability of the proposed system. Then, this thesis provides an in‐depth analysis of most recent significant experiences in telematic voting carried out by different countries with the aim of automating electoral processes, and shows that even the most recent systems have significant shortcomings in the realm of security. Further, a significant portion of the population has shown itself to be wary,and they often question the validity of the published results. Therefore, a system that aspires to win the trust of citizens and leaders must not only operate correctly by transferring traditional voting processes into a telematic environment, but must also provide additional mechanisms that can overcome the fears aroused by the new voting system. Hence, this thesis focuses, first, on creating irrefutable, comprehensible and auditable proof throughout the voting process that can demonstrate to all actors in the process – the government, political parties, voters, polling station workers, electoral officials, judges, etc. ‐that the published results are accurate and that the principles of anonymity and one person,one vote, have not been violated. Accordingly, the solution in this thesis includes mechanisms to minimize the risk of vote buying, in addition to robust security mechanisms that can not only detect possible attempts to manipulate the system, but also identify the responsible party. Additionally, this thesis goes one step further and moves the voting scenario to a pan‐European scale, in which new problems appear. Indeed, one of the major challenges at present for transnational voting processes is the lack of rigorous and dynamic procedures for synchronized updating of different countries’ voter rolls, free from errors that may make the system unable to keep an individual from either casting more than one vote, or from losing the effective exercise of the right to vote. This recognition of transnational identity requires interoperability between the IDMs of different European countries. To solve the problem, this thesis relies on proposals emerging within the EU that are expected to take shape in the coming years, both in digital identity – with the launch of the European Citizen Card – and in the deployment of an identity management infrastructure that will enable interoperability of the IDMs of different member states. Based on these, the thesis proposes a telematic infrastructure that will achieve interoperability of the census management systems of European states in which voting processes are jointly carried out. The result is a versatile, secure, totally robust, reliable and auditable system that can be applied in pan‐European election, and that includes dynamic updating of the voter rolls as a critical part of the voting process.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Es importante disponer de una herramienta con la cual diseñar dispositivos de uso industrial y comercial que trabajen con metales líquidos (fuentes de neutrones de alta intensidad, núcleos de sistemas de transmutación nuclear, reactores de fisión de nueva generación, instalaciones de irradiación de materiales o reactores de fusión nuclear). Los códigos CFD (Computational Fluid Dynamics) son una de esas herramientas, y la manera de llevar a cabo su validación es la simulación de experimentos existentes. La turbulencia y la presencia de dos o más fases, son los dos principales problemas a los que tiene que hacer frente un código CFD. La mayoría de los modelos de turbulencia presentes en los códigos CFD se basan en considerar la proporcionalidad directa entre el transporte de cantidad de movimiento turbulento y el transporte turbulento de calor. Precisamente, el coeficiente de difusión del calor turbulento, se asume que sea proporcional a la viscosidad turbulenta a través de una constante empírica, llamada número de Prandtl turbulento. El valor de este número, en los códigos comerciales está entre 0,9 y 0,85 dependiendo del modelo de turbulencia, lo cual significa que en los códigos se asume que el transporte turbulento tanto de cantidad de movimiento como de calor, son prácticamente equivalentes. Esta asunción no es cierta en los flujos de metales líquidos, donde se demuestra que la transmisión de calor por turbulencia es pequeña frente a la transmisión de calor molecular. La solución pasa por aumentar el número de Prandtl turbulento, o abandonar la analogía de Reynolds, en el tratamiento de la turbulencia. Por otro lado, en los metales líquidos la capa límite térmica es más ancha que la de velocidad, y las funciones de pared incluidas en los códigos no satisfacen adecuadamente los flujos turbulentos de los fluidos con bajo número de Prantdl (los metales líquidos). Sí serían adecuados, si el mallado es tal, que la celda más cercana a la pared, está dentro de la subcapa laminar, en la cual la propiedad dominante es la conductividad molecular. En la simulación de flujo multifase los códigos se encuentran con una serie de dificultades, que en el caso de que las densidades de los fluidos que intervienen sean muy diferentes entre sí (como ocurre con los metales líquidos y los gases), serán aún mayores. La modelización de la interfase gas metal líquido, así como el encontrar una correlación válida para los coeficientes de resistencia y sustentación para el movimiento de las burbujas en el seno del metal líquido, son dos de los principales retos en la simulación de este tipo de flujos. Las dificultades no se limitan sólo a la simulación mediante CFD, las medidas experimentales de velocidad de las burbujas y del metal líquido también son complicadas. Hay parámetros que no se pueden definir bien: la trayectoria y la forma de las burbujas entre ellos. En el campo de aplicación industrial de los metales líquidos, los altos valores de los coeficientes de expansión volumétrica y de conductividad térmica hacen que estos fluidos sean muy atractivos en la refrigeración por convección libre en dispositivos de alta densidad de potencia. Tomando como base uno de los diseños de ADS (Accelerator Driven System), y teniendo en cuenta la dificultad que conlleva el uso de múltiples modelos físicos, los cálculos realizados muestran cómo, en caso de fallo eléctrico, la operación de la instalación puede continuar de forma segura. Para la validación de los códigos CFD en su uso como herramienta de diseño, uno de los fenómenos donde cuantitativamente más dificultades encuentran los códigos es en los que aparecen en la modelización de las superficies libres. Un buen ajuste de los modelos multifase y de turbulencia es imprescindible en este tipo de simulaciones. Efectivamente, en la instalación de irradiación de materiales IFMIF, la formación de ondas en la superficie libre del flujo de Litio, es un fenómeno que hay que tratar de evitar, y además se requiere predecir las temperaturas, para ver si hay peligro de ebullición del metal líquido. La simulación llevada a cabo se enfoca al análisis termohidráulico. Variando la velocidad de inyección de Litio desde 10 hasta 20 m/s, se comprueba que las temperaturas máximas quedan alejadas del punto de ebullición del Litio, debido al aumento de presión producido por la fuerza centrífuga. Una de las cuestiones más críticas que se presentan en las fuentes de neutrones sería la refrigeración de la ventana metálica sobre la que incide el haz de protones. La simulación de experimentos como MEGAPIE y TS-1, permite la “visualización” de recirculación en el flujo, de los puntos de estancamiento, de los puntos calientes, etc, y da una fotografía de las zonas críticas del diseño.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En el seno de la Unión Europea se está produciendo un intenso debate sobre la idoneidad de permitir la circulación de vehículos de transporte de mercancías por carretera de mayor es medidas y tonelaje, también conocidos como Megatrucks, Eurotrucks, Eurocombi, etc. La directiva europea 96/53/CE sobre pesos y medidas de los vehículos de transporte de mercancías por carretera da libertad a los Estados miembro para imponer los límites que considere oportuno en su tráfico interior, y fue revisada en el 2002 autorizando una mayor longitud y maniobrabilidad para los autobuses. Además en la transposición española de esta directiva, realizada en el 2004, con el fin de fomentar el transporte combinado de mercancías se permitieron la circulación en determinados vehículos con carga de hasta 42 o 44 toneladas, en contraste con las 40 permitidas hasta ese momento. En este sentido, son varios los países miembro que han realizado pruebas piloto para comprobar los distintos efectos de los Megatrucks sobre aspectos como la capacidad y fatiga de las infraestructuras, el consumo de combustible, las implicaciones medioambientales y energéticas o la variación en el coste del transporte. Prácticamente la totalidad de estos proyectos piloto han arrojado resultado positivos. Sin embargo, y a pesar de demostrarse efectos beneficiosos en algunos países, no en todos los casos se ha decidido permitir la circulación de los Megatrucks. Por ejemplo, en Alemania existe una fuerte oposición en su contra por parte de ciertos grupos de presión como asociaciones ecologistas o competidores en el mercado. En el presente artículo se trata de responder a la pregunta de si sería bueno o no para España permitir la circulación de Megatrucks. La metodología usada es la de un Análisis Coste Beneficio (ACB) en el que se tengan en cuenta la totalidad de ventajas e inconvenientes monetizables que tendrían estos vehículos para el caso particular español. El ACB se ha aplicado a una serie de rutas piloto en los principales corredores del país, obteniendo un resultado beneficioso para el conjunto de la sociedad española.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La preocupación medioambiental guía en la actualidad muchas de las estrategias globales y nacionales de aplicación al sector del transporte. En transporte aéreo, el impacto ambiental es importante, pero los beneficios socioeconómicos también lo son. El crecimiento del transporte aéreo es el mayor de los desafíos del sector. Por el momento, está limitado por el mantenimiento de la seguridad y por la disponibilidad de infraestructuras, pero el impacto ambiental puede convertirse en el principal factor limitador. El transporte aéreo presenta actualmente el mayor crecimiento de todos los modos de transporte. La aviación comercial se enfrenta al reto de tomar un papel activo en la búsqueda e impulso de soluciones para alcanzar la sostenibilidad del sector, por lo tanto es necesario realizar un diagnóstico de situación a través de unos indicadores y modelos adecuados que midan el impacto ambiental del transporte aéreo. Los tipos de impacto ambiental del transporte aéreo se pueden clasificar como de efecto local (ruido, contaminación de aire local, uso de espacio), o de efecto global (consumo de materiales no renovables, aportación al cambio climático). La gestión del impacto ambiental comprende, además de medidas de reducción técnicas, diversas posibilidades económicas, que utilizan mecanismos de mercado (acuerdos voluntarios entre administración, operadores y consumidores, o cualquier combinación de ellos, impuestos y tasas, comercio de emisiones). En este trabajo se pasa revista a las diferentes medidas de gestión del impacto ambiental que se están implantando, tanto de carácter técnico como de contenido económico. Algunas de estas medidas están ya en vigor, otras en estudio. El análisis se centra fundamentalmente en el seno de la Unión Europea, que ha adoptado un papel de liderazgo mundial en la adopción de regulaciones ambientales, y el objetivo final es sacar conclusiones sobre la repercusión de estas medidas en general, y sobre el transporte aéreo en particular.