425 resultados para Porphyria cutanea tarda


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Alcance y contenido: Ms. autógrafo, conteniendo de forma breve, la historia, clima, geografía, descripción del municipio, hombres eminentes en varias profesiones, sucesos notables, etc. de la villa de Albaida y recogidas por Francisco Mateu durante sus periodos estivales en esta población y reflejadas en él. Incluye un apéndice con los entretenimientos y juegos de niños.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El proyecto trata de realizar una comparativa de dos metodologías mediante la realización de un inventario, una metodología clásica como es la metodología GNSS y la metodología Mobile Mapping. El inventario se realiza en tres escenarios distintos, un escenario es una zona verde, una zona urbana y una zona interurbana. La zona verde es el Parque Central de Tres Cantos, la zona urbano es una zona de viviendas unifamiliares deTres Cantos y la zona interurbana es tramo de la carretera M-618 que une los municipios de Colmenar Viejo y Hoyo de manzanares. Para la metodología GNSS se ha utilizado un receptor GRS-1 y para la metodología Mobile Mapping se ha utilizado el sistema IP-S2 Compact+. Con la realización de este inventario se pretende poder comparar los posibles casos que hay en tres escenarios distintos, estudiando los tiempos que se tarda en realizar un inventario con cada metodología, así como los costes que suponen. Los datos obtenidos por cada equipo se exportan en fichero Shapfile para poder abrirlos en ArcGIS y así poder realizar la comparativa. Para finalizar el proyecto y con los conocimientos adquiridos en esta materia se obtienen una conclusiones referidas al trabajo realizado con cada equipo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La resistencia genética mediada por los genes R es uno de los sistemas de defensa de las plantas frente a patógenos y se activa una vez que los patógenos han superado la defensa basal que otorgan la cutícula y pared celular. Los mecanismos de resistencia genética se inician a su vez, por el reconocimiento de productos derivados de genes de avirulencia de los patógenos (avr) por parte de las proteínas R. Tanto la respuesta de defensa basal como la respuesta de defensa por genes R están influenciadas por patrones de regulación hormonal, que incluye a las principales hormonas vegetales ácido salicílico (SA), ácido jasmónico (JA) y etileno (ET). En tomate (Solanum lycopersicum) uno de los genes R es el gen MiG1, que confiere resistencia a nematodos formadores de nódulos (Meloidogyne javanica, M. incognita y M. arenaria). Uno de los eventos más importantes que caracterizan a la respuesta de resistencia es la reacción hipersensible (HR), que está mediada por la activación temprana de una serie de sistemas enzimáticos, entre los que destaca el de las peroxidasas (PRXs) Clase III. Su función es importante tanto para limitar el establecimiento y expansión del nematodo, al generar ambientes altamente tóxicos por su contribución en la producción masiva de ROS, como por su implicación en la síntesis y depósito de lignina generando barreras estructurales en el sitio de infección. Además de estos mecanismos de defensa asociados a la resistencia constitutiva, las plantas pueden desarrollar resistencia sistémica adquirida (SAR) que en la naturaleza ocurre, en ocasiones, en una fase posterior a que la planta haya sufrido el ataque de un patógeno. Así mismo hay diferentes productos de origen químico como el benzotiadiazol o BTH (ácido S-metil benzol-(1,2,3)-tiadiozole-7-carbónico ester) que pueden generar esta misma respuesta SAR. Como resultado, la planta adquiere resistencia sistémica frente a nuevos ataques de patógenos. En este contexto, el presente trabajo aborda en primer lugar el análisis comparativo, mediante microarrays de oligonucleótidos, de los transcriptomas de los sistemas radicales de plantas de tomate de 8 semanas de edad de dos variedades, una portadora del gen de resistencia MiG1 (Motelle) y otra carente del mismo y, por tanto, susceptible (Moneymaker), antes y después de la infección por M. javanica. Previo a la infección se observó que la expresión de un gran número de transcritos era más acusada en la variedad resistente que en la susceptible, entre ellos el propio gen MiG1 o los genes PrG1 (o P4), LEJA1 y ER24, lo que indica que, en ausencia de infección, las rutas hormonales del SA, JA y ET están más activas en la raíz de la variedad resistente. Por el contrario, un número mucho menor de transcritos presentaban su expresión más reducida en Motelle que en Moneymaker, destacando un gen de señalización para sintetizar la hormona giberelina (GA). La infección por M. javanica causa importantes cambios transcripcionales en todo el sistema radical que modifican sustancialmente las diferencias basales entre plantas Motelle y Moneymaker, incluida la sobreexpresión en la variedad resistente de los transcritos de MiG1, que se reduce parcialmente, mientras que las rutas hormonales del SA y el JA continuan más activas que en la susceptible (evidente por los genes PrG1 y LEJA1). Además, los cambios asociados a la infección del nematodo se evidencian por las grandes diferencias entre los dos tiempos post-infección considerados, de tal forma que en la fase temprana (2 dpi) de la interacción compatible predomina la sobreexpresión de genes de pared celular y en la tardía (12 dpi) los relacionados con el ARN. En el análisis de la interacción incompatible, aunque también hay muchas diferencias entre ambas fases, hay que destacar la expresión diferencial común de los genes loxA y mcpi (sobrexpresados) y del gen loxD (reprimido) por su implicación en defensa en otras interacciones planta-patógeno. Cabe destacar que entre las interacciones compatible e incompatible hubo muy pocos genes en común. En la etapa temprana de la interacción compatible destacó la activación de genes de pared celular y la represión de la señalización; en cambio, en la interacción incompatible hubo proteínas principalmente implicadas en defensa. A los 12 días, en la interacción compatible los genes relacionados con el ARN y la pared celular se sobreexpresaban principalmente, y se reprimían los de proteínas y transporte, mientras que en la incompatible se sobreexpresaron los relacionados con el estrés, el metabolismo secundario y el de hormonas y se reprimieron los de ARN, señalización, metabolismo de hormonas y proteínas. Por otra parte, la técnica de silenciamiento génico VIGS reveló que el gen TGA 1a está implicado en la resistencia mediada por el gen MiG1a M. javanica. Así mismo se evaluó el transcriptoma de todo el sistema radical de la variedad susceptible tras la aplicación del inductor BTH, y se comparó con el transcriptoma de la resistente. Los resultados obtenidos revelan que el tratamiento con BTH en hojas de Moneymaker ejerce notables cambios transcripcionales en la raíz; entre otros, la activación de factores de transcripción Myb (THM16 y THM 27) y del gen ACC oxidasa. Las respuestas inducidas por el BTH parecen ser de corta duración ya que no hubo transcritos diferenciales comunes a las dos fases temporales de la infección comparadas (2 y 12 dpi). El transcriptoma de Moneymaker tratada con BTH resultó ser muy diferente al de la variedad resistente Motelle, ambas sin infectar, destacando la mayor expresión en el primero del gen LeEXP2, una expansina relacionada con defensa frente a nematodos. Las respuestas inducidas por los nematodos en Moneymaker-BTH también fueron muy distintas a las observadas previamente en la interacción incompatible mediada por MiG1, pues sólo se detectaron 2 genes sobreexpresados comunes a ambos eventos. Finalmente, se abordó el estudio de la expresión diferencial de genes que codifican PRXs y su relación con la resistencia en la interacción tomate/M. javanica. Para ello, se realizó en primer lugar el estudio del análisis del transcriptoma de tomate de la interacción compatible, obtenido en un estudio previo a partir de tejido radical infectado en distintos tiempos de infección. Se han identificado 16 unigenes de PRXs con expresión diferencial de los cuales 15 se relacionan por primera vez con la respuesta a la infección de nematodos. La mayoría de los genes de PRXs identificados, 11, aparecen fuertemente reprimidos en el sitio de alimentación, en las células gigantes (CG). Dada la implicación directa de las PRXs en la activación del mecanismo de producción de ROS, la supresión de la expresión génica local de genes de PRXs en el sitio de establecimiento y alimentación pone de manifiesto la capacidad del nematodo para modular y superar la respuesta de defensa de la planta de tomate en la interacción compatible. Posteriormente, de estos genes identificados se han elegido 4: SGN-U143455, SGN-U143841 y SGN-U144042 reprimidos en el sitio de infección y SGN-U144671 inducido, cuyos cambios de expresión se han determinado mediante análisis por qRT-PCR y de hibridación in situ en dos tiempos de infección (2 dpi y 4 dpi) y en distintos tejidos radicales de tomate resistente y susceptible. Los patrones de expresión obtenidos demuestran que en la interacción incompatible la transcripción global de los 4 genes estudiados se dispara en la etapa más temprana en el sitio de infección, detectándose la localización in situ de transcritos en el citoplasma de las células corticales de la zona meristemática afectadas por el nematodo. A 4 dpi se observó que los niveles de expresión en el sitio de infección cambian de tendencia y los genes SGN-U144671 y SGN-U144042 se reprimen significativamente. Los diferentes perfiles de expresión de los genes PRXs en los dos tiempos de infección sugieren que su inducción en las primeras 48 horas es crucial para la respuesta de defensa relacionada con la resistencia frente a la invasión del nematodo. Por último, al analizar el tejido radical sistémico, se detectó una inducción significativa de la expresión en la fase más tardía de la infección del gen SGN-U144042 en el genotipo susceptible y del SGN-U143841 en ambos genotipos. En este estudio se describe por primera vez la inducción de la expresión sistémica de genes de PRXs en tomate durante la interacción compatible e incompatible con M. javanica lo que sugiere su posible implicación funcional en la respuesta de defensa SAR activada por la infección previa del nematodo. ABSTRACT Plants defend themselves from pathogens by constitutive and/or induced defenses. A common type of induced defense involves plant resistance genes (R), which are normally activated in response to attack by specific pathogen species. Typically, a specific plant R protein recognizes a specific pathogen avirulence (avr) compound. This initiates a complex biochemical cascade inside the plant that results in synthesis of antipathogen compounds. This response can involve chemical signaling, transcription, translation, enzymes and metabolism, and numerous plant hormones such as salicylic acid (SA), jasmonates (JA) and ethylene (ET). Induced plant defense can also activate Class III peroxidases (PRXs), which produce reactive oxygen species (ROS), regulate extracellular H2O2, and play additional roles in plant defense. R-gene activation and the resulting induced defense often remain localized in the specific tissues invaded by the plant pathogen. In other cases, the plant responds by signaling the entire plant to produce defense compounds (systemic induction). Plant defense can also be induced by the exogenous application of natural or synthetic elicitors, such as benzol-(1,2,3)-thiadiazole-7-carbothionic acid. There is much current scientific interest in R-genes and elicitors, because they might be manipulated to increase agricultural yield. Scientists also are interested in systemic induction, because this allows the entire plant to be defended. In this context, one of the aims of this investigation was the transcriptoma analysis of the root systems of two varieties of tomato, the resistant variety (Motelle) that carrier MiG1 and the susceptible (Moneymaker) without MiG1, before and after infection with M. javanica. The overexpression was more pronounced in the transcriptoma of the resistant variety compared with susceptible, before infection, including the MiG1 gene, PrG1 (or P4) genes, LEJA1 and ER24, indicating that hormone SA, JA and ET are active in the resistant variety. Moreover, GA hormone presents an opposite behavior. M. javanica infection causes significant transcriptional changes in both compatible (Moneymaker-M. javanica) and incompatible (Motelle-M. javanica) interaction. In the incompatible transcriptome root system, was notably reduced the expression of the MiG1 gene, and a continuity in the expression of the hormonal pathways of SA and JA. In other hand, transcriptional profile changes during compatible interaction were associated with nematode infection. The large differences between the two times point infection considered (2 dpi and 12 dpi) indicates an overexpression of cell wall related genes in the first phase, and conversely an overexpression of RNA genes in the late phase. Transcriptoma analysis of incompatible interaction, although there were differences between the two phases, should be highlighted the common differential gene expression: loxA and mcpi (overexpressed) and loxD gene (suppressed), as they are involved in defenses in other plant-pathogen interactions. The VIGS tool has provided evidence that TGA 1a is involved in MiG1 mediated resistance to M. javanica. Likewise, the systemic application of BTH was assessed and compared with susceptible and resistant variety. Root system transcriptoma of BTH treatment on leaves showed the activation of Myb transcription factors (THM16 and THM27), the ACC oxidase gene. and the LeEXP2 gene, encoding for an expansin enzyme, related with defense against nematodes. The activation appears to be reduced by subsequent infection and establishment of nematodes. To assist in elucidate the role of tomato PRXs in plant defence against M. javanica, the transcriptome obtained previously from isolated giant cells (GC) and galls at 3 and 7 dpi from the compatible interaction was analysed. A total of 18 different probes corresponding to 16 PRX encoding genes were differentially expressed in infection site compared to the control uninfected root tissues. Most part of them (11) was down-regulated. These results yielded a first insight on 15 of the PRX genes responding to tomato–Meloidogyne interaction and confirm that repression of PRX genes might be crucial for feeding site formation at the initial stages of infection. To study the involvement of PRX genes in resistance response, four genes have been selected: SGN-U143455, SGN-U143841 and SGN-U144042 consistently down-regulated and SGN-U144671 consistently up-regulated at infection site in compatible interaction. The expression changes were determined by qRT-PCR and in situ location at 2 dpi and 4 dpi, and in different root tissues of resistant and susceptible plants. Early upon infection (2 dpi), the transcripts levels of the four genes were strongly increased in infected tissue of resistant genotype. In situ hybridization showed transcript accumulation of them in meristem cortical cells, where the nematode made injury. The results obtained provide strong evidence that early induction of PRX genes is important for defence response of the resistance against nematode invasion. Moreover, the induction patterns of SGN-U144042 gene observed at 4 dpi in distal noninfected root tissue into the susceptible genotype and of SGN-U143841 gene in both genotypes suggest a potential involvement of PRX in the systemic defence response.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En el caso específico de la tarea de resto de un primer servicio en tenis, el defensor debe hacer frente a enormes exigencias temporales. El 50 – 70 % de todos los puntos de un partido dependen de la calidad del servicio o del resto. Los servidores profesionales de excelencia logran 8 – 14 aces en un partido al mejor de tres set. Los cuales equivalen al 10.2 – 17.9 % de todos los primeros servicios ejecutados (Schonborn, 1999). Además, ellos son capaces deimprimirle a la bola una velocidad media de 202 km/h (Michikami y cols., 2003). Por este motivo, parece de manera evidente que el tiempo de reacción del jugador debe ser el más corto posible y el dinamismo de su respuesta viene a ser un requisito fundamental porque la bola tarda aproximadamente 0.4 segundos en llegar a la zona del restador (USPTA, 2005). Por lo tanto, de un punto de vista comportamental, los jugadores de tenis aprenden a emplear una secuencia muy particular y sistemática que consiste en efectuar un split step (despegue) en los instantes previos al golpe del oponente para retomar el contacto con el suelo (caída) en los momentos consecutivos al golpe adverso y así contribuir a un explosivo desplazamiento lateral hacia la dirección de la bola. Según Schmidt (1993) el jugador utiliza dos tipos diferentes de anticipación. En primer lugar, la anticipación temporal, relacionada a un evento evidente que va a suceder donde el sujeto debe ser capaz de prever en que instante ocurrirá. Por ejemplo "anticipar el instante del contacto bola-raqueta ». Segundo, la anticipación espacial (o del evento) que permite ayudar al jugador a predecir lo que posiblemente va a pasar en el ambiente para organizar su movimiento con antelación. Por ejemplo, « pr edecir si el atacante en tenis va a dirigir la bola hacia la izquierda o hacia la derecha ».

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los sistemas LIDAR (Light Detection and Ranging) permiten medir la distancia entre dos puntos, evaluando el tiempo que tarda una señal óptica (generalmente procedente de un Láser) en hacer un recorrido de ida y vuelta entre dichos puntos. En los sistemas CW-RM (Continuous Wave - Random Modulated) esta evaluación se hace calculando la correlación entre la señal emitida (pseudoaleatoria) y la recibida (cuyo retardo depender de la distancia entre los puntos). Este sistema CW-RM tiene la ventaja sobre los TOF (Time Of Flight) de que funcionan bien ún con señales recibidas de reducida relación señal a ruido. La precisión de la medida, depende, entre otros parámetros, del tiempo de bit de la secuencia pseudoaleatoria y de la frecuencia de muestreo del sistema que capta las señales y posteriormente las correla. El objetivo del presente trabajo es realizar un sistema de gran precisión, utilizando señales pseudoaleatorias de tiempo de bit de centenas de pico segundo y frecuencia de muestreo de Gs/s, para lo que deberemos utilizar equipamiento disponible en laboratorio, as mismo deberemos seleccionar y con guiar los láseres emisores para que puedan trabajar a estas velocidades. La primera etapa del proyecto será el conocimiento del instrumental de laboratorio que vamos a utilizar en el set-up. La segunda etapa será la realización de un primer montaje en el que se conectará emisor y receptor a través de una fibra óptica de longitud conocida. Esto nos permitir á el desarrollo de algoritmos para extraer información de la medida y para una calibración del instrumental para posteriores medidas. La tercera etapa es el diseño definitivo con emisor al aire para el que tendremos que ajustar todos los elementos ópticos del sistema, de modo que se pueda detectar la luz reflejada y además se pueda reducir parte de la luz de background.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Aunque se han logrado importantes avances en estudios de laboratorio con diseños experimentales poco representativos (e.g., Farrow y Reid, 2012; Nieminen, Piirainen, Salmi, y Linnamo, 2013), a día de hoy, todavía se desconoce a cabalidad cómo los jugadores de tenis de diferente nivel de pericia calibran o ajustan sus movimientos a las demandas espacio-temporales presentes en la tarea de resto de un primer servicio. ! Escasos trabajos se han llevado a cabo in situ y a la mayoría se les puede cuestionar algún aspecto de la metodología empleada. Así pues, en varios estudios la frecuencia de grabación ha sido limitada (e.g., a 50 Hz en Jackson y Gudgeon, 2004; Triolet, Benguigui, Le Runigo y Williams, 2013), o la velocidad del saque ha sido visiblemente inferior a la habitual (cf. Carboch, Süss y Kocib, 2014; Williams, Singer y Weigelt, 1998). También, en algunos estudios los participantes experimentados no han sido jugadores de nivel internacional (e.g., Avilés, Ruiz, Sanz y Navia, 2014), y el tamaño muestral ha sido muy pequeño (e.g., Gillet, Leroy, Thouvarecq, Mégrot y Stein, 2010). ! Además, en los diferentes trabajos se han utilizado una diversidad de métodos e instrumentos de medida y los criterios de codificación del inicio de los movimientos y de las respuestas han diferido; como consecuencia el lapso visomotor de respuesta (LVMr) ha sido muy dispar variando considerablemente de 198 a 410 ms. Considerando los inconvenientes señalados anteriormente, el presente estudio tuvo como objetivo determinar un modelo técnico de regulación temporal de los movimientos y de la respuesta del restador, tomando en cuenta el flujo continuo de información proporcionado por el sacador. Para ello, se realizó un análisis cronométrico de los restos de doce jugadores de diferente nivel deportivo (seis internacionales y seis nacionales) que respondieron de forma natural enviando sus devoluciones hacia las dianas. Se grabaron las acciones de los restadores y sacadores con una cámara Casio Exilim Pro Ex-F1 de alta velocidad (300 Hz) y luego se realizó un análisis imagen por imagen cada 3.33 ms. Una vez obtenidos los datos de los vídeos se realizaron análisis con las pruebas de ANOVA de un factor, ANCOVA con la velocidad del saque como covariable, U de Mann-Whitney y Chi-cuadrado de Pearson. En cuanto a la regulación del movimiento hasta el momento del despegue, los jugadores internacionales iniciaron sus acciones antes que los jugadores nacionales lo que podría indicar una mejor preparación al ejecutar los movimientos como reflejo del nivel de pericia. Los jugadores internacionales iniciaron la elevación del pie posterior a -293 ms y los jugadores nacionales a -202 ms. Todas estas acciones se fueron enlazando unas con otras y fue en el momento del impacto del sacador donde los restadores demostraron una remarcable coordinación perceptivo-motriz. Por consiguiente, los jugadores internacionales despegaron e iniciaron el vuelo a tan solo -6.5 ms del impacto y los jugadores nacionales lo hicieron más tarde a +19.5 ms. A lo largo de la secuencia temporal, todo parece indicar que las informaciones que utilizan los restadores interactúan entre sí; información más temprana y menos fiable para anticipar o moverse antes e información más tardía y más fiable para regular la temporalización de las acciones. Los restadores de nivel internacional y nacional anticiparon a nivel espacial en un bajo porcentaje (7.7% vs. 13.6%) y en tiempos similares (-127 vs. -118 ms) sugiriendo que la utilización de variables ópticas tempranas y menos fiables solo se produce en contadas ocasiones. Por otra parte, estos datos se relacionan con una gran precisión en la respuesta ya que tanto los jugadores internacionales como los nacionales demostraron un alto porcentaje de acierto al responder (95.4% vs. 96.7%). Se había señalado que los jugadores internacionales y nacionales se diferenciarían en el tiempo de caída (i.e., aterrizaje) del primer pie del salto preparatorio, sin embargo ese efecto no fue encontrado (128 vs. 135 ms). Tampoco se hallaron diferencias en el porcentaje de caída con el pie contrario a la dirección de la pelota (58% vs. 62%). Donde sí ambos grupos se diferenciaron fue en el tiempo de caída del segundo pie (147 vs. 168 ms). Esta diferencia de 21 ms fue crucial y fue una prueba de la mayor rapidez de los jugadores internacionales; sugiriendo que ésta acción se podría relacionar con el momento del inicio de la respuesta. Aunque los jugadores internacionales hayan demostrado ser más rápidos en relación con sus capacidades funcionales, ambos grupos no se diferenciaron en todas las variables relacionadas con el LVMr. Ellos no utilizaron esos valiosos milisegundos ganados en el instante de la caída del segundo pie para responder más pronto, ya que el LVMr del miembro superior fue el mismo para ambos grupos (179 vs. 174 ms). Es como si hubiesen tenido todo el tiempo del mundo para seguir ajustando sus acciones hasta el propio golpeo. Además, estos tiempos largos sugieren que en la gran mayoría de los restos la información clave que determinó la respuesta fue detectada (extraída) en momentos cercanos al golpeo del sacador y en la primera parte del vuelo de la pelota. Asimismo, se constató que en general el LVMr se ve influenciado por el tipo de información utilizada. De esta manera, cuando se tomaron en cuenta los ensayos en los que hubo anticipación espacial reflejados en el LVMr del cuerpo entero los tiempos disminuyeron (152 vs. 136 ms). Por otra parte, existieron ocasiones (13%) en los que tanto los jugadores internacionales como los nacionales respondieron tarde recibiendo saques directos (208 vs. 195 ms). Es muy posible que en estos casos los jugadores hayan tenido problemas para detectar la información respondiendo fuera de los márgenes temporales de acción lo que mermó su rendimiento. Lo mismo pudo haber ocurrido cuando ambos grupos de jugadores corrigieron el movimiento del miembro superior tras el impacto (17% vs. 10%) lo que aumentó el tiempo en responder al redirigir la respuesta hacia el lado correcto (208 vs. 205 ms). Además, los jugadores internacionales obtuvieron tiempos de movimiento menores que el de los jugadores nacionales (509 vs. 531 ms) lo que se reflejó en un tiempo total de actuación menor (683 vs. 703 ms). Por último, en cuanto al rendimiento del resto, los jugadores internacionales obtuvieron valores superiores a los jugadores nacionales (1.3 vs. 0.9). ABSTRACT Although there have been significant advances in laboratory studies with unrepresentative experimental designs (e.g., Farrow y Reid, 2012; Nieminen, Piirainen, Salmi, y Linnamo, 2013), today it is still unknown to full extent how tennis players of different levels of expertise calibrate or adjust their movements to the spatial-temporal demands present in the return of a first serve. Few studies have been carried out in situ and some aspects of the methodology most of them used can be questioned. Thus, in several studies the recording frequency has been limited (e.g., a 50 Hz en Jackson y Gudgeon, 2004; Triolet, Benguigui, Le Runigo y Williams, 2013), or serve speed was visibly lower than the usual one (cf. Carboch, Süss y Kocib, 2014; Williams, Singer y Weigelt, 1998). Also, in some studies, experienced participants have not played at international level (e.g., Avilés, Ruiz, Sanz y Navia, 2014), and the sample size has been very small (e.g., Gillet, Leroy, Thouvarecq, Mégrot y Stein, 2010). Furthermore, different works have used a variety of methods and measurement instruments and coding criteria of the onset of movements and responses have differed; due to this, visuomotor response delay (LVMr) has been very uneven, varying considerably from 198-410 ms. Considering the drawbacks mentioned above, this study aimed to determine a technical model of temporal regulation of movements and returner’s response, taking into account the continuous flow of information provided by the server. For this, a chronometric analysis of the returns of twelve players (six international and six national) of different sports level, that naturally responded by hitting their returns towards the targets, was performed. Actions of servers and returners were recorded with a Casio Exilim Pro Ex-F1 high speed camera (300 Hz) and then every 3.33 ms analysis was made frame by frame. Once the data of the videos were obtained, analyses were performed using one factor ANOVA test, ANCOVA with the speed of the serve as a covariate, U of Mann- Whitney and Pearson’s Chi-square test. As for the regulation of movement until the moment of serve, international players began their actions before national players, which could indicate that they were better prepared to execute movements reflecting the level of their expertise. International players began raising the rear foot at -293 ms and national players at -202 ms. All these actions were being linked to each other and it was at the moment of impact of the server when the receivers demonstrated a remarkable perceptual-motor coordination. Therefore, international players took off and started their flight just -6.5 ms before the serve and national players did the same somewhat later: +19.5 ms after the serve. Along the timeline, everything seems to indicate that the information used by returners interact with each other; early information which is less reliable to anticipate or move before, and later information more reliable appears to regulate the timing of actions. Returners of international and national levels anticipated at spatial level in a low percentage (7.7% vs. 13.6%) and in similar times (-127 vs. -118 ms) suggesting that the use of early and less reliable optical variables is only produced on rare occasions. Moreover, these data relate to a precise response as both international and national players showed a high percentage of success in responding (95.4% vs. 96.7%). It had been noted that international and national players would differ in the time the fall (i.e., landing) of the first foot of the split-step, however, this effect was not found (128 vs. 135 ms). No differences in the percentage of fall with the opposite foot to the direction of the ball (58% vs. 62%) were found. Where the two groups differed was in the time of the fall of the second foot (147 vs. 168 ms). This difference of 21 ms was crucial and it was a proof of mayor speed of international players; suggesting that this action could be related to the onset time of response. Although international players have proven to be faster in relation to their functional capabilities, both groups did not differ in all variables related to LVMr. They did not use those precious milliseconds earned at the time of the fall of the second foot to respond as soon, since the LVMr of the upper limb was the same for both groups (179 vs. 174 ms). It is as if they had all the time in the world to continue to adjust their actions until the return itself. Furthermore, these long times suggest that in the vast majority of the returns, key information that determined the response was detected (pick-up) in moments close to the hit of the server and in the first part of the ball flight. It was also found that in general the LVMr is influenced by the type of information used. Thus, when taking into account the trials during which there was spatial anticipation, reflected in LVMr of the whole body, the times decreased (152 vs. 136 ms). On the other hand, there were occasions (13%) where both international and national players responded late, thus receiving aces (208 vs. 195 ms). It is quite possible that in these cases the players have had trouble to pick-up information, responding out of temporary margins of action, which affected their performance. The same could have occurred when both groups of players corrected upper limb movement after impact (17% vs. 10%), which increased the time to respond and to redirect the return towards the right side (208 vs. 205 ms). Moreover, international players scored lower movement times than the national players (509 vs. 531 ms), which was reflected in a shorter total response time (683 vs. 703 ms). Finally, as far as the performance of return is concerned, international players scored above the national players values (1.3 vs. 0.9).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El 10 de octubre de 2008 la Organización Marítima Internacional (OMI) firmó una modificación al Anexo VI del convenio MARPOL 73/78, por la que estableció una reducción progresiva de las emisiones de óxidos de azufre (SOx) procedentes de los buques, una reducción adicional de las emisiones de óxidos de nitrógeno (NOx), así como límites en las emisiones de dióxido de Carbono (CO2) procedentes de los motores marinos y causantes de problemas medioambientales como la lluvia ácida y efecto invernadero. Centrándonos en los límites sobre las emisiones de azufre, a partir del 1 de enero de 2015 esta normativa obliga a todos los buques que naveguen por zonas controladas, llamadas Emission Control Area (ECA), a consumir combustibles con un contenido de azufre menor al 0,1%. A partir del 1 de enero del año 2020, o bien del año 2025, si la OMI decide retrasar su inicio, los buques deberán consumir combustibles con un contenido de azufre menor al 0,5%. De igual forma que antes, el contenido deberá ser rebajado al 0,1%S, si navegan por el interior de zonas ECA. Por su parte, la Unión Europea ha ido más allá que la OMI, adelantando al año 2020 la aplicación de los límites más estrictos de la ley MARPOL sobre las aguas de su zona económica exclusiva. Para ello, el 21 de noviembre de 2013 firmó la Directiva 2012 / 33 / EU como adenda a la Directiva de 1999. Tengamos presente que la finalidad de estas nuevas leyes es la mejora de la salud pública y el medioambiente, produciendo beneficios sociales, en forma de reducción de enfermedades, sobre todo de tipo respiratorio, a la vez que se reduce la lluvia ácida y sus nefastas consecuencias. La primera pregunta que surge es ¿cuál es el combustible actual de los buques y cuál será el que tengan que consumir para cumplir con esta Regulación? Pues bien, los grandes buques de navegación internacional consumen hoy en día fuel oil con un nivel de azufre de 3,5%. ¿Existen fueles con un nivel de azufre de 0,5%S? Como hemos concluido en el capítulo 4, para las empresas petroleras, la producción de fuel oil como combustible marino es tratada como un subproducto en su cesta de productos refinados por cada barril de Brent, ya que la demanda de fuel respecto a otros productos está bajando y además, el margen de beneficio que obtienen por la venta de otros productos petrolíferos es mayor que con el fuel. Así, podemos decir que las empresas petroleras no están interesadas en invertir en sus refinerías para producir estos fueles con menor contenido de azufre. Es más, en el caso de que alguna compañía decidiese invertir en producir un fuel de 0,5%S, su precio debería ser muy similar al del gasóleo para poder recuperar las inversiones empleadas. Por lo tanto, el único combustible que actualmente cumple con los nuevos niveles impuestos por la OMI es el gasóleo, con un precio que durante el año 2014 estuvo a una media de 307 USD/ton más alto que el actual fuel oil. Este mayor precio de compra de combustible impactará directamente sobre el coste del trasporte marítimo. La entrada en vigor de las anteriores normativas está suponiendo un reto para todo el sector marítimo. Ante esta realidad, se plantean diferentes alternativas con diferentes implicaciones técnicas, operativas y financieras. En la actualidad, son tres las alternativas con mayor aceptación en el sector. La primera alternativa consiste en “no hacer nada” y simplemente cambiar el tipo de combustible de los grandes buques de fuel oil a gasóleo. Las segunda alternativa es la instalación de un equipo scrubber, que permitiría continuar con el consumo de fuel oil, limpiando sus gases de combustión antes de salir a la atmósfera. Y, por último, la tercera alternativa consiste en el uso de Gas Natural Licuado (GNL) como combustible, con un precio inferior al del gasóleo. Sin embargo, aún existen importantes incertidumbres sobre la evolución futura de precios, operación y mantenimiento de las nuevas tecnologías, inversiones necesarias, disponibilidad de infraestructura portuaria e incluso el desarrollo futuro de la propia normativa internacional. Estas dudas hacen que ninguna de estas tres alternativas sea unánime en el sector. En esta tesis, tras exponer en el capítulo 3 la regulación aplicable al sector, hemos investigado sus consecuencias. Para ello, hemos examinado en el capítulo 4 si existen en la actualidad combustibles marinos que cumplan con los nuevos límites de azufre o en su defecto, cuál sería el precio de los nuevos combustibles. Partimos en el capítulo 5 de la hipótesis de que todos los buques cambian su consumo de fuel oil a gasóleo para cumplir con dicha normativa, calculamos el incremento de demanda de gasóleo que se produciría y analizamos las consecuencias que este hecho tendría sobre la producción de gasóleos en el Mediterráneo. Adicionalmente, calculamos el impacto económico que dicho incremento de coste producirá sobre sector exterior de España. Para ello, empleamos como base de datos el sistema de control de tráfico marítimo Authomatic Identification System (AIS) para luego analizar los datos de todos los buques que han hecho escala en algún puerto español, para así calcular el extra coste anual por el consumo de gasóleo que sufrirá el transporte marítimo para mover todas las importaciones y exportaciones de España. Por último, en el capítulo 6, examinamos y comparamos las otras dos alternativas al consumo de gasóleo -scrubbers y propulsión con GNL como combustible- y, finalmente, analizamos en el capítulo 7, la viabilidad de las inversiones en estas dos tecnologías para cumplir con la regulación. En el capítulo 5 explicamos los numerosos métodos que existen para calcular la demanda de combustible de un buque. La metodología seguida para su cálculo será del tipo bottom-up, que está basada en la agregación de la actividad y las características de cada tipo de buque. El resultado está basado en la potencia instalada de cada buque, porcentaje de carga del motor y su consumo específico. Para ello, analizamos el número de buques que navegan por el Mediterráneo a lo largo de un año mediante el sistema AIS, realizando “fotos” del tráfico marítimo en el Mediterráneo y reportando todos los buques en navegación en días aleatorios a lo largo de todo el año 2014. Por último, y con los datos anteriores, calculamos la demanda potencial de gasóleo en el Mediterráneo. Si no se hace nada y los buques comienzan a consumir gasóleo como combustible principal, en vez del actual fuel oil para cumplir con la regulación, la demanda de gasoil en el Mediterráneo aumentará en 12,12 MTA (Millones de Toneladas Anuales) a partir del año 2020. Esto supone alrededor de 3.720 millones de dólares anuales por el incremento del gasto de combustible tomando como referencia el precio medio de los combustibles marinos durante el año 2014. El anterior incremento de demanda en el Mediterráneo supondría el 43% del total de la demanda de gasóleos en España en el año 2013, incluyendo gasóleos de automoción, biodiesel y gasóleos marinos y el 3,2% del consumo europeo de destilados medios durante el año 2014. ¿Podrá la oferta del mercado europeo asumir este incremento de demanda de gasóleos? Europa siempre ha sido excedentaria en gasolina y deficitaria en destilados medios. En el año 2009, Europa tuvo que importar 4,8 MTA de Norte América y 22,1 MTA de Asia. Por lo que, este aumento de demanda sobre la ya limitada capacidad de refino de destilados medios en Europa incrementará las importaciones y producirá también aumentos en los precios, sobre todo del mercado del gasóleo. El sector sobre el que más impactará el incremento de demanda de gasóleo será el de los cruceros que navegan por el Mediterráneo, pues consumirán un 30,4% de la demanda de combustible de toda flota mundial de cruceros, lo que supone un aumento en su gasto de combustible de 386 millones de USD anuales. En el caso de los RoRos, consumirían un 23,6% de la demanda de la flota mundial de este tipo de buque, con un aumento anual de 171 millones de USD sobre su gasto de combustible anterior. El mayor incremento de coste lo sufrirán los portacontenedores, con 1.168 millones de USD anuales sobre su gasto actual. Sin embargo, su consumo en el Mediterráneo representa sólo el 5,3% del consumo mundial de combustible de este tipo de buques. Estos números plantean la incertidumbre de si semejante aumento de gasto en buques RoRo hará que el transporte marítimo de corta distancia en general pierda competitividad sobre otros medios de transporte alternativos en determinadas rutas. De manera que, parte del volumen de mercancías que actualmente transportan los buques se podría trasladar a la carretera, con los inconvenientes medioambientales y operativos, que esto produciría. En el caso particular de España, el extra coste por el consumo de gasóleo de todos los buques con escala en algún puerto español en el año 2013 se cifra en 1.717 millones de EUR anuales, según demostramos en la última parte del capítulo 5. Para realizar este cálculo hemos analizado con el sistema AIS a todos los buques que han tenido escala en algún puerto español y los hemos clasificado por distancia navegada, tipo de buque y potencia. Este encarecimiento del transporte marítimo será trasladado al sector exterior español, lo cual producirá un aumento del coste de las importaciones y exportaciones por mar en un país muy expuesto, pues el 75,61% del total de las importaciones y el 53,64% del total de las exportaciones se han hecho por vía marítima. Las tres industrias que se verán más afectadas son aquellas cuyo valor de mercancía es inferior respecto a su coste de transporte. Para ellas los aumentos del coste sobre el total del valor de cada mercancía serán de un 2,94% para la madera y corcho, un 2,14% para los productos minerales y un 1,93% para las manufacturas de piedra, cemento, cerámica y vidrio. Las mercancías que entren o salgan por los dos archipiélagos españoles de Canarias y Baleares serán las que se verán más impactadas por el extra coste del transporte marítimo, ya que son los puertos más alejados de otros puertos principales y, por tanto, con más distancia de navegación. Sin embargo, esta no es la única alternativa al cumplimiento de la nueva regulación. De la lectura del capítulo 6 concluimos que las tecnologías de equipos scrubbers y de propulsión con GNL permitirán al buque consumir combustibles más baratos al gasoil, a cambio de una inversión en estas tecnologías. ¿Serán los ahorros producidos por estas nuevas tecnologías suficientes para justificar su inversión? Para contestar la anterior pregunta, en el capítulo 7 hemos comparado las tres alternativas y hemos calculado tanto los costes de inversión como los gastos operativos correspondientes a equipos scrubbers o propulsión con GNL para una selección de 53 categorías de buques. La inversión en equipos scrubbers es más conveniente para buques grandes, con navegación no regular. Sin embargo, para buques de tamaño menor y navegación regular por puertos con buena infraestructura de suministro de GNL, la inversión en una propulsión con GNL como combustible será la más adecuada. En el caso de un tiempo de navegación del 100% dentro de zonas ECA y bajo el escenario de precios visto durante el año 2014, los proyectos con mejor plazo de recuperación de la inversión en equipos scrubbers son para los cruceros de gran tamaño (100.000 tons. GT), para los que se recupera la inversión en 0,62 años, los grandes portacontenedores de más de 8.000 TEUs con 0,64 años de recuperación y entre 5.000-8.000 TEUs con 0,71 años de recuperación y, por último, los grandes petroleros de más de 200.000 tons. de peso muerto donde tenemos un plazo de recuperación de 0,82 años. La inversión en scrubbers para buques pequeños, por el contrario, tarda más tiempo en recuperarse llegando a más de 5 años en petroleros y quimiqueros de menos de 5.000 toneladas de peso muerto. En el caso de una posible inversión en propulsión con GNL, las categorías de buques donde la inversión en GNL es más favorable y recuperable en menor tiempo son las más pequeñas, como ferris, cruceros o RoRos. Tomamos ahora el caso particular de un buque de productos limpios de 38.500 toneladas de peso muerto ya construido y nos planteamos la viabilidad de la inversión en la instalación de un equipo scrubber o bien, el cambio a una propulsión por GNL a partir del año 2015. Se comprueba que las dos variables que más impactan sobre la conveniencia de la inversión son el tiempo de navegación del buque dentro de zonas de emisiones controladas (ECA) y el escenario futuro de precios del MGO, HSFO y GNL. Para realizar este análisis hemos estudiado cada inversión, calculando una batería de condiciones de mérito como el payback, TIR, VAN y la evolución de la tesorería del inversor. Posteriormente, hemos calculado las condiciones de contorno mínimas de este buque en concreto para asegurar una inversión no sólo aceptable, sino además conveniente para el naviero inversor. En el entorno de precios del 2014 -con un diferencial entre fuel y gasóleo de 264,35 USD/ton- si el buque pasa más de un 56% de su tiempo de navegación en zonas ECA, conseguirá una rentabilidad de la inversión para inversores (TIR) en el equipo scrubber que será igual o superior al 9,6%, valor tomado como coste de oportunidad. Para el caso de inversión en GNL, en el entorno de precios del año 2014 -con un diferencial entre GNL y gasóleo de 353,8 USD/ton FOE- si el buque pasa más de un 64,8 % de su tiempo de navegación en zonas ECA, conseguirá una rentabilidad de la inversión para inversores (TIR) que será igual o superior al 9,6%, valor del coste de oportunidad. Para un tiempo en zona ECA estimado de un 60%, la rentabilidad de la inversión (TIR) en scrubbers para los inversores será igual o superior al 9,6%, el coste de oportunidad requerido por el inversor, para valores del diferencial de precio entre los dos combustibles alternativos, gasóleo (MGO) y fuel oil (HSFO) a partir de 244,73 USD/ton. En el caso de una inversión en propulsión GNL se requeriría un diferencial de precio entre MGO y GNL de 382,3 USD/ton FOE o superior. Así, para un buque de productos limpios de 38.500 DWT, la inversión en una reconversión para instalar un equipo scrubber es más conveniente que la de GNL, pues alcanza rentabilidades de la inversión (TIR) para inversores del 12,77%, frente a un 6,81% en el caso de invertir en GNL. Para ambos cálculos se ha tomado un buque que navegue un 60% de su tiempo por zona ECA y un escenario de precios medios del año 2014 para el combustible. Po otro lado, las inversiones en estas tecnologías a partir del año 2025 para nuevas construcciones son en ambos casos convenientes. El naviero deberá prestar especial atención aquí a las características propias de su buque y tipo de navegación, así como a la infraestructura de suministros y vertidos en los puertos donde vaya a operar usualmente. Si bien, no se ha estudiado en profundidad en esta tesis, no olvidemos que el sector marítimo debe cumplir además con las otras dos limitaciones que la regulación de la OMI establece sobre las emisiones de óxidos de Nitrógeno (NOx) y Carbono (CO2) y que sin duda, requerirán adicionales inversiones en diversos equipos. De manera que, si bien las consecuencias del consumo de gasóleo como alternativa al cumplimiento de la Regulación MARPOL son ciertamente preocupantes, existen alternativas al uso del gasóleo, con un aumento sobre el coste del transporte marítimo menor y manteniendo los beneficios sociales que pretende dicha ley. En efecto, como hemos demostrado, las opciones que se plantean como más rentables desde el punto de vista financiero son el consumo de GNL en los buques pequeños y de línea regular (cruceros, ferries, RoRos), y la instalación de scrubbers para el resto de buques de grandes dimensiones. Pero, por desgracia, estas inversiones no llegan a hacerse realidad por el elevado grado de incertidumbre asociado a estos dos mercados, que aumenta el riesgo empresarial, tanto de navieros como de suministradores de estas nuevas tecnologías. Observamos así una gran reticencia del sector privado a decidirse por estas dos alternativas. Este elevado nivel de riesgo sólo puede reducirse fomentando el esfuerzo conjunto del sector público y privado para superar estas barreras de entrada del mercado de scrubbers y GNL, que lograrían reducir las externalidades medioambientales de las emisiones sin restar competitividad al transporte marítimo. Creemos así, que los mismos organismos que aprobaron dicha ley deben ayudar al sector naviero a afrontar las inversiones en dichas tecnologías, así como a impulsar su investigación y promover la creación de una infraestructura portuaria adaptada a suministros de GNL y a descargas de vertidos procedentes de los equipos scrubber. Deberían además, prestar especial atención sobre las ayudas al sector de corta distancia para evitar que pierda competitividad frente a otros medios de transporte por el cumplimiento de esta normativa. Actualmente existen varios programas europeos de incentivos, como TEN-T o Marco Polo, pero no los consideramos suficientes. Por otro lado, la Organización Marítima Internacional debe confirmar cuanto antes si retrasa o no al 2025 la nueva bajada del nivel de azufre en combustibles. De esta manera, se eliminaría la gran incertidumbre temporal que actualmente tienen tanto navieros, como empresas petroleras y puertos para iniciar sus futuras inversiones y poder estudiar la viabilidad de cada alternativa de forma individual. ABSTRACT On 10 October 2008 the International Maritime Organization (IMO) signed an amendment to Annex VI of the MARPOL 73/78 convention establishing a gradual reduction in sulphur oxide (SOx) emissions from ships, and an additional reduction in nitrogen oxide (NOx) emissions and carbon dioxide (CO2) emissions from marine engines which cause environmental problems such as acid rain and the greenhouse effect. According to this regulation, from 1 January 2015, ships travelling in an Emission Control Area (ECA) must use fuels with a sulphur content of less than 0.1%. From 1 January 2020, or alternatively from 2025 if the IMO should decide to delay its introduction, all ships must use fuels with a sulphur content of less than 0.5%. As before, this content will be 0.1%S for voyages within ECAs. Meanwhile, the European Union has gone further than the IMO, and will apply the strictest limits of the MARPOL directives in the waters of its exclusive economic zone from 2020. To this end, Directive 2012/33/EU was issued on 21 November 2013 as an addendum to the 1999 Directive. These laws are intended to improve public health and the environment, benefiting society by reducing disease, particularly respiratory problems. The first question which arises is: what fuel do ships currently use, and what fuel will they have to use to comply with the Convention? Today, large international shipping vessels consume fuel oil with a sulphur level of 3.5%. Do fuel oils exist with a sulphur level of 0.5%S? As we conclude in Chapter 4, oil companies regard marine fuel oil as a by-product of refining Brent to produce their basket of products, as the demand for fuel oil is declining in comparison to other products, and the profit margin on the sale of other petroleum products is higher. Thus, oil companies are not interested in investing in their refineries to produce low-sulphur fuel oils, and if a company should decide to invest in producing a 0.5%S fuel oil, its price would have to be very similar to that of marine gas oil in order to recoup the investment. Therefore, the only fuel which presently complies with the new levels required by the IMO is marine gas oil, which was priced on average 307 USD/tonne higher than current fuel oils during 2014. This higher purchasing price for fuel will have a direct impact on the cost of maritime transport. The entry into force of the above directive presents a challenge for the entire maritime sector. There are various alternative approaches to this situation, with different technical, operational and financial implications. At present three options are the most widespread in the sector. The first option consists of “doing nothing” and simply switching from fuel oil to marine gas oil in large ships. The second option is installing a scrubber system, which would enable ships to continue consuming fuel oil, cleaning the combustion gases before they are released to the atmosphere. And finally, the third option is using Liquefied Natural Gas (LNG), which is priced lower than marine gas oil, as a fuel. However, there is still significant uncertainty on future variations in prices, the operation and maintenance of the new technologies, the investments required, the availability of port infrastructure and even future developments in the international regulations themselves. These uncertainties mean that none of these three alternatives has been unanimously accepted by the sector. In this Thesis, after discussing all the regulations applicable to the sector in Chapter 3, we investigate their consequences. In Chapter 4 we examine whether there are currently any marine fuels on the market which meet the new sulphur limits, and if not, how much new fuels would cost. In Chapter 5, based on the hypothesis that all ships will switch from fuel oil to marine gas oil to comply with the regulations, we calculate the increase in demand for marine gas oil this would lead to, and analyse the consequences this would have on marine gas oil production in the Mediterranean. We also calculate the economic impact such a cost increase would have on Spain's external sector. To do this, we also use the Automatic Identification System (AIS) system to analyse the data of every ship stopping in any Spanish port, in order to calculate the extra cost of using marine gas oil in maritime transport for all Spain's imports and exports. Finally, in Chapter 6, we examine and compare the other two alternatives to marine gas oil, scrubbers and LNG, and in Chapter 7 we analyse the viability of investing in these two technologies in order to comply with the regulations. In Chapter 5 we explain the many existing methods for calculating a ship's fuel consumption. We use a bottom-up calculation method, based on aggregating the activity and characteristics of each type of vessel. The result is based on the installed engine power of each ship, the engine load percentage and its specific consumption. To do this, we analyse the number of ships travelling in the Mediterranean in the course of one year, using the AIS, a marine traffic monitoring system, to take “snapshots” of marine traffic in the Mediterranean and report all ships at sea on random days throughout 2014. Finally, with the above data, we calculate the potential demand for marine gas oil in the Mediterranean. If nothing else is done and ships begin to use marine gas oil instead of fuel oil in order to comply with the regulation, the demand for marine gas oil in the Mediterranean will increase by 12.12 MTA (Millions Tonnes per Annum) from 2020. This means an increase of around 3.72 billion dollars a year in fuel costs, taking as reference the average price of marine fuels in 2014. Such an increase in demand in the Mediterranean would be equivalent to 43% of the total demand for diesel in Spain in 2013, including automotive diesel fuels, biodiesel and marine gas oils, and 3.2% of European consumption of middle distillates in 2014. Would the European market be able to supply enough to meet this greater demand for diesel? Europe has always had a surplus of gasoline and a deficit of middle distillates. In 2009, Europe had to import 4.8 MTA from North America and 22.1 MTA from Asia. Therefore, this increased demand on Europe's already limited capacity for refining middle distillates would lead to increased imports and higher prices, especially in the diesel market. The sector which would suffer the greatest impact of increased demand for marine gas oil would be Mediterranean cruise ships, which represent 30.4% of the fuel demand of the entire world cruise fleet, meaning their fuel costs would rise by 386 million USD per year. ROROs in the Mediterranean, which represent 23.6% of the demand of the world fleet of this type of ship, would see their fuel costs increase by 171 million USD a year. The greatest cost increase would be among container ships, with an increase on current costs of 1.168 billion USD per year. However, their consumption in the Mediterranean represents only 5.3% of worldwide fuel consumption by container ships. These figures raise the question of whether a cost increase of this size for RORO ships would lead to short-distance marine transport in general becoming less competitive compared to other transport options on certain routes. For example, some of the goods that ships now carry could switch to road transport, with the undesirable effects on the environment and on operations that this would produce. In the particular case of Spain, the extra cost of switching to marine gas oil in all ships stopping at any Spanish port in 2013 would be 1.717 billion EUR per year, as we demonstrate in the last part of Chapter 5. For this calculation, we used the AIS system to analyse all ships which stopped at any Spanish port, classifying them by distance travelled, type of ship and engine power. This rising cost of marine transport would be passed on to the Spanish external sector, increasing the cost of imports and exports by sea in a country which relies heavily on maritime transport, which accounts for 75.61% of Spain's total imports and 53.64% of its total exports. The three industries which would be worst affected are those with goods of lower value relative to transport costs. The increased costs over the total value of each good would be 2.94% for wood and cork, 2.14% for mineral products and 1.93% for manufactured stone, cement, ceramic and glass products. Goods entering via the two Spanish archipelagos, the Canary Islands and the Balearic Islands, would suffer the greatest impact from the extra cost of marine transport, as these ports are further away from other major ports and thus the distance travelled is greater. However, this is not the only option for compliance with the new regulations. From our readings in Chapter 6 we conclude that scrubbers and LNG propulsion would enable ships to use cheaper fuels than marine gas oil, in exchange for investing in these technologies. Would the savings gained by these new technologies be enough to justify the investment? To answer this question, in Chapter 7 we compare the three alternatives and calculate both the cost of investment and the operating costs associated with scrubbers or LNG propulsion for a selection of 53 categories of ships. Investing in scrubbers is more advisable for large ships with no fixed runs. However, for smaller ships with regular runs to ports with good LNG supply infrastructure, investing in LNG propulsion would be the best choice. In the case of total transit time within an ECA and the pricing scenario seen in 2014, the best payback periods on investments in scrubbers are for large cruise ships (100,000 gross tonnage), which would recoup their investment in 0.62 years; large container ships, with a 0.64 year payback period for those over 8,000 TEUs and 0.71 years for the 5,000-8,000 TEU category; and finally, large oil tankers over 200,000 deadweight tonnage, which would recoup their investment in 0.82 years. However, investing in scrubbers would have a longer payback period for smaller ships, up to 5 years or more for oil tankers and chemical tankers under 5,000 deadweight tonnage. In the case of LNG propulsion, a possible investment is more favourable and the payback period is shorter for smaller ship classes, such as ferries, cruise ships and ROROs. We now take the case of a ship transporting clean products, already built, with a deadweight tonnage of 38,500, and consider the viability of investing in installing a scrubber or changing to LNG propulsion, starting in 2015. The two variables with the greatest impact on the advisability of the investment are how long the ship is at sea within emission control areas (ECA) and the future price scenario of MGO, HSFO and LNG. For this analysis, we studied each investment, calculating a battery of merit conditions such as the payback period, IRR, NPV and variations in the investors' liquid assets. We then calculated the minimum boundary conditions to ensure the investment was not only acceptable but advisable for the investor shipowner. Thus, for the average price differential of 264.35 USD/tonne between HSFO and MGO during 2014, investors' return on investment (IRR) in scrubbers would be the same as the required opportunity cost of 9.6%, for values of over 56% ship transit time in ECAs. For the case of investing in LNG and the average price differential between MGO and LNG of 353.8 USD/tonne FOE in 2014, the ship must spend 64.8% of its time in ECAs for the investment to be advisable. For an estimated 60% of time in an ECA, the internal rate of return (IRR) for investors equals the required opportunity cost of 9.6%, based on a price difference of 244.73 USD/tonne between the two alternative fuels, marine gas oil (MGO) and fuel oil (HSFO). An investment in LNG propulsion would require a price differential between MGO and LNG of 382.3 USD/tonne FOE. Thus, for a 38,500 DWT ship carrying clean products, investing in retrofitting to install a scrubber is more advisable than converting to LNG, with an internal rate of return (IRR) for investors of 12.77%, compared to 6.81% for investing in LNG. Both calculations were based on a ship which spends 60% of its time at sea in an ECA and a scenario of average 2014 prices. However, for newly-built ships, investments in either of these technologies from 2025 would be advisable. Here, the shipowner must pay particular attention to the specific characteristics of their ship, the type of operation, and the infrastructure for supplying fuel and handling discharges in the ports where it will usually operate. Thus, while the consequences of switching to marine gas oil in order to comply with the MARPOL regulations are certainly alarming, there are alternatives to marine gas oil, with smaller increases in the costs of maritime transport, while maintaining the benefits to society this law is intended to provide. Indeed, as we have demonstrated, the options which appear most favourable from a financial viewpoint are conversion to LNG for small ships and regular runs (cruise ships, ferries, ROROs), and installing scrubbers for large ships. Unfortunately, however, these investments are not being made, due to the high uncertainty associated with these two markets, which increases business risk, both for shipowners and for the providers of these new technologies. This means we are seeing considerable reluctance regarding these two options among the private sector. This high level of risk can be lowered only by encouraging joint efforts by the public and private sectors to overcome these barriers to entry into the market for scrubbers and LNG, which could reduce the environmental externalities of emissions without affecting the competitiveness of marine transport. Our opinion is that the same bodies which approved this law must help the shipping industry invest in these technologies, drive research on them, and promote the creation of a port infrastructure which is adapted to supply LNG and handle the discharges from scrubber systems. At present there are several European incentive programmes, such as TEN-T and Marco Polo, but we do not consider these to be sufficient. For its part, the International Maritime Organization should confirm as soon as possible whether the new lower sulphur levels in fuels will be postponed until 2025. This would eliminate the great uncertainty among shipowners, oil companies and ports regarding the timeline for beginning their future investments and for studying their viability.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En el mundo actual las aplicaciones basadas en sistemas biométricos, es decir, aquellas que miden las señales eléctricas de nuestro organismo, están creciendo a un gran ritmo. Todos estos sistemas incorporan sensores biomédicos, que ayudan a los usuarios a controlar mejor diferentes aspectos de la rutina diaria, como podría ser llevar un seguimiento detallado de una rutina deportiva, o de la calidad de los alimentos que ingerimos. Entre estos sistemas biométricos, los que se basan en la interpretación de las señales cerebrales, mediante ensayos de electroencefalografía o EEG están cogiendo cada vez más fuerza para el futuro, aunque están todavía en una situación bastante incipiente, debido a la elevada complejidad del cerebro humano, muy desconocido para los científicos hasta el siglo XXI. Por estas razones, los dispositivos que utilizan la interfaz cerebro-máquina, también conocida como BCI (Brain Computer Interface), están cogiendo cada vez más popularidad. El funcionamiento de un sistema BCI consiste en la captación de las ondas cerebrales de un sujeto para después procesarlas e intentar obtener una representación de una acción o de un pensamiento del individuo. Estos pensamientos, correctamente interpretados, son posteriormente usados para llevar a cabo una acción. Ejemplos de aplicación de sistemas BCI podrían ser mover el motor de una silla de ruedas eléctrica cuando el sujeto realice, por ejemplo, la acción de cerrar un puño, o abrir la cerradura de tu propia casa usando un patrón cerebral propio. Los sistemas de procesamiento de datos están evolucionando muy rápido con el paso del tiempo. Los principales motivos son la alta velocidad de procesamiento y el bajo consumo energético de las FPGAs (Field Programmable Gate Array). Además, las FPGAs cuentan con una arquitectura reconfigurable, lo que las hace más versátiles y potentes que otras unidades de procesamiento como las CPUs o las GPUs.En el CEI (Centro de Electrónica Industrial), donde se lleva a cabo este TFG, se dispone de experiencia en el diseño de sistemas reconfigurables en FPGAs. Este TFG es el segundo de una línea de proyectos en la cual se busca obtener un sistema capaz de procesar correctamente señales cerebrales, para llegar a un patrón común que nos permita actuar en consecuencia. Más concretamente, se busca detectar cuando una persona está quedándose dormida a través de la captación de unas ondas cerebrales, conocidas como ondas alfa, cuya frecuencia está acotada entre los 8 y los 13 Hz. Estas ondas, que aparecen cuando cerramos los ojos y dejamos la mente en blanco, representan un estado de relajación mental. Por tanto, este proyecto comienza como inicio de un sistema global de BCI, el cual servirá como primera toma de contacto con el procesamiento de las ondas cerebrales, para el posterior uso de hardware reconfigurable sobre el cual se implementarán los algoritmos evolutivos. Por ello se vuelve necesario desarrollar un sistema de procesamiento de datos en una FPGA. Estos datos se procesan siguiendo la metodología de procesamiento digital de señales, y en este caso se realiza un análisis de la frecuencia utilizando la transformada rápida de Fourier, o FFT. Una vez desarrollado el sistema de procesamiento de los datos, se integra con otro sistema que se encarga de captar los datos recogidos por un ADC (Analog to Digital Converter), conocido como ADS1299. Este ADC está especialmente diseñado para captar potenciales del cerebro humano. De esta forma, el sistema final capta los datos mediante el ADS1299, y los envía a la FPGA que se encarga de procesarlos. La interpretación es realizada por los usuarios que analizan posteriormente los datos procesados. Para el desarrollo del sistema de procesamiento de los datos, se dispone primariamente de dos plataformas de estudio, a partir de las cuales se captarán los datos para después realizar el procesamiento: 1. La primera consiste en una herramienta comercial desarrollada y distribuida por OpenBCI, proyecto que se dedica a la venta de hardware para la realización de EEG, así como otros ensayos. Esta herramienta está formada por un microprocesador, un módulo de memoria SD para el almacenamiento de datos, y un módulo de comunicación inalámbrica que transmite los datos por Bluetooth. Además cuenta con el mencionado ADC ADS1299. Esta plataforma ofrece una interfaz gráfica que sirve para realizar la investigación previa al diseño del sistema de procesamiento, al permitir tener una primera toma de contacto con el sistema. 2. La segunda plataforma consiste en un kit de evaluación para el ADS1299, desde la cual se pueden acceder a los diferentes puertos de control a través de los pines de comunicación del ADC. Esta plataforma se conectará con la FPGA en el sistema integrado. Para entender cómo funcionan las ondas más simples del cerebro, así como saber cuáles son los requisitos mínimos en el análisis de ondas EEG se realizaron diferentes consultas con el Dr Ceferino Maestu, neurofisiólogo del Centro de Tecnología Biomédica (CTB) de la UPM. Él se encargó de introducirnos en los distintos procedimientos en el análisis de ondas en electroencefalogramas, así como la forma en que se deben de colocar los electrodos en el cráneo. Para terminar con la investigación previa, se realiza en MATLAB un primer modelo de procesamiento de los datos. Una característica muy importante de las ondas cerebrales es la aleatoriedad de las mismas, de forma que el análisis en el dominio del tiempo se vuelve muy complejo. Por ello, el paso más importante en el procesamiento de los datos es el paso del dominio temporal al dominio de la frecuencia, mediante la aplicación de la transformada rápida de Fourier o FFT (Fast Fourier Transform), donde se pueden analizar con mayor precisión los datos recogidos. El modelo desarrollado en MATLAB se utiliza para obtener los primeros resultados del sistema de procesamiento, el cual sigue los siguientes pasos. 1. Se captan los datos desde los electrodos y se escriben en una tabla de datos. 2. Se leen los datos de la tabla. 3. Se elige el tamaño temporal de la muestra a procesar. 4. Se aplica una ventana para evitar las discontinuidades al principio y al final del bloque analizado. 5. Se completa la muestra a convertir con con zero-padding en el dominio del tiempo. 6. Se aplica la FFT al bloque analizado con ventana y zero-padding. 7. Los resultados se llevan a una gráfica para ser analizados. Llegados a este punto, se observa que la captación de ondas alfas resulta muy viable. Aunque es cierto que se presentan ciertos problemas a la hora de interpretar los datos debido a la baja resolución temporal de la plataforma de OpenBCI, este es un problema que se soluciona en el modelo desarrollado, al permitir el kit de evaluación (sistema de captación de datos) actuar sobre la velocidad de captación de los datos, es decir la frecuencia de muestreo, lo que afectará directamente a esta precisión. Una vez llevado a cabo el primer procesamiento y su posterior análisis de los resultados obtenidos, se procede a realizar un modelo en Hardware que siga los mismos pasos que el desarrollado en MATLAB, en la medida que esto sea útil y viable. Para ello se utiliza el programa XPS (Xilinx Platform Studio) contenido en la herramienta EDK (Embedded Development Kit), que nos permite diseñar un sistema embebido. Este sistema cuenta con: Un microprocesador de tipo soft-core llamado MicroBlaze, que se encarga de gestionar y controlar todo el sistema; Un bloque FFT que se encarga de realizar la transformada rápida Fourier; Cuatro bloques de memoria BRAM, donde se almacenan los datos de entrada y salida del bloque FFT y un multiplicador para aplicar la ventana a los datos de entrada al bloque FFT; Un bus PLB, que consiste en un bus de control que se encarga de comunicar el MicroBlaze con los diferentes elementos del sistema. Tras el diseño Hardware se procede al diseño Software utilizando la herramienta SDK(Software Development Kit).También en esta etapa se integra el sistema de captación de datos, el cual se controla mayoritariamente desde el MicroBlaze. Por tanto, desde este entorno se programa el MicroBlaze para gestionar el Hardware que se ha generado. A través del Software se gestiona la comunicación entre ambos sistemas, el de captación y el de procesamiento de los datos. También se realiza la carga de los datos de la ventana a aplicar en la memoria correspondiente. En las primeras etapas de desarrollo del sistema, se comienza con el testeo del bloque FFT, para poder comprobar el funcionamiento del mismo en Hardware. Para este primer ensayo, se carga en la BRAM los datos de entrada al bloque FFT y en otra BRAM los datos de la ventana aplicada. Los datos procesados saldrán a dos BRAM, una para almacenar los valores reales de la transformada y otra para los imaginarios. Tras comprobar el correcto funcionamiento del bloque FFT, se integra junto al sistema de adquisición de datos. Posteriormente se procede a realizar un ensayo de EEG real, para captar ondas alfa. Por otro lado, y para validar el uso de las FPGAs como unidades ideales de procesamiento, se realiza una medición del tiempo que tarda el bloque FFT en realizar la transformada. Este tiempo se compara con el tiempo que tarda MATLAB en realizar la misma transformada a los mismos datos. Esto significa que el sistema desarrollado en Hardware realiza la transformada rápida de Fourier 27 veces más rápido que lo que tarda MATLAB, por lo que se puede ver aquí la gran ventaja competitiva del Hardware en lo que a tiempos de ejecución se refiere. En lo que al aspecto didáctico se refiere, este TFG engloba diferentes campos. En el campo de la electrónica:  Se han mejorado los conocimientos en MATLAB, así como diferentes herramientas que ofrece como FDATool (Filter Design Analysis Tool).  Se han adquirido conocimientos de técnicas de procesado de señal, y en particular, de análisis espectral.  Se han mejorado los conocimientos en VHDL, así como su uso en el entorno ISE de Xilinx.  Se han reforzado los conocimientos en C mediante la programación del MicroBlaze para el control del sistema.  Se ha aprendido a crear sistemas embebidos usando el entorno de desarrollo de Xilinx usando la herramienta EDK (Embedded Development Kit). En el campo de la neurología, se ha aprendido a realizar ensayos EEG, así como a analizar e interpretar los resultados mostrados en el mismo. En cuanto al impacto social, los sistemas BCI afectan a muchos sectores, donde destaca el volumen de personas con discapacidades físicas, para los cuales, este sistema implica una oportunidad de aumentar su autonomía en el día a día. También otro sector importante es el sector de la investigación médica, donde los sistemas BCIs son aplicables en muchas aplicaciones como, por ejemplo, la detección y estudio de enfermedades cognitivas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Con este proyecto se pretende realizar un programa que permita simular de forma eficaz el movimiento de una serie de vehículos y las interacciones entre ellos y otros elementos del trayecto. Para lograrlo, primero se tomarán datos del tráfico a pie de calle y después se modelizarán para poder tener una visión más general. El código principal pretende servir para simular cualquier circuito posible del que podamos tomar datos. Con él podremos saber cuánto tiempo se tarda en recorrer el circuito, las paradas realizadas o las velocidades en todo momento. La simulación va, por lo tanto, más allá de obtener un solo tiempo como resultado, sino que pretende predecir tantos datos que estos puedan emplearse para comparar distintos estilos de conducción, y también servir como base para poder simular en el futuro variables más complejas como el consumo de combustible.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La familia Cupressaceae incluye un total de 133 especies agrupadas en 30 géneros, 17 de los cuales son monospecíficos. Esta familia se encuentra representada en todos los continentes salvo en la Antártida. Sus especies se distribuyen en distintas regiones climáticas, y en altitudes que varían desde el nivel del mar hasta los 5.000 m. La falta de descripción anatómica de muchos de los géneros y especies de Cupressaceae es notable, así como la contradicción que aparece entre distintas investigaciones sobre las características anatómicas de la madera descritas para cada especie. Este estudio describe la anatomía de la madera de Cupressaceae y analiza las características que podrían representar sinapomorfías de los clados delimitados en los estudios filogenéticos. Siguiendo los métodos tradicionales de preparación y descripción de la madera a nivel microscópico, se ha estudiado la madera de 113 especies de los 30 géneros de Cupressaceae. Para ello se han empleado muestras de madera de origen trazable, procedentes de colecciones de madera de distintas instituciones internacionales. Se ha empleado una robusta filogenia molecular para la reconstrucción de los caracteres ancestrales. La anatomía de la madera de los 30 géneros de Cupressaceae, pone de manifiesto la gran homogeneidad de la familia, caracterizada por la presencia de traqueidas axiales sin engrosamientos helicoidales, parénquima radial con paredes horizontales lisas, punteaduras del campo de cruce de tipo cupresoide y la carencia de canales resiníferos fisiológicos. Además, todos presentan parénquima axial (salvo Neocallitropsis, Thuja y Xanthocyparis), punteaduras radiales areoladas con toro definido (salvo Thuja y Thujopsis), siendo habitual la presencia de punteaduras areoladas en las paredes tangenciales de la madera tardía, y verrugosidades en la cara interna de las traqueidas (salvo Ca. macleayana, Libocedrus, Papuacedrus y Neocallitropsis). Los radios leñosos son homogéneos y están compuestos de parénquima radial (con la presencia de traqueidas radiales en algunas especies de Cupressus, Sequoia, Thujopsis y X. nootkatensis) con paredes finales lisas o lisas y noduladas (exclusivamente noduladas en Cal. macrolepis, C. bakeri y en la mayoría de especies de Juniperus), y el rango de altura de los radios leñosos se encuentra entre 5 y 15 células. Se consideran posibles sinapomorfismos de Cupressaceae la presencia de verrugosidades en la cara interna de las traqueidas, la presencia de traqueidas axiales sin engrosamientos helicoidales, la presencia de parénquima axial, la presencia de radios leñosos homogéneos (compuestos únicamente de parénquima radial), la tipología de las paredes horizontales del parénquima radial, las punteaduras del campo de cruce de tipo cupresoide y la ausencia de canales resiníferos fisiológicos, pero lo que realmente diferencia a este grupo de coníferas es la simultaneidad de todos estos caracteres en sus maderas. Como sinapomorfías específicas por clados se proponen: la ausencia de toro definido y muescas en el borde de las punteaduras en Thuja-Thujopsis, la existencia de extensiones de toro en Diselma-Fitzroya-Widdringtonia; la presencia de engrosamientos callitroides en Callitris-Actinostrobus; la presencia de espacios intercelulares y las muescas en el borde de las punteaduras en el clado formado por el género Juniperus y las especies de Cupressus en la región oriental; la presencia de paredes finales del parénquima radial tanto lisas como noduladas en los clados formados por el género Xanthocyparis y las especies de Cupressus en la región occidental y en Fitzroya-Diselma; y por último, la presencia de punteaduras del campo de cruce de tipo taxodioide en los clados taxodioid y sequoioid. ABSTRACT The Cupressaceae family comprises 133 species grouped into 30 genera, 17 of which are monotypic. The family is represented in all continents except Antarctica. Its species are distributed in various climate zones and at altitudes from sea level to 5,000 m. There is a considerable lack of anatomical descriptions for many genera and species of Cupressaceae and much contradiction between studies about the wood anatomical features described for each species. This study describes the wood anatomy of Cupressaceae and analyses the features that could represent synapomorphies of the clades recovered in phylogenetic studies. Following the traditional methods of preparation and description of wood at microscopic level, a study was made of the wood of 113 species of the 30 Cupressaceae genera. The study samples had traceable origins and came from wood collections held at various international institutions. A robust molecular phylogeny was used for ancestral state reconstruction. The wood anatomy of the 30 genera of the Cupressaceae shows the high homogeneity of the family, which is characterised by the presence of axial tracheids without helical thickenings, smooth horizontal walls of ray parenchyma cells, cupressoid cross-field pits, and the absence of physiological resin canals. In addition, they all have axial parenchyma (except Neocallitropsis, Thuja and Xanthocyparis), a warty layer on the inner wall of the tracheids (except Ca. macleayana, Libocedrus, Papuacedrus and Neocallitropsis) and tracheid pitting in radial walls with a well defined torus (except Thuja and Thujopsis); tracheid pitting in the tangential walls of the latewood is common. Rays are homogeneous and are composed of ray parenchyma (with the presence of ray tracheids in some species of Cupressus, Sequoia, Thujopsis and X. nootkatensis), with smooth end walls or both smooth and nodular end walls (exclusively nodular in Cal. macrolepis, C. bakeri and most Juniperus species), and ray height range is 5 to 15 cells. Possible synapomorphies of Cupressaceae are the presence of a warty layer on the inner layer of the tracheids, axial tracheids without helical thickenings, the presence of axial parenchyma, homogeneous rays (composed exclusively of ray parenchyma), the typology of the horizontal walls of ray parenchyma cells, cupressoid cross-field pits and the absence of physiological resin canals, but what truly differentiates this group of softwoods is the co-occurrence of all these features in their wood. The following are proposed as clade-specific synapomorphies: absence of a well-defined torus and presence of pits with notched borders in Thuja-Thujopsis, torus extensions in Diselma-Fitzroya-Widdringtonia; callitroid thickenings in Callitris-Actinostrobus; intercellular spaces and pits with notched borders in the clade formed by the genus Juniperus and the species of Cupressus in the eastern region; smooth and nodular ray parenchyma end walls in the clades formed by the genus Xanthocyparis and the species of Cupressus in the western region and in Fitzroya-Diselma, and taxodioid cross-field pits in the taxodioid and sequoioid clades.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

España se incorporó a la técnica del hormigón armado con más de dos décadas de retraso respecto a Francia o Alemania. En 1890, en Europa se construían ya estructuras de hormigón armado de cierta envergadura y complejidad. En España hubo que esperar hasta 1893 para la primera obra en hormigón armado, que fue un sencillo depósito descubierto en Puigverd (Lérida), ejecutado por el ingeniero militar Francesc Macià con patente Monier. En 1898, de la mano de Hennebique, se empezó la construcción de los dos primeros edificios con estructura de hormigón armado en España. Fueron dos obras puntuales, con proyectos importados de Francia, pero necesarias para introducir de manera definitiva el material. En paralelo, en París, se estaban edificando en hormigón armado la mayoría de los pabellones de la Exposición Universal de 1900. En el cambio de siglo, las construcciones de hormigón armado habían alcanzado ya la madurez proyectual y técnica en Europa. A pesar de la incorporación tardía, se puede constatar por las obras ejecutadas que en un periodo corto de tiempo, entre 1901 y 1906, se alcanzó en España prácticamente el mismo nivel técnico y constructivo que tenían el resto de los países que fueron pioneros en el empleo del hormigón armado. El desarrollo e implantación de una técnica constructiva no es un proceso lineal, y son muchos los factores que intervienen. Las patentes tuvieron una gran importancia en el desarrollo inicial del hormigón armado. Estas ofrecían un producto que funcionaba. Las primeras estructuras de hormigón armado no se calculaban y se construían siguiendo una reglamentación, se compraban. Y el resultado de esa “compra” solía ser, en la mayoría de los casos, satisfactorio. Las patentes vendían sistemas estructurales cuyo funcionamiento estaba corroborado por la experiencia y la pericia de su inventor. Esta investigación parte de la hipótesis de que las patentes sobre cemento y hormigón armado depositadas en España entre 1884 y 1906 fueron uno de los factores que proporcionaron a los técnicos y a las empresas españolas una pericia constructiva sólida en el empleo del hormigón armado. En este trabajo se aborda el estudio del proceso de introducción del hormigón armado en España desde una perspectiva fundamentalmente técnica, incorporando las patentes como una de las razones constructivas que explican su rápida evolución y generalización en un periodo de tiempo breve: 1901-1906. En este proceso se contextualiza y analiza una de las figuras que se considera fundamental en los primeros años del hormigón armado en España, la del ingeniero Juan Manuel de Zafra y Estevan. Esta tesis analiza las patentes de hormigón armado desde el punto de vista estadístico y constructivo. Desde ambas perspectivas se verifica la hipótesis de partida de esta investigación, concluyendo que las patentes fueron una de las razones constructivas de la evolución del hormigón armado en España y de su rápida implantación. ABSTRACT Spain incorporated the reinforced concrete technique more than two decades after France and Germany. In central Europe reinforced concrete structures of considerable size and complexity were being built in 1890, while in Spain it was not until 1893 that the first work, a simple open air water tank, was implemented in Puigverd (Lleida) by the military engineer Francesc Macià with a Monier patent. In 1898 the construction of the first two buildings with reinforced concrete structure in Spain started, with the guidance by Hennebique. They were two isolated cases with projects imported from France, but playing a key role to definitively introduce the material in Spain. In parallel, in Paris, most of the pavilions of the 1900 World Expo were being built in reinforced concrete. At the turn of the century reinforced concrete buildings had reached maturity both as a technology and as a design practice. Despite the late assumption of the material, the works carried out in the very short period between 1901 and 1906 clearly show that Spain reached practically the same technical and constructive level as the other pioneering countries in the use of reinforced concrete. The development and implementation of a constructive technique is never a linear process, there are many factors involved. The patents offered a successful product. Initial reinforced concrete structures were not calculated and built according to regulations, they were bought. And this purchase in most cases was satisfactory for the required use. Patents sold structural systems whose performance was supported by the experience and expertise of its inventor. The hypothesis of this research is based upon the assumption that the cement and concrete patents registered in Spain between 1884 and 1906 were one of the factors that provided Spanish technicians and companies with a solid constructive expertise in the use of reinforced concrete. This investigation studies the introduction of reinforced concrete to Spain from a predominantly technical perspective, incorporating patents as the constructive reason for the rapid evolution and spread in such a short period of time: 1901-1906. Along the way, the role of engineer J. M. de Zafra, generally considered a key agent in the initial years of reinforced concrete in Spain, is contextualized and analyzed. This dissertation analyzes the patents of reinforced concrete from a statistical and constructive point of view. From both perspectives the hypothesis of this research is verified, concluding that patents were one of the constructive reasons for the development of reinforced concrete in Spain.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’utilizzo di nanomateriali, ovvero una nuova classe di sostanze composte da particelle ultrafini con dimensioni comprese fra 1 e 100 nm (American Society for Testing Materials - ASTM), è in costante aumento a livello globale. La particolarità di tali sostanze è rappresentata da un alto rapporto tra la superficie e il volume delle particelle, che determina caratteristiche chimico-fisiche completamente differenti rispetto alle omologhe macrosostanze di riferimento. Tali caratteristiche sono tali da imporre una loro classificazione come nuovi agenti chimici (Royal Society & Royal Academy of Engineering report 2004). Gli impieghi attuali dei nanomateriali risultano in continua evoluzione, spaziando in diversi ambiti, dall’industria farmaceutica e cosmetica, all’industria tessile, elettronica, aerospaziale ed informatica. Diversi sono anche gli impieghi in campo biomedico; tra questi la diagnostica e la farmacoterapia. È quindi prevedibile che in futuro una quota sempre maggiore di lavoratori e consumatori risulteranno esposti a tali sostanze. Allo stato attuale non vi è una completa conoscenza degli effetti tossicologici ed ambientali di queste sostanze, pertanto, al fine di un loro utilizzo in totale sicurezza, risulta necessario capirne meglio l’impatto sulla salute, le vie di penetrazione nel corpo umano e il rischio per i lavoratori conseguente al loro utilizzo o lavorazione. La cute rappresenta la prima barriera nei confronti delle sostanze tossiche che possono entrare in contatto con l’organismo umano. Successivamente agli anni ‘60, quando si riteneva che la cute rappresentasse una barriera totalmente impermeabile, è stato dimostrato come essa presenti differenti gradi di permeabilità nei confronti di alcuni xenobiotici, dipendente dalle caratteristiche delle sostanze in esame, dal sito anatomico di penetrazione, dal grado di integrità della barriera stessa e dall’eventuale presenza di patologie della cute. La mucosa del cavo orale funge da primo filtro nei confronti delle sostanze che entrano in contatto con il tratto digestivo e può venir coinvolta in contaminazioni di superficie determinate da esposizioni occupazionali e/o ambientali. È noto che, rispetto alla cute, presenti una permeabilità all’acqua quattro volte maggiore, e, per tale motivo, è stata studiata come via di somministrazione di farmaci, ma, ad oggi, pochi sono gli studi che ne hanno valutato le caratteristiche di permeazione nei confronti delle nanoparticelle (NPs). Una terza importante barriera biologica è quella che ricopre il sistema nervoso centrale, essa è rappresentata da tre foglietti di tessuto connettivo, che assieme costituiscono le meningi. Questi tre foglietti rivestono completamente l’encefalo permettendone un isolamento, tradizionalmente ritenuto completo, nei confronti degli xenobiotici. L’unica via di assorbimento diretto, in questo contesto, è rappresentata dalla via intranasale. Essa permette un passaggio diretto di sostanze dall’epitelio olfattivo all’encefalo, eludendo la selettiva barriera emato-encefalica. Negli ultimi anni la letteratura scientifica si è arricchita di studi che hanno indagato le caratteristiche di assorbimento di farmaci attraverso questa via, ma pochissimi sono gli studi che hanno indagato la possibile penetrazione di nanoparticelle attraverso questa via, e nessuno, in particolar modo, ha indagato le caratteristiche di permeazione delle meningi. L’attività di ricerca svolta nell’ambito del presente dottorato ha avuto per finalità l’indagine delle caratteristiche di permeabilità e di assorbimento della cute, della mucosa del cavo orale e delle meningi nei confronti di alcune nanoparticelle, scelte fra quelle più rappresentative in relazione alla diffusione d’utilizzo a livello globale. I risultati degli esperimenti condotti hanno dimostrato, in vitro, che l’esposizione cutanea a Pt, Rh, Co3O4 e Ni NPs determinano permeazione in tracce dei medesimi metalli attraverso la cute, mentre per le TiO2 NPs tale permeazione non è stata dimostrata. È stato riscontrato, inoltre, che la mucosa del cavo orale e le meningi sono permeabili nei confronti dell’Ag in forma nanoparticellare.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

INTRODUÇÃO: A prevalência de asma tem crescido e a maioria dos pacientes com asma grave não obtém o controle total dos sintomas com as terapias disponíveis, fazendo-se necessária a busca por novas alternativas terapêuticas. Inibidores de proteinases têm sido estudados como tratamento de processos inflamatórios, dentre eles o Enterolobium contortisiliquum Tripsin Inhibitor (EcTI) OBJETIVO: Avaliar se o inibidor de proteinase EcTI modula a hiperresponsividade brônquica à metacolina, inflamação, remodelamento e estresse oxidativo nas vias aéreas e septos alveolares em um modelo experimental de inflamação pulmonar alérgica crônica. MÉTODOS: Vinte e quatro camundongos Balb/c machos, entre seis e sete semanas de vida, pesando em media 25 g foram divididos em quatro grupos: C (controle), OVA (sensibilizados com ovalbumina, 50 ug intraperironeal (i.p) nos dias 0 e 14 e desafiados nos dias 22, 24, 26, 28); C+EC (controle tratados com EcTI (2 mg/kg/i.p) nos dias 22 a 28); OVA+EC (sensibilizados e desafiados com ovalbumina e também tratados com EcTI (2 mg/kg -i.p) nos dias 22 a 28). No dia 29, foram realizadas realizadas: (i) hiperresponsividade à metacolina e obtidas as respostas máximas de resistência e elastância do sistema respiratório; (ii) análise histopatológica do pulmão para quantificação de eosinófilos, fibras colágenas e elásticas nas vias aéreas (VA) e nos septos alveolares (SA); e (iii) imunohistoquímica para quantificação de células positivas para IFN-y, IL-4, IL-5, IL-13, MMP-9, TIMP-1, TGF-beta, iNOS, NF-kB e fração de volume de isoprostano nas VA e nos SA. Uma semana após o dia 29 foi realizada a técnica de anafilaxia cutanea passiva(PCA) para quantificar IgE e IgG1. A significância foi considerada quando p < 0,05. RESULTADOS: Houve aumento de todos os parâmetros avaliados no grupo OVA em relação ao grupo controle (p < 0,05). Houve atenuação da resposta máxima de Rrs e Ers no grupo OVA+EC comparado as grupo OVA (p < 0,05). O tratamento com EcTI nos animais sensibilizados atenuou o número de eosinófilos, células positivas para IL-4, IL-5, IL-13,IFN-y, iNOS, MMP-9, TIMP-1, NF-kB e TGF-beta e fração de volume de isoprostano, fibras colágenas e elásticas nas vias aéreas e nos séptos alveolares quando comparado ao grupo OVA (p < 0,05).Houve reaçao de PCA nos animais sensibilizados com ovalbumina. CONCLUSÃO: EcTI atenuou a hiperresponsividade brônquica, a inflamação, o remodelamento e o estresse oxidativo nesse modelo experimental de inflamação pulmonar alérgica crônica. Embora sejam necessários mais estudos, esse inibidor pode ser considerado uma futura ferramenta farmacológica para o tratamento de asma

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Para otimizar um modelo experimental para o estudo do desbalanço redox em porfirias relacionadas ao acúmulo de ácido 5-aminolevulínico-(ALA), via inibição da ALA desidratase-(ALA-D), ratos foram tratados com o éster metílico de succinilacetona-(SAME), um catabólito da tirosina que inibe fortemente a ALA-O, mimetízando o estado metabólico observado nos portadores de portirias e tirosinemias. Estabeleceram-se modelos de tratamento agudo por 36 e 18 h. No primeiro, os animais receberam 3 injeções de SAME (10, 40 ou 80 mg/kg, grupos Ali-IV). No segundo, os animais receberam 3 injeções de 40 mg/kg de SAME, ALA ou éster metílico de ALA (grupos BII-IV), ALA:SAME (30: 10 mg/kg, grupo BV), ou 10 mg/kg SAME (grupo BVI). Paralelamente, avaliou-se se os sintomas neurológicos característicos das portirias decorriam de danos oxidativos mitocondriais. Para isso, aplicou-se uma tecnologia óptica para medidas da difusão da depressão cortical que determinou a oxigenação e o estado redox do cit c em mitocôndrias do córtex cerebral de ratos submetidos ao tratamento crônico com ALA (40 mg/kg), SAME (10 e 40 mg/kg) e ALA:SAME (30: 1O mg/kg), a cada 48 h, durante 30 dias. Tratamento agudo/36 h: Os níveis de ALA no plasma, fígado, cérebro e urina e o clearance renal do ALA aumentaram nos grupos tratados. A atividade de ALA-D e a coproporfirina urinária reduziram. A marcação para proteínas carboniladas, ferro e ferritina aumentou no fígado e cérebro dos grupos tratados, especialmente no All. Os níveis de malondialdeído hepático aumentaram no grupo AIV. A razão GSH/GSH+GSSG e a atividade de GPx cerebrais aumentaram nos grupos AIV e AIII, respectivamente. Consistentemente com estes dados indicando um desbalanço oxidativo induzido pelo SAME, alterações mitocondriais e citosólicas ultraestruturais foram reveladas, especialmente no fígado. Tratamento agudo/18 h: Os níveis de ALA plasmáticos aumentaram nos grupos tratados, exceto em BIV. O grupo BII mostrou aumento dos níveis hepáticos de ALA. Interessantemente, a inibição da atividade de ALA-D não foi evidenciada. O conteúdo de ferro plasmático aumentou no grupo BII. Para os grupos tratados com 10 e 40 mg SAME/kg, a atividade de SOD hepática reduziu ~50% com a extensão do tratamento de 18 para 36 h, sugerindo que este último é mais efetivo em promover danos oxidativos induzidos pelo ALA. Tratamento crônico/30 dias: Embora nenhuma alteração tenha sido evidenciada no estado redox dos animais tratados, o tratamento com ALA reduziu o fluxo sanguíneo cerebral (CBF) e o consumo de oxigênio-(CMRO2), sugerindo uma vasoconstrição mediada pelo ALA, efeito este confirmado por ensaios de reatividade vascular conduzidos em anéis de aorta de ratos incubados com ALA. O tratamento com ALA:SAME restaurou os níveis de CBF e CMRO2. Interessantemente, a disponibilidade do radical superóxido-(O2•-) estava reduzida nos anéis de aorta incubados com ALA. Juntos, estes dados: a)validam o modelo de tratamento agudo/36 h para o estudo bioquímico e dos possíveis efeitos fisiológicos induzidos pelo ALA, e b)sugerem que as alterações mediadas pelo ALA exógeno levam à vasoconstrição.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este trabajo se discuten diversos aspectos metodológicos y conceptuales sobre la construcción del dato arqueológico, el rigor en la aplicación de las técnicas estratigráficas, el uso del registro cerámico como fuente histórica y la pertinencia de la propia crítica arqueológica. Estos argumentos se enmarcan en el debate sobre la formación de al-Andalus y la caracterización social de sus poblaciones, suscitado a propósito de mi estudio La Cora de Tudmir: de la Antigüedad Tardía al mundo islámico. Poblamiento y cultura material (CCV 57, Madrid-Alicante, 1996).