75 resultados para Multifunctionality
Resumo:
Mitotische und postmitotische Vorgänge pflanzlicher Zellen basieren auf der Funktion von Mikrotubuli. Es liegen nur wenige gesicherte Erkenntnisse zur Organisation dieser Multifunktionalität vor. Eine zentrale Bedeutung wird bei der Nukleation der Mikrotubuli an MTOCs durch γ-Tubulin zugeschrieben. Deren Zusammenlagerung an MTOCs ist jedoch noch nicht richtig verstanden. Domänen, die an der Proteinoberfläche exponiert werden, könnten in Interaktionen involviert sein. Hier werden im Besonderen der γ-A und γ-B-Peptivmotiv diskutiert. Es wurde das γ-A- und γ-B-Peptidmotiv des γ-Tubulins hinsichtlich einer Konservierung innerhalb des Pflanzenreiches untersucht. Die beiden Bereiche sind bei den grünen Landpflanzen stark konserviert. Sie divergieren stark zu den einzelligen Grünalgen Chlamydomonas reinhardtii und Chlorella spec. Es wurden daher in der bestehenden phylogentischen Lücke weitere Organismen hinsichtlich des γ-A und γ-B Peptidmotivs untersucht. Auswahlkriterien der Organismen waren Ein-/Mehrzelligkeit, Besitz/Abwesenheit von Centriolen und Besitz/Abwesenheit von Geißeln. Des weiteren wurde mit verschiedenen γ-Tubulin-Konstrukten um das γ-A- und γ-B-Peptidmotiv, gewonnen aus Nicotiana tabacum (BY2) mittels Y2H-System nach Interaktionspartnern gesucht. Bei den Sequenzuntersuchungen des γ-A- und γ-B-Peptidmotivs konnte festgestellt werden, dass die Konservierung innerhalb der Streptophytenlinie erfolgt. Interessant erweist sich die Tatsache, dass dieses Motiv bei den Jochalgen, welche ebenfalls den Streptophyten angehören, nur im γ-A-Peptidmotiv auftritt. Es besteht die Möglichkeit, dass die beiden potentiellen Interaktionspartner verschiedene Proteine als Interaktions-partner besitzen. Durch eine Anwendung eines auf dem GAL4-Protein basierenden Y2H-Systems mit vier unterschiedlichen Konstrukten des γ-Tubulin-A/B-Peptidbereichs als Köder-konstrukt und einer cDNA-Bibliothek als Beutekonstrukt, wurden diverse Sequenzen identifiziert. Identifiziert wurden das Poly(A)-Bindeprotein, Glycerin-aldehyd-3-phosphatdehydrogenase, die S-adenosyl-L-methionine-Synthetase, diverse Proteasom-Untereinheiten, eine sekretorische Peroxidase, eine Ascorbat-Peroxidase, die NtPOX1-Peroxidase und verschiedene Peroxidasen aus Nicotiana tabacum, Sequenzen des Chloroplastengenoms, ein Myosin-ähnliches Protein und eine Sequenz auf dem 5. Chromosom des Medicago truncatula-Klons mth2-16f8 und diverse humane Sequenzen der Proteine DKFZp68 und DKFZp77. Die Ergebnisse weisen auf eine komplexe Funktionsweise der unterschiedlichen Komponenten des pflanzlichen Cytoskeletts und des γ-Tubulins hin. Zur Aufklärung müsste dies in Zukunft mittels anderer genetischer, biochemischer oder funktioneller Methoden untersucht werden. Hypothesen über Interaktionen der Cytoskelettkomponenten können wahrscheinlich nicht allein durch die Anwendung des Y2H-Systems aufgeklärt werden.
Resumo:
Im Mittelpunkt dieser Arbeit stand das große L-Hüllprotein (L) des Hepatitis B - Virus. L bildet eine ungewöhnliche duale Topologie in der ER-Membran aus, welche auch im reifen Viruspartikel erhalten bleibt. In einem partiellen, posttranslationalen Reifungsprozess wird die sogenannte PräS-Region von der zytosolischen Seite der Membran aus in das ER-Lumen transloziert. Aufgrund seiner dualen Topologie und der damit verbundenen Multifunktionalität übernimmt L eine Schlüsselfunktion im viralen Lebenszyklus. Ein Schwerpunkt dieser Arbeit lag deshalb darin, neue zelluläre Interaktionspartner des L-Hüllproteins zu identifizieren. Ihre Analyse sollte helfen, das Zusammenspiel des Virus mit der Wirtszelle besser zu verstehen. Hierfür wurde das Split - Ubiquitin Hefe - Zwei - Hybrid System eingesetzt, das die Interaktionsanalyse von Membranproteinen und Membran-assoziierten Proteinen ermöglicht. Zwei der neu identifizierten Interaktionspartner, der v-SNARE Bet1 und Sec24A, die Cargo-bindende Untereinheit des CoPII-vermittelten vesikulären Transports, wurden weitergehend im humanen Zellkultursystem untersucht. Sowohl für Bet1 als auch für Sec24A konnte die Interaktion mit dem L-Hüllprotein bestätigt und der Bindungsbereich eingegrenzt werden. Die Depletion des endogenen Bet1 reduzierte die Freisetzung L-haltiger, nicht aber S-haltiger subviraler Partikel (SVP) deutlich. Im Gegensatz zu Bet1 interagierte Sec24A auch mit dem mittleren M- und kleinen S-Hüllprotein von HBV. Die Inhibition des CoPII-vermittelten vesikulären Transportweges durch kombinierte Depletion der vier Sec24 Isoformen blockierte die Freisetzung sowohl L- als auch S-haltiger SVP. Dies bedeutet, dass die HBV - Hüllproteine das ER CoPII-vermittelt verlassen, wobei sie aktiv Kontakt zur Cargo-bindenden Untereinheit Sec24A aufnehmen. Der effiziente Export der Hüllproteine aus dem ER ist für die Virusmorphogenese und somit für den HBV - Lebenszyklus essentiell. rnEin weiterer Schwerpunkt dieser Arbeit basierte auf der Interaktion des L-Hüllproteins mit dem ER-luminalen Chaperon BiP. In der vorliegenden Arbeit wurde überprüft, ob BiP, ähnlich wie das zytosolische Chaperon Hsc70, an der Ausbildung der dualen Topologie des L-Hüllproteins beteiligt ist. Hierfür wurde BiP durch die ektopische Expression seiner Ko-Chaperone BAP und ERdj4 in seiner Substrat-bindenen Kapazität manipuliert. ERdj4, ein Mitglied der Hsp40 - Proteinfamilie, stimuliert die ATPase-Aktivität von BiP, was die Substratbindung stabilisiert. Der Nukleotid - Austauschfaktor BAP hingegen vermittelt die Auflösung des BiP - Substrat - Komplexes. Die Auswirkung der veränderten in vivo-Aktivität von BiP auf die posttranslationale PräS-Translokation wurde mit Proteaseschutz - Versuchen untersucht. Die ektopische Expression des positiven als auch des negativen Regulators von BiP resultierte in einer drastischen Reduktion der posttranslationalen PräS-Translokation. Ein vergleichbarer Effekt wurde nach Manipulation des BiP ATPase - Zyklus durch Depletion der zellulären ATP - Konzentration beobachtet. Dies spricht dafür, dass das ER-luminale Chaperon BiP, zusammen mit Hsc70, eine zentrale Rolle in der Ausbildung der dualen Topologie des L-Hüllproteins spielt. rnZwei weitere Proteine, Sec62 und Sec63, die sich für die posttranslationale Translokation in der Hefe als essentiell erwiesen haben, wurden in die Analyse der dualen Topologie des L-Hüllproteins einbezogen. Interessanterweise konnte eine rein luminale Ausrichtung der PräS-Region nach kombinierter Depletion des endogenen Sec62 und Sec63 beobachtet werden. Dies deutet an, dass sowohl Sec62 als auch Sec63 an der Ausbildung der dualen Topologie des L-Hüllproteins beteiligt sind. In Analogie zur Posttranslokation der Hefe könnte Sec62 als Translokon-assoziierter Rezeptor für Substrate der Posttranslokation, und damit der PräS-Region, dienen. Sec63 könnte mit seiner J-Domäne BiP zum Translokon rekrutieren und daraufhin dessen Substrat-bindende Aktivität stimulieren. BiP würde dann, einer molekularen Ratsche gleich, die PräS-Region durch wiederholtes Binden und Freisetzen aktiv in das ER-Lumen hereinziehen, bis eine stabile duale Topologie des L-Hüllproteins ausgebildet ist. Die Bedeutung von Sec62 und Sec63 für den HBV - Lebenszyklus wird dadurch untermauert, dass sowohl die ektopische Expression als auch die Depletion des endogenen Sec63 die Freisetzung L-haltiger SVP deutlich reduziert. rn
Resumo:
Die Positronen-Emissions-Tomographie (PET) ist ein leistungsstarkes, nicht-invasives, bildgebendes Verfahren in der Nuklearmedizin und hat darüber hinaus zunehmende Bedeutung in der Arzneistoffentwicklung. Zur Verbesserung des therapeutischen Index von niedermolekularen Pharmaka werden vermehrt Wirkstofftransportsysteme eingesetzt. Eine Klasse dieser Wirkstofftransportsysteme sind Liposomen. Die Weiterentwicklung der klassischen Liposomen sind sogenannte „Stealth“-Liposomen, die eine Polyethylenglykol (PEG)-Korona zur Herabsetzung der Erkennung und Ausscheidung tragen. Zur (Weiter-)Entwicklung und deren in vivo-Evaluierung bietet die PET die Möglichkeit, die Auswirkungen von strukturellen Anpassungen auf die pharmakokinetischen Eigenschaften solcher Transportsysteme zu untersuchen. Zur Evaluierung neuartiger, cholesterolverankerter, linear-hyperverzweigter Polyglycerole (Ch-PEG-hbPG) als sterisch stabilisierende Polymere in Liposomen wurden diese im Rahmen dieser Arbeit mit der prosthetischen Gruppe 18F-TEG-N3 über kupferkatalysierte Alkin-Azid Cycloaddition (CuAAC) in sehr hohen Ausbeuten radiomarkiert. Zum systematischen Vergleich des in vivo-Verhaltens wurde ebenfalls ein cholesterolbasiertes lineares PEG (Ch-PEG) mit CuAAC nahezu quantitativ radiomarkiert. Als drittes Element wurde die Direktmarkierung von Cholesterol mit [18F]F- entwickelt. Diese drei Verbindungen wurden zuerst separat als Einzelkomponenten und anschließend, in Liposomen formuliert, in Tierstudien an Mäusen hinsichtlich ihrer initialen Pharmakokinetik und Biodistribution untersucht. Dabei zeigte sich ein ähnliches Verhalten der neuartigen Ch-PEG-hbPG-Derivate zu den bekannten Ch-PEG, mit dem Vorteil der Multifunktionalität an den hyperverzweigten Strukturen. Die liposomalen Strukturen mit der neuartigen sterischen Stabilisierung wiesen eine erhöhte Blutzirkulationszeit und vorteilhafte Blut-zu-Leber- und Blut-zu-Lunge-Verhältnisse im Vergleich zu den linear stabilisierten Analoga auf.rnEine weitere Klasse von Wirkstofftransportsystemen sind polymere Trägersysteme wie pHPMA. Alkinfunktionalisierte Polymere konnten in zwei verschiedenen Größen (~12 und 60 kDa) mittels CuAAC in sehr hohen Ausbeuten mit der prosthetischen Gruppe 18F-TEG-N3 radiomarkiert werden. Bicyclononinderivate der gleichen Größen konnten ohne Kupferkatalyse über ringspannungsvermittelte Alkin-Azid-Cycloaddition (SPAAC) mikrowellengestützt markiert werden und stehen somit zur in vivo-Untersuchung hinsichtlich des Einflusses der Markierungsart zur Verfügung.
Resumo:
Since September 2000, when world leaders agreed on time-bound, measurable goals to reduce extreme poverty, hunger, illiteracy, and disease while fostering gender equality and ensuring environmental sustainability, the Millennium Development Goals (MDGs) have increasingly come to dominate the policy objectives of many states and development agencies. The concern has been raised that the tight timeframe and financial restrictions might force governments to invest in the more productive sectors, thus compromising the quality and sustainability of development efforts. In the long term, this may lead to even greater inequality, especially between geographical regions and social strata. Hence people living in marginal areas, for example in remote mountain regions, and minority peoples risk being disadvantaged by this internationally agreed agenda. Strategies to overcome hunger and poverty in their different dimensions in mountain areas need to focus on strengthening the economy of small-scale farmers, while also fostering the sustainable use of natural resources, taking into consideration their multifunctionality.
Resumo:
BACKGROUND: The outer membrane protein M35 is a conserved porin of type 1 strains of the respiratory pathogen Moraxella catarrhalis. It was previously shown that M35 is involved in the uptake of essential nutrients required for bacterial growth and for nasal colonization in mice. The aim of this study was (i) to characterize the potential roles of M35 in the host-pathogen interactions considering the known multifunctionality of porins and (ii) to characterize the degree of conservation in the phylogenetic older subpopulation (type 2) of M. catarrhalis. RESULTS: Isogenic m35 mutants of the type 1 strains O35E, 300 and 415 were tested for their antimicrobial susceptibility against 15 different agents. Differences in the MIC (Minimum Inhibitory Concentration) between wild-type and mutant strains were found for eight antibiotics. For ampicillin and amoxicillin, we observed a statistically significant 2.5 to 2.9-fold MIC increase (p < 0.03) in the m35 mutants. Immunoblot analysis demonstrated that human saliva contains anti-M35 IgA. Wild-type strains and their respective m35 mutants were indistinguishable with respect to the phenotypes of autoagglutination, serum resistance, iron acquisition from human lactoferrin, adherence to and invasion of respiratory tract epithelial cells, and proinflammatory stimulation of human monocytes. DNA sequencing of m35 from the phylogenetic subpopulation type 2 strain 287 revealed 94.2% and 92.8% identity on the DNA and amino acid levels, respectively, in comparison with type 1 strains. CONCLUSION: The increase in MIC for ampicillin and amoxicillin, respectively, in the M35-deficient mutants indicates that this porin affects the outer membrane permeability for aminopenicillins in a clinically relevant manner. The presence of IgA antibodies in healthy human donors indicates that M35 is expressed in vivo and recognized as a mucosal antigen by the human host. However, immunoblot analysis of human saliva suggests the possibility of antigenic variation of immunoreactive epitopes, which warrants further analysis before M35 can be considered a potential vaccine candidate.
Resumo:
In the course of the biodiversity-ecosystem functioning debate, the issue of multifunctionality of species communities has recently become a major focus. Elemental stoichiometry is related to a variety of processes reflecting multiple plant responses to the biotic and abiotic environment. It can thus be expected that the diversity of a plant assemblage alters community level plant tissue chemistry. We explored elemental stoichiometry in aboveground plant tissue (ratios of carbon, nitrogen, phosphorus, and potassium) and its relationship to plant diversity in a 5-year study in a large grassland biodiversity experiment (Jena Experiment). Species richness and functional group richness affected community stoichiometry, especially by increasing C:P and N:P ratios. The primacy of either species or functional group richness effects depended on the sequence of testing these terms, indicating that both aspects of richness were congruent and complementary to expected strong effects of legume presence and grass presence on plant chemical composition. Legumes and grasses had antagonistic effects on C:N (−27.7% in the presence of legumes, +32.7% in the presence of grasses). In addition to diversity effects on mean ratios, higher species richness consistently decreased the variance of chemical composition for all elemental ratios. The diversity effects on plant stoichiometry has several non-exclusive explanations: The reduction in variance can reflect a statistical averaging effect of species with different chemical composition or a optimization of nutrient uptake at high diversity, leading to converging ratios at high diversity. The shifts in mean ratios potentially reflect higher allocation to stem tissue as plants grew taller at higher richness. By showing a first link between plant diversity and stoichiometry in a multiyear experiment, our results indicate that losing plant species from grassland ecosystems will lead to less reliable chemical composition of forage for herbivorous consumers and belowground litter input.
Resumo:
Due to their biodiversity, forests generate a range of products and services that are of economic, social or cultural value to human beings. Natural resource management provisions should ensure the creation and maintenance of these goods and services in the long term. However, unsustainable management practices of forests do not only generate short-term benefits but also considerable costs for society. Payment by the beneficiaries of the services would enable us to internalise external costs and promote sustainable management. Two days of conferences on ”Forest and water”, on the multifunctionality of forests, on interactions between forests and water, on sustainable resource management, on payments for environmental services, their institutional and economic perspectives, were the basis of this brochure which presents an in-depth analysis of the information exchanged among conference participants and the public. It is intended for readers who work in international development cooperation and assistance in Switzerland and abroad. It offers additional information for local programmes in the field and at policy level.
Resumo:
Plant nonspecific lipid transfer proteins (nsLTPs) bind a wide variety of lipids, which allows them to perform disparate functions. Recent reports on their multifunctionality in plant growth processes have posed new questions on the versatile binding abilities of these proteins. The lack of binding specificity has been customarily explained in qualitative terms on the basis of a supposed structural flexibility and nonspecificity of hydrophobic protein-ligand interactions. We present here a computational study of protein-ligand complexes formed between five nsLTPs and seven lipids bound in two different ways in every receptor protein. After optimizing geometries inmolecular dynamics calculations, we computed Poisson- Boltzmann electrostatic potentials, solvation energies, properties of the protein-ligand interfaces, and estimates of binding free energies of the resulting complexes. Our results provide the first quantitative information on the ligand abilities of nsLTPs, shed new light into protein-lipid interactions, and reveal new features which supplement commonly held assumptions on their lack of binding specificity.
Resumo:
Esta tesis doctoral contribuye al análisis y desarrollo de nuevos elementos constructivos que integran sistemas de generación eléctrica a través de células fotovoltaicas (FV); particularmente, basados en tecnología FV de lámina delgada. Para ello se estudia el proceso de la integración arquitectónica de éstos elementos (conocido internacionalmente como “Building Integrated Photovoltaic – BIPV”) mediante diferentes metodologías. Se inicia con el estudio de los elementos fotovoltaicos existentes y continúa con los materiales que conforman actualmente las pieles de los edificios y su posible adaptación a las diferentes tecnologías. Posteriormente, se propone una estrategia de integración de los elementos FV en los materiales constructivos. En ésta se considera la doble función de los elementos BIPV, eléctrica y arquitectónica, y en especial se plantea el estudio de la integración de elementos de disipación térmica y almacenamiento de calor mediante los materiales de cambio de fase (“Phase Change Materials – PCM”), todo esto con el objeto de favorecer el acondicionamiento térmico pasivo a través del elemento BIPV. Para validar dicha estrategia, se desarrolla una metodología experimental que consiste en el diseño y desarrollo de un prototipo denominado elemento BIPV/TF – PCM, así como un método de medida y caracterización en condiciones de laboratorio. Entre los logros alcanzados, destaca la multifuncionalidad de los elementos BIPV, el aprovechamiento de la energía residual del elemento, la reducción de los excedentes térmicos que puedan modificar el balance térmico de la envolvente del edificio, y las mejoras conseguidas en la producción eléctrica de los módulos fotovoltaicos por reducción de temperatura, lo que hará más sostenible la solución BIPV. Finalmente, como resultado del análisis teórico y experimental, esta tesis contribuye significativamente al estudio práctico de la adaptabilidad de los elementos BIPV en el entorno urbano por medio de una metodología que se basa en el desarrollo y puesta en marcha de una herramienta informática, que sirve tanto a ingenieros como arquitectos para verificar la calidad de la integración arquitectónica y calidad eléctrica de los elementos FV, antes, durante y después de la ejecución de un proyecto constructivo. ABSTRACT This Doctoral Thesis contributes to the analysis and development of new building elements that integrate power generation systems using photovoltaic solar cells (PV), particularly based on thin-film PV technology. For this propose, the architectural integration process is studied (concept known as "Building Integrated Photovoltaic - BIPV") by means of different methodologies. It begins with the study of existing PV elements and materials that are currently part of the building skins and the possible adaptation to different technologies. Subsequently, an integration strategy of PV elements in building materials is proposed. Double function of BIPV elements is considered, electrical and architectural, especially the heat dissipation and heat storage elements are studied, particularly the use Phase Change Materials– PCM in order to favor the thermal conditioning of buildings by means of the BIPV elements. For this propose, an experimental methodology is implemented, which consist of the design and develop of a prototype "BIPV/TF- PCM element" and measurement method (indoor laboratory conditions) in order to validate this strategy. Among the most important achievements obtained of this develop and results analysis includes, in particular, the multifunctionality of BIPV elements, the efficient use of the residual energy of the element, reduction of the excess heat that it can change the heat balance of the building envelope and improvements in electricity production of PV modules by reducing the temperature, are some benefits achieved that make the BIPV element will be more sustainable. Finally, as a result of theoretical and experimental analysis, this thesis contributes significantly to the practical study of the adaptability of BIPV elements in the urban environment by means of a novel methodology based on the development and implementation by computer software of a useful tool which serves as both engineers and architects to verify the quality of architectural integration and electrical performance of PV elements before, during, and after execution of a building projects.
Resumo:
El presente Trabajo fin Fin de Máster, versa sobre una caracterización preliminar del comportamiento de un robot de tipo industrial, configurado por 4 eslabones y 4 grados de libertad, y sometido a fuerzas de mecanizado en su extremo. El entorno de trabajo planteado es el de plantas de fabricación de piezas de aleaciones de aluminio para automoción. Este tipo de componentes parte de un primer proceso de fundición que saca la pieza en bruto. Para series medias y altas, en función de las propiedades mecánicas y plásticas requeridas y los costes de producción, la inyección a alta presión (HPDC) y la fundición a baja presión (LPC) son las dos tecnologías más usadas en esta primera fase. Para inyección a alta presión, las aleaciones de aluminio más empleadas son, en designación simbólica según norma EN 1706 (entre paréntesis su designación numérica); EN AC AlSi9Cu3(Fe) (EN AC 46000) , EN AC AlSi9Cu3(Fe)(Zn) (EN AC 46500), y EN AC AlSi12Cu1(Fe) (EN AC 47100). Para baja presión, EN AC AlSi7Mg0,3 (EN AC 42100). En los 3 primeros casos, los límites de Silicio permitidos pueden superan el 10%. En el cuarto caso, es inferior al 10% por lo que, a los efectos de ser sometidas a mecanizados, las piezas fabricadas en aleaciones con Si superior al 10%, se puede considerar que son equivalentes, diferenciándolas de la cuarta. Las tolerancias geométricas y dimensionales conseguibles directamente de fundición, recogidas en normas como ISO 8062 o DIN 1688-1, establecen límites para este proceso. Fuera de esos límites, las garantías en conseguir producciones con los objetivos de ppms aceptados en la actualidad por el mercado, obligan a ir a fases posteriores de mecanizado. Aquellas geometrías que, funcionalmente, necesitan disponer de unas tolerancias geométricas y/o dimensionales definidas acorde a ISO 1101, y no capaces por este proceso inicial de moldeado a presión, deben ser procesadas en una fase posterior en células de mecanizado. En este caso, las tolerancias alcanzables para procesos de arranque de viruta se recogen en normas como ISO 2768. Las células de mecanizado se componen, por lo general, de varios centros de control numérico interrelacionados y comunicados entre sí por robots que manipulan las piezas en proceso de uno a otro. Dichos robots, disponen en su extremo de una pinza utillada para poder coger y soltar las piezas en los útiles de mecanizado, las mesas de intercambio para cambiar la pieza de posición o en utillajes de equipos de medición y prueba, o en cintas de entrada o salida. La repetibilidad es alta, de centésimas incluso, definida según norma ISO 9283. El problema es que, estos rangos de repetibilidad sólo se garantizan si no se hacen esfuerzos o éstos son despreciables (caso de mover piezas). Aunque las inercias de mover piezas a altas velocidades hacen que la trayectoria intermedia tenga poca precisión, al inicio y al final (al coger y dejar pieza, p.e.) se hacen a velocidades relativamente bajas que hacen que el efecto de las fuerzas de inercia sean menores y que permiten garantizar la repetibilidad anteriormente indicada. No ocurre así si se quitara la garra y se intercambia con un cabezal motorizado con una herramienta como broca, mandrino, plato de cuchillas, fresas frontales o tangenciales… Las fuerzas ejercidas de mecanizado generarían unos pares en las uniones tan grandes y tan variables que el control del robot no sería capaz de responder (o no está preparado, en un principio) y generaría una desviación en la trayectoria, realizada a baja velocidad, que desencadenaría en un error de posición (ver norma ISO 5458) no asumible para la funcionalidad deseada. Se podría llegar al caso de que la tolerancia alcanzada por un pretendido proceso más exacto diera una dimensión peor que la que daría el proceso de fundición, en principio con mayor variabilidad dimensional en proceso (y por ende con mayor intervalo de tolerancia garantizable). De hecho, en los CNCs, la precisión es muy elevada, (pudiéndose despreciar en la mayoría de los casos) y no es la responsable de, por ejemplo la tolerancia de posición al taladrar un agujero. Factores como, temperatura de la sala y de la pieza, calidad constructiva de los utillajes y rigidez en el amarre, error en el giro de mesas y de colocación de pieza, si lleva agujeros previos o no, si la herramienta está bien equilibrada y el cono es el adecuado para el tipo de mecanizado… influyen más. Es interesante que, un elemento no específico tan común en una planta industrial, en el entorno anteriormente descrito, como es un robot, el cual no sería necesario añadir por disponer de él ya (y por lo tanto la inversión sería muy pequeña), puede mejorar la cadena de valor disminuyendo el costo de fabricación. Y si se pudiera conjugar que ese robot destinado a tareas de manipulación, en los muchos tiempos de espera que va a disfrutar mientras el CNC arranca viruta, pudiese coger un cabezal y apoyar ese mecanizado; sería doblemente interesante. Por lo tanto, se antoja sugestivo poder conocer su comportamiento e intentar explicar qué sería necesario para llevar esto a cabo, motivo de este trabajo. La arquitectura de robot seleccionada es de tipo SCARA. La búsqueda de un robot cómodo de modelar y de analizar cinemática y dinámicamente, sin limitaciones relevantes en la multifuncionalidad de trabajos solicitados, ha llevado a esta elección, frente a otras arquitecturas como por ejemplo los robots antropomórficos de 6 grados de libertad, muy populares a nivel industrial. Este robot dispone de 3 uniones, de las cuales 2 son de tipo par de revolución (1 grado de libertad cada una) y la tercera es de tipo corredera o par cilíndrico (2 grados de libertad). La primera unión, de tipo par de revolución, sirve para unir el suelo (considerado como eslabón número 1) con el eslabón número 2. La segunda unión, también de ese tipo, une el eslabón número 2 con el eslabón número 3. Estos 2 brazos, pueden describir un movimiento horizontal, en el plano X-Y. El tercer eslabón, está unido al eslabón número 4 por la unión de tipo corredera. El movimiento que puede describir es paralelo al eje Z. El robot es de 4 grados de libertad (4 motores). En relación a los posibles trabajos que puede realizar este tipo de robot, su versatilidad abarca tanto operaciones típicas de manipulación como operaciones de arranque de viruta. Uno de los mecanizados más usuales es el taladrado, por lo cual se elige éste para su modelización y análisis. Dentro del taladrado se elegirá para acotar las fuerzas, taladrado en macizo con broca de diámetro 9 mm. El robot se ha considerado por el momento que tenga comportamiento de sólido rígido, por ser el mayor efecto esperado el de los pares en las uniones. Para modelar el robot se utiliza el método de los sistemas multicuerpos. Dentro de este método existen diversos tipos de formulaciones (p.e. Denavit-Hartenberg). D-H genera una cantidad muy grande de ecuaciones e incógnitas. Esas incógnitas son de difícil comprensión y, para cada posición, hay que detenerse a pensar qué significado tienen. Se ha optado por la formulación de coordenadas naturales. Este sistema utiliza puntos y vectores unitarios para definir la posición de los distintos cuerpos, y permite compartir, cuando es posible y se quiere, para definir los pares cinemáticos y reducir al mismo tiempo el número de variables. Las incógnitas son intuitivas, las ecuaciones de restricción muy sencillas y se reduce considerablemente el número de ecuaciones e incógnitas. Sin embargo, las coordenadas naturales “puras” tienen 2 problemas. El primero, que 2 elementos con un ángulo de 0 o 180 grados, dan lugar a puntos singulares que pueden crear problemas en las ecuaciones de restricción y por lo tanto han de evitarse. El segundo, que tampoco inciden directamente sobre la definición o el origen de los movimientos. Por lo tanto, es muy conveniente complementar esta formulación con ángulos y distancias (coordenadas relativas). Esto da lugar a las coordenadas naturales mixtas, que es la formulación final elegida para este TFM. Las coordenadas naturales mixtas no tienen el problema de los puntos singulares. Y la ventaja más importante reside en su utilidad a la hora de aplicar fuerzas motrices, momentos o evaluar errores. Al incidir sobre la incógnita origen (ángulos o distancias) controla los motores de manera directa. El algoritmo, la simulación y la obtención de resultados se ha programado mediante Matlab. Para realizar el modelo en coordenadas naturales mixtas, es preciso modelar en 2 pasos el robot a estudio. El primer modelo se basa en coordenadas naturales. Para su validación, se plantea una trayectoria definida y se analiza cinemáticamente si el robot satisface el movimiento solicitado, manteniendo su integridad como sistema multicuerpo. Se cuantifican los puntos (en este caso inicial y final) que configuran el robot. Al tratarse de sólidos rígidos, cada eslabón queda definido por sus respectivos puntos inicial y final (que son los más interesantes para la cinemática y la dinámica) y por un vector unitario no colineal a esos 2 puntos. Los vectores unitarios se colocan en los lugares en los que se tenga un eje de rotación o cuando se desee obtener información de un ángulo. No son necesarios vectores unitarios para medir distancias. Tampoco tienen por qué coincidir los grados de libertad con el número de vectores unitarios. Las longitudes de cada eslabón quedan definidas como constantes geométricas. Se establecen las restricciones que definen la naturaleza del robot y las relaciones entre los diferentes elementos y su entorno. La trayectoria se genera por una nube de puntos continua, definidos en coordenadas independientes. Cada conjunto de coordenadas independientes define, en un instante concreto, una posición y postura de robot determinada. Para conocerla, es necesario saber qué coordenadas dependientes hay en ese instante, y se obtienen resolviendo por el método de Newton-Rhapson las ecuaciones de restricción en función de las coordenadas independientes. El motivo de hacerlo así es porque las coordenadas dependientes deben satisfacer las restricciones, cosa que no ocurre con las coordenadas independientes. Cuando la validez del modelo se ha probado (primera validación), se pasa al modelo 2. El modelo número 2, incorpora a las coordenadas naturales del modelo número 1, las coordenadas relativas en forma de ángulos en los pares de revolución (3 ángulos; ϕ1, ϕ 2 y ϕ3) y distancias en los pares prismáticos (1 distancia; s). Estas coordenadas relativas pasan a ser las nuevas coordenadas independientes (sustituyendo a las coordenadas independientes cartesianas del modelo primero, que eran coordenadas naturales). Es necesario revisar si el sistema de vectores unitarios del modelo 1 es suficiente o no. Para este caso concreto, se han necesitado añadir 1 vector unitario adicional con objeto de que los ángulos queden perfectamente determinados con las correspondientes ecuaciones de producto escalar y/o vectorial. Las restricciones habrán de ser incrementadas en, al menos, 4 ecuaciones; una por cada nueva incógnita. La validación del modelo número 2, tiene 2 fases. La primera, al igual que se hizo en el modelo número 1, a través del análisis cinemático del comportamiento con una trayectoria definida. Podrían obtenerse del modelo 2 en este análisis, velocidades y aceleraciones, pero no son necesarios. Tan sólo interesan los movimientos o desplazamientos finitos. Comprobada la coherencia de movimientos (segunda validación), se pasa a analizar cinemáticamente el comportamiento con trayectorias interpoladas. El análisis cinemático con trayectorias interpoladas, trabaja con un número mínimo de 3 puntos máster. En este caso se han elegido 3; punto inicial, punto intermedio y punto final. El número de interpolaciones con el que se actúa es de 50 interpolaciones en cada tramo (cada 2 puntos máster hay un tramo), resultando un total de 100 interpolaciones. El método de interpolación utilizado es el de splines cúbicas con condición de aceleración inicial y final constantes, que genera las coordenadas independientes de los puntos interpolados de cada tramo. Las coordenadas dependientes se obtienen resolviendo las ecuaciones de restricción no lineales con el método de Newton-Rhapson. El método de las splines cúbicas es muy continuo, por lo que si se desea modelar una trayectoria en el que haya al menos 2 movimientos claramente diferenciados, es preciso hacerlo en 2 tramos y unirlos posteriormente. Sería el caso en el que alguno de los motores se desee expresamente que esté parado durante el primer movimiento y otro distinto lo esté durante el segundo movimiento (y así sucesivamente). Obtenido el movimiento, se calculan, también mediante fórmulas de diferenciación numérica, las velocidades y aceleraciones independientes. El proceso es análogo al anteriormente explicado, recordando la condición impuesta de que la aceleración en el instante t= 0 y en instante t= final, se ha tomado como 0. Las velocidades y aceleraciones dependientes se calculan resolviendo las correspondientes derivadas de las ecuaciones de restricción. Se comprueba, de nuevo, en una tercera validación del modelo, la coherencia del movimiento interpolado. La dinámica inversa calcula, para un movimiento definido -conocidas la posición, velocidad y la aceleración en cada instante de tiempo-, y conocidas las fuerzas externas que actúan (por ejemplo el peso); qué fuerzas hay que aplicar en los motores (donde hay control) para que se obtenga el citado movimiento. En la dinámica inversa, cada instante del tiempo es independiente de los demás y tiene una posición, una velocidad y una aceleración y unas fuerzas conocidas. En este caso concreto, se desean aplicar, de momento, sólo las fuerzas debidas al peso, aunque se podrían haber incorporado fuerzas de otra naturaleza si se hubiese deseado. Las posiciones, velocidades y aceleraciones, proceden del cálculo cinemático. El efecto inercial de las fuerzas tenidas en cuenta (el peso) es calculado. Como resultado final del análisis dinámico inverso, se obtienen los pares que han de ejercer los cuatro motores para replicar el movimiento prescrito con las fuerzas que estaban actuando. La cuarta validación del modelo consiste en confirmar que el movimiento obtenido por aplicar los pares obtenidos en la dinámica inversa, coinciden con el obtenido en el análisis cinemático (movimiento teórico). Para ello, es necesario acudir a la dinámica directa. La dinámica directa se encarga de calcular el movimiento del robot, resultante de aplicar unos pares en motores y unas fuerzas en el robot. Por lo tanto, el movimiento real resultante, al no haber cambiado ninguna condición de las obtenidas en la dinámica inversa (pares de motor y fuerzas inerciales debidas al peso de los eslabones) ha de ser el mismo al movimiento teórico. Siendo así, se considera que el robot está listo para trabajar. Si se introduce una fuerza exterior de mecanizado no contemplada en la dinámica inversa y se asigna en los motores los mismos pares resultantes de la resolución del problema dinámico inverso, el movimiento real obtenido no es igual al movimiento teórico. El control de lazo cerrado se basa en ir comparando el movimiento real con el deseado e introducir las correcciones necesarias para minimizar o anular las diferencias. Se aplican ganancias en forma de correcciones en posición y/o velocidad para eliminar esas diferencias. Se evalúa el error de posición como la diferencia, en cada punto, entre el movimiento teórico deseado en el análisis cinemático y el movimiento real obtenido para cada fuerza de mecanizado y una ganancia concreta. Finalmente, se mapea el error de posición obtenido para cada fuerza de mecanizado y las diferentes ganancias previstas, graficando la mejor precisión que puede dar el robot para cada operación que se le requiere, y en qué condiciones. -------------- This Master´s Thesis deals with a preliminary characterization of the behaviour for an industrial robot, configured with 4 elements and 4 degrees of freedoms, and subjected to machining forces at its end. Proposed working conditions are those typical from manufacturing plants with aluminium alloys for automotive industry. This type of components comes from a first casting process that produces rough parts. For medium and high volumes, high pressure die casting (HPDC) and low pressure die casting (LPC) are the most used technologies in this first phase. For high pressure die casting processes, most used aluminium alloys are, in simbolic designation according EN 1706 standard (between brackets, its numerical designation); EN AC AlSi9Cu3(Fe) (EN AC 46000) , EN AC AlSi9Cu3(Fe)(Zn) (EN AC 46500), y EN AC AlSi12Cu1(Fe) (EN AC 47100). For low pressure, EN AC AlSi7Mg0,3 (EN AC 42100). For the 3 first alloys, Si allowed limits can exceed 10% content. Fourth alloy has admisible limits under 10% Si. That means, from the point of view of machining, that components made of alloys with Si content above 10% can be considered as equivalent, and the fourth one must be studied separately. Geometrical and dimensional tolerances directly achievables from casting, gathered in standards such as ISO 8062 or DIN 1688-1, establish a limit for this process. Out from those limits, guarantees to achieve batches with objetive ppms currently accepted by market, force to go to subsequent machining process. Those geometries that functionally require a geometrical and/or dimensional tolerance defined according ISO 1101, not capable with initial moulding process, must be obtained afterwards in a machining phase with machining cells. In this case, tolerances achievables with cutting processes are gathered in standards such as ISO 2768. In general terms, machining cells contain several CNCs that they are interrelated and connected by robots that handle parts in process among them. Those robots have at their end a gripper in order to take/remove parts in machining fixtures, in interchange tables to modify position of part, in measurement and control tooling devices, or in entrance/exit conveyors. Repeatibility for robot is tight, even few hundredths of mm, defined according ISO 9283. Problem is like this; those repeatibilty ranks are only guaranteed when there are no stresses or they are not significant (f.e. due to only movement of parts). Although inertias due to moving parts at a high speed make that intermediate paths have little accuracy, at the beginning and at the end of trajectories (f.e, when picking part or leaving it) movement is made with very slow speeds that make lower the effect of inertias forces and allow to achieve repeatibility before mentioned. It does not happens the same if gripper is removed and it is exchanged by an spindle with a machining tool such as a drilling tool, a pcd boring tool, a face or a tangential milling cutter… Forces due to machining would create such big and variable torques in joints that control from the robot would not be able to react (or it is not prepared in principle) and would produce a deviation in working trajectory, made at a low speed, that would trigger a position error (see ISO 5458 standard) not assumable for requested function. Then it could be possible that tolerance achieved by a more exact expected process would turn out into a worst dimension than the one that could be achieved with casting process, in principle with a larger dimensional variability in process (and hence with a larger tolerance range reachable). As a matter of fact, accuracy is very tight in CNC, (its influence can be ignored in most cases) and it is not the responsible of, for example position tolerance when drilling a hole. Factors as, room and part temperature, manufacturing quality of machining fixtures, stiffness at clamping system, rotating error in 4th axis and part positioning error, if there are previous holes, if machining tool is properly balanced, if shank is suitable for that machining type… have more influence. It is interesting to know that, a non specific element as common, at a manufacturing plant in the enviroment above described, as a robot (not needed to be added, therefore with an additional minimum investment), can improve value chain decreasing manufacturing costs. And when it would be possible to combine that the robot dedicated to handling works could support CNCs´ works in its many waiting time while CNCs cut, and could take an spindle and help to cut; it would be double interesting. So according to all this, it would be interesting to be able to know its behaviour and try to explain what would be necessary to make this possible, reason of this work. Selected robot architecture is SCARA type. The search for a robot easy to be modeled and kinematically and dinamically analyzed, without significant limits in the multifunctionality of requested operations, has lead to this choice. Due to that, other very popular architectures in the industry, f.e. 6 DOFs anthropomorphic robots, have been discarded. This robot has 3 joints, 2 of them are revolute joints (1 DOF each one) and the third one is a cylindrical joint (2 DOFs). The first joint, a revolute one, is used to join floor (body 1) with body 2. The second one, a revolute joint too, joins body 2 with body 3. These 2 bodies can move horizontally in X-Y plane. Body 3 is linked to body 4 with a cylindrical joint. Movement that can be made is paralell to Z axis. The robt has 4 degrees of freedom (4 motors). Regarding potential works that this type of robot can make, its versatility covers either typical handling operations or cutting operations. One of the most common machinings is to drill. That is the reason why it has been chosen for the model and analysis. Within drilling, in order to enclose spectrum force, a typical solid drilling with 9 mm diameter. The robot is considered, at the moment, to have a behaviour as rigid body, as biggest expected influence is the one due to torques at joints. In order to modelize robot, it is used multibodies system method. There are under this heading different sorts of formulations (f.e. Denavit-Hartenberg). D-H creates a great amount of equations and unknown quantities. Those unknown quatities are of a difficult understanding and, for each position, one must stop to think about which meaning they have. The choice made is therefore one of formulation in natural coordinates. This system uses points and unit vectors to define position of each different elements, and allow to share, when it is possible and wished, to define kinematic torques and reduce number of variables at the same time. Unknown quantities are intuitive, constrain equations are easy and number of equations and variables are strongly reduced. However, “pure” natural coordinates suffer 2 problems. The first one is that 2 elements with an angle of 0° or 180°, give rise to singular positions that can create problems in constrain equations and therefore they must be avoided. The second problem is that they do not work directly over the definition or the origin of movements. Given that, it is highly recommended to complement this formulation with angles and distances (relative coordinates). This leads to mixed natural coordinates, and they are the final formulation chosen for this MTh. Mixed natural coordinates have not the problem of singular positions. And the most important advantage lies in their usefulness when applying driving forces, torques or evaluating errors. As they influence directly over origin variable (angles or distances), they control motors directly. The algorithm, simulation and obtaining of results has been programmed with Matlab. To design the model in mixed natural coordinates, it is necessary to model the robot to be studied in 2 steps. The first model is based in natural coordinates. To validate it, it is raised a defined trajectory and it is kinematically analyzed if robot fulfils requested movement, keeping its integrity as multibody system. The points (in this case starting and ending points) that configure the robot are quantified. As the elements are considered as rigid bodies, each of them is defined by its respectively starting and ending point (those points are the most interesting ones from the point of view of kinematics and dynamics) and by a non-colinear unit vector to those points. Unit vectors are placed where there is a rotating axis or when it is needed information of an angle. Unit vectors are not needed to measure distances. Neither DOFs must coincide with the number of unit vectors. Lengths of each arm are defined as geometrical constants. The constrains that define the nature of the robot and relationships among different elements and its enviroment are set. Path is generated by a cloud of continuous points, defined in independent coordinates. Each group of independent coordinates define, in an specific instant, a defined position and posture for the robot. In order to know it, it is needed to know which dependent coordinates there are in that instant, and they are obtained solving the constraint equations with Newton-Rhapson method according to independent coordinates. The reason to make it like this is because dependent coordinates must meet constraints, and this is not the case with independent coordinates. When suitability of model is checked (first approval), it is given next step to model 2. Model 2 adds to natural coordinates from model 1, the relative coordinates in the shape of angles in revoluting torques (3 angles; ϕ1, ϕ 2 and ϕ3) and distances in prismatic torques (1 distance; s). These relative coordinates become the new independent coordinates (replacing to cartesian independent coordinates from model 1, that they were natural coordinates). It is needed to review if unit vector system from model 1 is enough or not . For this specific case, it was necessary to add 1 additional unit vector to define perfectly angles with their related equations of dot and/or cross product. Constrains must be increased in, at least, 4 equations; one per each new variable. The approval of model 2 has two phases. The first one, same as made with model 1, through kinematic analysis of behaviour with a defined path. During this analysis, it could be obtained from model 2, velocities and accelerations, but they are not needed. They are only interesting movements and finite displacements. Once that the consistence of movements has been checked (second approval), it comes when the behaviour with interpolated trajectories must be kinematically analyzed. Kinematic analysis with interpolated trajectories work with a minimum number of 3 master points. In this case, 3 points have been chosen; starting point, middle point and ending point. The number of interpolations has been of 50 ones in each strecht (each 2 master points there is an strecht), turning into a total of 100 interpolations. The interpolation method used is the cubic splines one with condition of constant acceleration both at the starting and at the ending point. This method creates the independent coordinates of interpolated points of each strecht. The dependent coordinates are achieved solving the non-linear constrain equations with Newton-Rhapson method. The method of cubic splines is very continuous, therefore when it is needed to design a trajectory in which there are at least 2 movements clearly differents, it is required to make it in 2 steps and join them later. That would be the case when any of the motors would keep stopped during the first movement, and another different motor would remain stopped during the second movement (and so on). Once that movement is obtained, they are calculated, also with numerical differenciation formulas, the independent velocities and accelerations. This process is analogous to the one before explained, reminding condition that acceleration when t=0 and t=end are 0. Dependent velocities and accelerations are calculated solving related derivatives of constrain equations. In a third approval of the model it is checked, again, consistence of interpolated movement. Inverse dynamics calculates, for a defined movement –knowing position, velocity and acceleration in each instant of time-, and knowing external forces that act (f.e. weights); which forces must be applied in motors (where there is control) in order to obtain requested movement. In inverse dynamics, each instant of time is independent of the others and it has a position, a velocity, an acceleration and known forces. In this specific case, it is intended to apply, at the moment, only forces due to the weight, though forces of another nature could have been added if it would have been preferred. The positions, velocities and accelerations, come from kinematic calculation. The inertial effect of forces taken into account (weight) is calculated. As final result of the inverse dynamic analysis, the are obtained torques that the 4 motors must apply to repeat requested movement with the forces that were acting. The fourth approval of the model consists on confirming that the achieved movement due to the use of the torques obtained in the inverse dynamics, are in accordance with movements from kinematic analysis (theoretical movement). For this, it is necessary to work with direct dynamics. Direct dynamic is in charge of calculating the movements of robot that results from applying torques at motors and forces at the robot. Therefore, the resultant real movement, as there was no change in any condition of the ones obtained at the inverse dynamics (motor torques and inertial forces due to weight of elements) must be the same than theoretical movement. When these results are achieved, it is considered that robot is ready to work. When a machining external force is introduced and it was not taken into account before during the inverse dynamics, and torques at motors considered are the ones of the inverse dynamics, the real movement obtained is not the same than the theoretical movement. Closed loop control is based on comparing real movement with expected movement and introducing required corrrections to minimize or cancel differences. They are applied gains in the way of corrections for position and/or tolerance to remove those differences. Position error is evaluated as the difference, in each point, between theoretical movemment (calculated in the kinematic analysis) and the real movement achieved for each machining force and for an specific gain. Finally, the position error obtained for each machining force and gains are mapped, giving a chart with the best accuracy that the robot can give for each operation that has been requested and which conditions must be provided.
Resumo:
La Gestión Forestal Sostenible se define como “la administración y uso de los bosques y tierras forestales de forma e intensidad tales que mantengan su biodiversidad, productividad, capacidad de regeneración, vitalidad y su potencial para atender, ahora y en el futuro, las funciones ecológicas, económicas y sociales relevantes a escala local, nacional y global, y que no causan daño a otros ecosistemas” (MCPFE Conference, 1993). Dentro del proceso los procesos de planificación, en cualquier escala, es necesario establecer cuál será la situación a la que se quiere llegar mediante la gestión. Igualmente, será necesario conocer la situación actual, pues marcará la situación de partida y condicionará el tipo de actuaciones a realizar para alcanzar los objetivos fijados. Dado que, los Proyectos de Ordenación de Montes y sus respectivas revisiones son herramientas de planificación, durante la redacción de los mismos, será necesario establecer una serie de objetivos cuya consecución pueda verificarse de forma objetiva y disponer de una caracterización de la masa forestal que permita conocer la situación de partida. Esta tesis se centra en problemas prácticos, propios de una escala de planificación local o de Proyecto de Ordenación de Montes. El primer objetivo de la tesis es determinar distribuciones diamétricas y de alturas de referencia para masas regulares por bosquetes, empleando para ello el modelo conceptual propuesto por García-Abril et al., (1999) y datos procedentes de las Tablas de producción de Rojo y Montero (1996). Las distribuciones de referencia obtenidas permitirán guiar la gestión de masas irregulares y regulares por bosquetes. Ambos tipos de masas aparecen como una alternativa deseable en aquellos casos en los que se quiere potenciar la biodiversidad, la estabilidad, la multifuncionalidad del bosque y/o como alternativa productiva, especialmente indicada para la producción de madera de calidad. El segundo objetivo de la Tesis está relacionado con la necesidad de disponer de una caracterización adecuada de la masa forestal durante la redacción de los Proyectos de Ordenación de Montes y de sus respectivas revisiones. Con el fin de obtener estimaciones de variables forestales en distintas unidades territoriales de potencial interés para la Ordenación de Montes, así como medidas de la incertidumbre en asociada dichas estimaciones, se extienden ciertos resultados de la literatura de Estimación en Áreas Pequeñas. Mediante un caso de estudio, se demuestra el potencial de aplicación de estas técnicas en inventario forestales asistidos con información auxiliar procedente de sensores láser aerotransportados (ALS). Los casos de estudio se realizan empleando datos ALS similares a los recopilados en el marco del Plan Nacional de Ortofotografía Aérea (PNOA). Los resultados obtenidos muestran que es posible aumentar la eficiencia de los inventarios forestales tradicionales a escala de proyecto de Ordenación de Montes, mediante la aplicación de estimadores EBLUP (Empirical Best Linear Unbiased Predictor) con modelos a nivel de elemento poblacional e información auxiliar ALS similar a la recopilada por el PNOA. ABSTRACT According to MCPFE (1993) Sustainable Forest Management is “the stewardship and use of forests and forest lands in a way, and at a rate, that maintains their biodiversity, productivity, regeneration capacity, vitality and their potential to fulfill, now and in the future, relevant ecological, economic and social functions, at local, national, and global levels, and that does not cause damage to other ecosystems”. For forest management planning, at any scale, we must determine what situation is hoped to be achieved through management. It is also necessary to know the current situation, as this will mark the starting point and condition the type of actions to be performed in order to meet the desired objectives. Forest management at a local scale is no exception. This Thesis focuses on typical problems of forest management planning at a local scale. The first objective of this Thesis is to determine management objectives for group shelterwood management systems in terms of tree height and tree diameter reference distributions. For this purpose, the conceptual model proposed by García-Abril et al., (1999) is applied to the yield tables for Pinus sylvestris in Sierra de Guadrrama (Rojo y Montero, 1996). The resulting reference distributions will act as a guide in the management of forests treated under the group shelterwood management systems or as an approximated reference for the management of uneven aged forests. Both types of management systems are desirable in those cases where forest biodiversity, stability and multifunctionality are pursued goals. These management systems are also recommended as alternatives for the production of high quality wood. The second objective focuses on the need to adequately characterize the forest during the decision process that leads to local management. In order to obtain estimates of forest variables for different management units of potential interest for forest planning, as well as the associated measures of uncertainty in these estimates, certain results from Small Area Estimation Literature are extended to accommodate for the need of estimates and reliability measures in very small subpopulations containing a reduced number of pixels. A case study shows the potential of Small Area Estimation (SAE) techniques in forest inventories assisted with remotely sensed auxiliary information. The influence of the laser pulse density in the quality of estimates in different aggregation levels is analyzed. This study considers low laser pulse densities (0.5 returns/m2) similar to, those provided by large-scale Airborne Laser Scanner (ALS) surveys, such as the one conducted by the Spanish National Geographic Institute for about 80% of the Spanish territory. The results obtained show that it is possible to improve the efficiency of traditional forest inventories at local scale using EBLUP (Empirical Best Linear Unbiased Predictor) estimators based on unit level models and low density ALS auxiliary information.
Resumo:
La lectura histórica del territorio en relación con el sistema agroalimentario aporta elementos claves para reconstruir el sistema territorial, aprovechando la oportunidad que ofrece un renovado interés por la alimentación local y sostenible. El análisis histórico transdisciplinar incorpora variables espaciales, económicas, energéticas, urbanísticas, agronómicas y nutricionales y se centra en el tramo medio del valle del Duero (Castilla y León, España). Se trata de un territorio tradicionalmente agrícola, donde un producto de la tierra -el vino- es motor de innovación y ha transformado paisajes y estructuras. Aún así, se enfrenta a un desarrollo desigual e ilustra las contradicciones del mundo rural en un contexto alimentario globalizado. El análisis de la región desde 1900 permite constatar la relación entre la organización del territorio, el sistema agroalimentario, y cada una de las etapas nutricionales: a) la superación de la desnutrición está asociada a una agricultura familiar y al territorio de proximidad, que persiste en la zona hasta 1950; b) el modelo de consumo de masas y sobrealimentación, se basa en una agricultura industrializada y un territorio polarizado ligado al desarrollismo, que se extiende hasta 1985; c) finalmente, el modelo de consumo segmentado se apoya en una agricultura terciarizada y un territorio de enclaves en un contexto de globalización, que dura hasta nuestros días. En la última fase aparecen nuevos modelos alternativos de reconstrucción territorial con sistemas emergentes que reconectan campo y ciudad, consumo y producción desde sistemas de alimentación sostenible. Conviven dos tendencias: una hacia la jerarquización y el productivismo tecnificado y otra hacia la multifuncionalidad y la recampesinización que se reapropia de las innovaciones técnicas. La adaptación a las condiciones locales y aprovechar los recursos endógenos son elementos clave de sostenibilidad ambiental y social. Incorporar la alimentación en la planificación urbana y territorial desde una perspectiva agroecológica reduciría la insostenibilidad del sistema alimentario. Las propuestas de ordenación han de tener en cuenta la tipología de municipios, sus interrelaciones, las características agrológicas y productivas, la relación del muncipcon los núcleos de referencia y con las poblaciones que concentran las necesidades de alimentación. Se debe considerar asimismo la disponiblidad de infraestructuras, de equipamientos y de capital humano y relacional para fijar cadena de valor local. La ordenación urbanística cuenta ya con mecanismos como la clasificación del suelo, la regulación de usos y el diseño de redes de equipamientos que inciden sobre la autonomía de los sistema de alimentación locales y permiten fomentar la biodiversidad y las variedades locales. Son mecanismos insuficientemente aprovechados. Una adecuada utilización de los instrumentos de ordenación existentes, junto con el desarrollo de otros nuevos mejorarían de forma significativa la resiliencia de los sistemas agroalimentarios locales. ABSTRACT The historical review of the relationship between territory and agrifood system provides key lessons to help rebuild the territorial fabric, seizing the opportunity offered by a renewed interest in local and sustainable food. The historical transdisciplinary analysis spans spatial, economic, energy, agronomic and nutritional variables, focuses on the middle reaches of the Douro valley (Castilla y Leon, Spain). This a traditionally agricultural region, which has managed to turn a land product – the wine– into an engine of innovation which has transformed landscapes and structures. Even so, it faces the challenges of uneven development and illustrates the contradictions of the rural world in a globalized context. After the analysis of the evolution of the region since 1900, it can be concluded that the territory has been organized over time according to three models of food system that are in turn linked to different nutritional stages: a) the nutritional stage of overcoming malnutrition is related to family agriculture and a territory of proximity, which persists in the studied area until 1950; b) the model of mass consumption and overeating, was built on an industrialized agriculture and a polarized territory with unhindered development, which runs until 1985; c) and, finally, the model of consumer segmentation associated with terciarized agriculture and enclave territories in the context of globalization, which lasts until present time. During this last stage new alternative models of small-scale territorial reconstruction appear, linked to emerging systems that, based on sustainable food systems, reconnect city and countryside, consumption and production. Actually two trends coexist: one towards hierarchisation and tech-based productivism, and another one towards multifunctionality and peasantization that reappropriates technical innovations. The adaptation to local conditions taking advantage of local resources is a key element of environmental and social sustainability. Integrating food into urban and regional planning from an agroecological perspective would help reduce the current unsustainability of the food system. Planning proposals for municipalities need to consider their typology, agrological characteristics, productive capacity, links to other municipalities, proximity to reference nodes and population concentrations with food demands that need to be met. Availability of infrastructure, facilities, as well as human and relational capital to establish and reinforce local value chains is another aspect to consider in planning proposals. Spatial and urban planning are already equipped with mechanisms, such as land classification and the design of facilities’ networks, that affect the autonomy and stability of local food systems and can support biodiversity and adoption of local varieties. We are, however, missing opportunities. An adequate use of existing planning tools and the development of new ones could significantly improve the resilience of local agrifood systems.
The P450–1 gene of Gibberella fujikuroi encodes a multifunctional enzyme in gibberellin biosynthesis
Resumo:
Recent studies have shown that the genes of the gibberellin (GA) biosynthesis pathway in the fungus Gibberella fujikuroi are organized in a cluster of at least seven genes. P450–1 is one of four cytochrome P450 monooxygenase genes in this cluster. Disruption of the P450–1 gene in the GA-producing wild-type strain IMI 58289 led to total loss of GA production. Analysis of the P450–1-disrupted mutants indicated that GA biosynthesis was blocked immediately after ent-kaurenoic acid. The function of the P450–1 gene product was investigated further by inserting the gene into mutants of G. fujikuroi that lack the entire GA gene cluster; the gene was highly expressed under GA production conditions in the absence of the other GA-biosynthesis genes. Cultures of transformants containing P450–1 converted ent-[14C]kaurenoic acid efficiently into [14C]GA14, indicating that P450–1 catalyzes four sequential steps in the GA-biosynthetic pathway: 7β-hydroxylation, contraction of ring B by oxidation at C-6, 3β-hydroxylation, and oxidation at C-7. The GA precursors ent-7α-hydroxy[14C]kaurenoic acid, [14C]GA12-aldehyde, and [14C]GA12 were also converted to [14C]GA14. In addition, there is an indication that P450–1 may also be involved in the formation of the kaurenolides and fujenoic acids, which are by-products of GA biosynthesis in G. fujikuroi. Thus, P450–1 displays remarkable multifunctionality and may be responsible for the formation of 12 products.
Resumo:
The generally accepted paradigm of 'inert' and 'mono functional' excipient in dosage form has been recently challenged with the development of individual excipients capable of exhibiting multiple functions (e.g. binder-disintegrants, surfactant which affect P-gp function). The proposed study has been designed within the realm of multifunctionality and is the first and novel investigation towards evaluation of aspartic acid as a filler and disintegration enhancing agent for the delivery of biopharmaceutical class IV model drug trimethoprim. The study investigated powder characteristics using angle of repose, laser diffractometry and scanning electron microscopy (SEM). The prepared tablets were characterised using Heckel analysis, disintegration time and tensile strength measurements. Although Heckel analysis revealed that both TMP and TMP aspartate salt have high elasticity, the salt form produced a stronger compact which was attributed to the formation of agglomerates. Aspartic acid was found to have high plasticity, but its incorporation into the formulations was found to have a negative impact on the compaction properties of TMP and its salt. Surface morphology investigations showed that mechanical interlocking plays a vital role in binding TMP crystals together during compaction, while the small particle size of TMP aspartate agglomerates was found to have significant impact on the tensile strength of the tablets. The study concluded that aspartic acid can be employed as filler and disintegrant and that compactability within tablets was independent of the surface charge of the excipients.
Resumo:
Camu-camu (Myrciaria dubia H.B.K. (McVaugh)) is a native Amazon fruit, recognized worldwide as one of the main natural sources of ascorbic acid. Due to its great acidity, this fruit is generally consumed after processing into juice or as ingredient in food preparations. As a co-product of the camu-camu processing, a significant amount of agroindustrial residue is generated. Despite the studies showing the bioactive value and biological potential of the fruit, few studies have approached the possible processing techniques, transformation and preservation of camu-camu fruits and its agroindustrial pomace. Therefore, the present work has the objective of evaluating two different drying processes applied to camu-camu pomace (peel and seeds with residual pulp), freeze drying and hot air drying, in order to obtain a functional fruit product. This thesis was divided into three stages: the first one shows the studies related to the freeze drying and hot air drying, where we demonstrated the impact of the selected drying techniques on the bioactive components of camu-camu, taking the fresh pomace as the control group. Among the investigated conditions, the groups obtained at 50ºC and 4 m/s (SC50) and 80ºC and 6 m/s (SC80) were selected as for further studies, based on their ascorbic acid final content and Folin-Ciocalteau reducing capacity. In addition to SC50 and SC80, the fresh pomace (RF) and freeze dried (RL) samples were also evaluated in these further stages of the research. Overall, the results show higher bioactive concentration in the RF samples, followed by RL, SC50 and SC80. On the second step of the research, the antioxidant, antimicrobial and antienzymatic activities were evaluated and the same tendency was observed. It was also reported, for the first time in the literature, the presence of syringic acid in dried camu-camu pomace. In the third and final stage of the research, it was investigated the effect of dried camu-camu on aging and neuroprotective disorders, using the in vivo model C.elegans. It was observed that camu-camu extracts were able to modulate important signaling genes relevant to thermal and oxidative stresses (p < 0.05). The polar acid, polar basic and polar neutral fractions obtained from the low molecular extracts of SC50 were able to extend the lifespan of wild type N2 C. elegans in 20% and 13% (p < 0.001). Results also showed that the paralysis induced by the β1-42 amyloid was significantly (p < 0.0001) retarded in CL4176 worms. Similarly, the camu-camu extracts attenuated the dopaminergic induction associated to Parkinson’s disease. Finally, a global analysis of the data presented here reveal that the camu-camu pomace, a co-product obtained from the industrial processing of a native Brazilian fruit, is a relevant natural source of health relevant compounds. This thesis, shows for the first time, the multifunctionality of camu-camu pomace, a natural resource still underexploited for scientific, commercial and technological purposes.