830 resultados para repairing dressing
Resumo:
Thirty crossbred steers were randomly assigned to three treatment groups and fed corn-based finishing diets (88% concentrate) containing 0, 1.0 or 2.5% conjugated linoleic acid (CLA) for an average of 130 days. Steers fed 2.5% CLA consumed less feed and had lower daily gains than control steers. Carcass weights tended to be reduced, and marbling scores were decreased by feeding 2.5% CLA. There were no significant effects of feeding CLA on dressing percentages, yield grades and backfat measurements. The rounds from each animal were physically separated into tissue components. Rounds from steers fed CLA contained a higher percentage of lean tissue and a lower percentage of fat. Feeding CLA increased concentrations of CLA in lipids from fat and lean in rib steaks and rounds. Increasing CLA in beef had no effects on shelf life, tenderness, juiciness, flavor or flavor intensity of rib steaks. Although results indicated that feeding calcium salts of CLA to beef steers decreased performance, concentrations of CLA in tissues could be increased offering the availability of a leaner, more healthful meat product.
Resumo:
Ocean acidification has emerged over the last two decades as one of the largest threats to marine organisms and ecosystems. However, most research efforts on ocean acidification have so far neglected management and related policy issues to focus instead on understanding its ecological and biogeochemical implications. This shortfall is addressed here with a systematic, international and critical review of management and policy options. In particular, we investigate the assumption that fighting acidification is mainly, but not only, about reducing CO2 emissions, and explore the leeway that this emerging problem may open in old environmental issues. We review nine types of management responses, initially grouped under four categories: preventing ocean acidification; strengthening ecosystem resilience; adapting human activities; and repairing damages. Connecting and comparing options leads to classifying them, in a qualitative way, according to their potential and feasibility. While reducing CO2 emissions is confirmed as the key action that must be taken against acidification, some of the other options appear to have the potential to buy time, e.g. by relieving the pressure of other stressors, and help marine life face unavoidable acidification. Although the existing legal basis to take action shows few gaps, policy challenges are significant: tackling them will mean succeeding in various areas of environmental management where we failed to a large extent so far.
Resumo:
1944/1945 wurde in Cham-Hagendorn eine Wassermühle ausgegraben, die dank ihrer aussergewöhnlich guten Holzerhaltung seit langem einen prominenten Platz in der Forschung einnimmt. 2003 und 2004 konnte die Kantonsarchäologie Zug den Platz erneut archäologisch untersuchen. Dabei wurden nicht nur weitere Reste der Wassermühle, sondern auch Spuren älterer und jüngerer Anlagen geborgen: eine ältere und eine jüngere Schmiedewerkstatt (Horizont 1a/Horizont 3) sowie ein zweiphasiges Heiligtum (Horizonte 1a/1b). All diese Anlagen lassen sich nun in das in den neuen Grabungen erkannte stratigraphische Gerüst einhängen (s. Beil. 2). Dank der Holzerhaltung können die meisten Phasen dendrochronologisch datiert werden (s. Abb. 4.1/1a): Horizont 1a mit Schlagdaten zwischen 162(?)/173 und 200 n. Chr., Horizont 1b um 215/218 n. Chr. und Horizont 2 um 231 n. Chr. Ferner konnten in den neuen Grabungen Proben für mikromorphologische und archäobotanische Untersuchungen entnommen werden (Kap. 2.2; 3.11). In der vorliegenden Publikation werden der Befund und die Baustrukturen vorgelegt, (Kap. 2), desgleichen sämtliche stratifizierten Funde und eine umfassende Auswahl der 1944/1945 geborgenen Funde (Kap. 3). Dank anpassender Fragmente, sog. Passscherben, lassen sich diese zum Teil nachträglich in die Schichtenabfolge einbinden. Die mikromorphologischen und die archäobotanischen Untersuchungen (Kap. 2.2; 3.11) zeigen, dass der Fundplatz in römischer Zeit inmitten einer stark vom Wald und dem Fluss Lorze geprägten Landschaft lag. In unmittelbarer Nähe können weder eine Siedlung noch einzelne Wohnbauten gelegen haben. Die demnach nur gewerblich und sakral genutzten Anlagen standen an einem Bach, der vermutlich mit jenem Bach identisch ist, der noch heute das Groppenmoos entwässert und bei Cham-Hagendorn in die Lorze mündet (s. Abb. 2.4/1). Der antike Bach führte wiederholt Hochwasser ─ insgesamt sind fünf grössere Überschwemmungsphasen auszumachen (Kap. 2.2; 2.4). Wohl anlässlich eines Seehochstandes durch ein Überschwappen der Lorze in den Bach ausgelöst, müssen diese Überschwemmungen eine enorme Gewalt entwickelt haben, der die einzelnen Anlagen zum Opfer fielen. Wie die Untersuchung der Siedlungslandschaft römischer Zeit rund um den Zugersee wahrscheinlich macht (Kap. 6 mit Abb. 6.2/2), dürften die Anlagen von Cham-Hagendorn zu einer in Cham-Heiligkreuz vermuteten Villa gehören, einem von fünf grösseren Landgütern in diesem Gebiet. Hinweise auf Vorgängeranlagen fehlen, mit denen die vereinzelten Funde des 1. Jh. n. Chr. (Kap. 4.5) in Verbindung gebracht werden könnten. Diese dürften eher von einer der Überschwemmungen bachaufwärts weggerissen und nach Cham-Hagendorn eingeschwemmt worden sein. Die Nutzung des Fundplatzes (Horizont 1a; s. Beil. 6) setzte um 170 n. Chr. mit einer Schmiedewerkstatt ein (Kap. 2.5.1). Der Fundanfall, insbesondere die Schmiedeschlacken (Kap. 3.9) belegen, dass hier nur hin und wieder Geräte hergestellt und repariert wurden (Kap. 5.2). Diese Werkstatt war vermutlich schon aufgelassen und dem Verfall preisgegeben, als man 200 n. Chr. (Kap. 4.2.4) auf einer Insel zwischen dem Bach und einem Lorzearm ein Heiligtum errichtete (Kap. 5.3). Beleg für den sakralen Status dieser Insel ist in erster Linie mindestens ein eigens gepflanzter Pfirsichbaum, nachgewiesen mit Pollen, einem Holz und über 400 Pfirsichsteinen (Kap. 3.11). Die im Bach verlaufende Grenze zwischen dem sakralen Platz und der profanen Umgebung markierte man zusätzlich mit einer Pfahlreihe (Kap. 2.5.3). In diese war ein schmaler Langbau integriert (Kap. 2.5.2), der an die oft an Temenosmauern antiker Heiligtümer angebauten Portiken erinnert und wohl auch die gleiche Funktion wie diese gehabt hatte, nämlich das Aufbewahren von Weihegaben und Kultgerät (Kap. 5.3). Das reiche Fundmaterial, das sich in den Schichten der ersten Überschwemmung fand (s. Abb. 5./5), die um 205/210 n. Chr. dieses Heiligtum zerstört hatte, insbesondere die zahlreiche Keramik (Kap. 3.2.4), und die zum Teil auffallend wertvollen Kleinfunde (Kap. 3.3.3), dürften zum grössten Teil einst in diesem Langbau untergebracht gewesen sein. Ein als Glockenklöppel interpretiertes, stratifiziertes Objekt spricht dafür, dass die fünf grossen, 1944/1945 als Stapel aufgefundenen Eisenglocken vielleicht auch dem Heiligtum zuzuweisen sind (Kap. 3.4). In diesen Kontext passen zudem die überdurchschnittlich häufig kalzinierten Tierknochen (Kap. 3.10). Nach der Überschwemmung befestigte man für 215 n. Chr. (Kap. 4.2.4) das unterspülte Bachufer mit einer Uferverbauung (Kap. 2.6.1). Mit dem Bau eines weiteren, im Bach stehenden Langbaus (Kap. 2.6.2) stellte man 218 n. Chr. das Heiligtum auf der Insel in ähnlicher Form wieder her (Horizont 1b; s. Beil. 7). Von der Pfahlreihe, die wiederum die sakrale Insel von der profanen Umgebung abgrenzte, blieben indes nur wenige Pfähle erhalten. Dennoch ist der sakrale Charakter der Anlage gesichert. Ausser dem immer noch blühenden Pfirsichbaum ist es ein vor dem Langbau aufgestelltes Ensemble von mindestens 23 Terrakottafigurinen (s. Abb. 3.6/1), elf Veneres, zehn Matres, einem Jugendlichen in Kapuzenmantel und einem kindlichen Risus (Kap. 3.6; s. auch Kap. 2.6.3). In den Sedimenten der zweiten Überschwemmung, der diese Anlage um 225/230 n. Chr. zum Opfer gefallen war, fanden sich wiederum zahlreiche Keramikgefässe (Kap. 3.2.4) und zum Teil wertvolle Kleinfunde wie eine Glasperle mit Goldfolie (Kap. 3.8.2) und eine Fibel aus Silber (Kap. 3.3.3), die wohl ursprünglich im Langbau untergebracht waren (Kap. 5.3.2 mit Abb. 5/7). Weitere Funde mit sicherem oder möglichem sakralem Charakter finden sich unter den 1944/1945 geborgenen Funden (s. Abb. 5/8), etwa ein silberner Fingerring mit Merkurinschrift, ein silberner Lunula-Anhänger, eine silberne Kasserolle (Kap. 3.3.3), eine Glasflasche mit Schlangenfadenauflage (Kap. 3.8.2) und einige Bergkristalle (Kap. 3.8.4). Im Bereich der Terrakotten kamen ferner mehrere Münzen (Kap. 3.7) zum Vorschein, die vielleicht dort niedergelegt worden waren. Nach der zweiten Überschwemmung errichtete man um 231 n. Chr. am Bach eine Wassermühle (Horizont 2; Kap. 2.7; Beil. 8; Abb. 2.7/49). Ob das Heiligtum auf der Insel wieder aufgebaut oder aufgelassen wurde, muss mangels Hinweisen offen bleiben. Für den abgehobenen Zuflusskanal der Wassermühle verwendete man mehrere stehen gebliebene Pfähle der vorangegangenen Anlagen der Horizonte 1a und 1b. Obwohl die Wassermühle den 28 jährlichen Überschwemmungshorizonten (Kap. 2.2) und den Funden (Kap. 4.3.2; 4.4.4; 45) zufolge nur bis um 260 n. Chr., während gut einer Generation, bestand, musste sie mindestens zweimal erneuert werden – nachgewiesen sind drei Wasserräder, drei Mühlsteinpaare und vermutlich drei Podeste, auf denen jeweils das Mahlwerk ruhte. Grund für diese Umbauten war wohl der weiche, instabile Untergrund, der zu Verschiebungen geführt hatte, so dass das Zusammenspiel von Wellbaum bzw. Sternnabe und Übersetzungsrad nicht mehr funktionierte und das ganze System zerbrach. Die Analyse von Pollen aus dem Gehhorizont hat als Mahlgut Getreide vom Weizentyp nachgewiesen (Kap. 3.11.4). Das Abzeichen eines Benefiziariers (Kap. 3.3.2 mit Abb. 3.3/23,B71) könnte dafür sprechen, dass das verarbeitete Getreide zumindest zum Teil für das römische Militär bestimmt war (s. auch Kap. 6.2.3). Ein im Horizont 2 gefundener Schreibgriffel und weitere stili sowie eine Waage für das Wägen bis zu 35-40 kg schweren Waren aus dem Fundbestand von 1944/1945 könnten davon zeugen, dass das Getreide zu wägen und zu registrieren war (Kap. 3.4.2). Kurz nach 260 n. Chr. fiel die Wassermühle einem weiteren Hochwasser zum Opfer. Für den folgenden Horizont 3 (Beil. 9) brachte man einen Kiesboden ein und errichtete ein kleines Gebäude (Kap. 2.8). Hier war wohl wiederum eine Schmiede untergebracht, wie die zahlreichen Kalottenschlacken belegen (Kap. 3.9), die im Umfeld der kleinen Baus zum Vorschein kamen. Aufgrund der Funde (Kap. 4.4.4; 4.5) kann diese Werkstatt nur kurze Zeit bestanden haben, höchstens bis um 270 n. Chr., bevor sie einem weiteren Hochwasser zum Opfer fiel. Von der jüngsten Anlage, die wohl noch in römische Zeit datiert (Horizont 4; Beil. 10), war lediglich eine Konstruktion aus grossen Steinplatten zu fassen (Kap. 2.9.1). Wozu sie diente, muss offen bleiben. Auch der geringe Fundanfall spricht dafür, dass die Nutzung des Platzes, zumindest für die römische Zeit, allmählich ein Ende fand (Kap. 4.5). Zu den jüngsten Strukturen gehören mehrere Gruben (Kap. 2.9.2), die vielleicht der Lehmentnahme dienten. Mangels Funden bleibt ihre Datierung indes ungewiss. Insbesondere wissen wir nicht, ob sie noch in römische Zeit datieren oder jünger sind. Spätestens mit der fünften Überschwemmung, die zur endgültigen Verlandung führte und wohl schon in die frühe Neuzeit zu setzen ist, wurde der Platz aufgelassen und erst mit dem Bau der bestehenden Fensterfabrik Baumgartner wieder besetzt.
Resumo:
Nosocomial infections in patients requiring renal replacement therapy have a high impact on morbidity and mortality. The most dangerous complication is bloodstream infection (BSI) associated with the vascular access, with a low BSI risk in arteriovenous fistulas or grafts and a comparatively high risk in central venous catheters. The single most important measure for preventing BSI is therefore the reduction of catheter use by means of early fistula formation. As this is not always feasible, prevention should focus on educational efforts, hand hygiene, surveillance of dialysis-associated events, and specific measures at and after the insertion of catheters. Core measures at the time of insertion include choosing the optimal site of insertion, the use of maximum sterile barrier precautions, adequate skin antisepsis, and the choice of catheter type; after insertion, access care needs to ensure hub disinfection and regular dressing changes. The application of antimicrobial locks is reserved for special situations. Evidence suggests that bundling a selection of the aforementioned measures can significantly reduce infection rates. The diagnosis of central line-associated BSI (CLABSI) is based on clinical signs and microbiological findings in blood cultures ideally drawn both peripherally and from the catheter. The prompt installation of empiric antibiotic treatment covering the most commonly encountered organisms is key regarding CLABSI treatment. Catheter removal is recommended in complicated cases or if cultures yield Staphylococcus aureus, enterococci, Pseudomonas or fungi. In other cases, guide wire exchange or catheter salvage strategies with antibiotic lock solutions may be acceptable alternatives.
Resumo:
What does Christian identity mean in the face of religious pluralism? In some ways, the frontier of global Christianity lies not in repairing its past divisions so much as bravely facing its future in a world of many other faiths and conflicting convictions. Being Open, Being Faithful is a brief history, astute analysis, and trustworthy guide for Christian encounters in this pluralistic environment. A central argument of this perceptive book is that interreligious dialogue has moved so far as to fundamentally change the attitudes and openness of world religious traditions to each other, promising a future more open and less hostile than one might otherwise think. The book presents and reflects on the recent history of interreligious encounter and dialogue, and it traces the manifold difficulties involved, especially as they are experienced in Roman Catholic and World Council of Churches' engagements with other faiths. Yet, it goes even further: along with the history of such encounters, Being Open, Being Faithful examines the issue of Christian discipleship in the context of interfaith engagement, the operative models, the thorny issue of core theological commitments, and what might be the shape of Christian identity in light of such encounters.
Resumo:
Architectural decisions can be interpreted as structural and behavioral constraints that must be enforced in order to guarantee overarching qualities in a system. Enforcing those constraints in a fully automated way is often challenging and not well supported by current tools. Current approaches for checking architecture conformance either lack in usability or offer poor options for adaptation. To overcome this problem we analyze the current state of practice and propose an approach based on an extensible, declarative and empirically-grounded specification language. This solution aims at reducing the overall cost of setting up and maintaining an architectural conformance monitoring environment by decoupling the conceptual representation of a user-defined rule from its technical specification prescribed by the underlying analysis tools. By using a declarative language, we are able to write tool-agnostic rules that are simple enough to be understood by untrained stakeholders and, at the same time, can be can be automatically processed by a conformance checking validator. Besides addressing the issue of cost, we also investigate opportunities for increasing the value of conformance checking results by assisting the user towards the full alignment of the implementation with respect to its architecture. In particular, we show the benefits of providing actionable results by introducing a technique which automatically selects the optimal repairing solutions by means of simulation and profit-based quantification. We perform various case studies to show how our approach can be successfully adopted to support truly diverse industrial projects. We also investigate the dynamics involved in choosing and adopting a new automated conformance checking solution within an industrial context. Our approach reduces the cost of conformance checking by avoiding the need for an explicit management of the involved validation tools. The user can define rules using a convenient high-level DSL which automatically adapts to emerging analysis requirements. Increased usability and modular customization ensure lower costs and a shorter feedback loop.
Resumo:
Inhibition of DNA repair by the nucleoside of fludarabine (F-ara-A) induces toxicity in quiescent human cells. The sensing and signaling mechanisms following DNA repair inhibition by F-ara-A are unknown. The central hypothesis of this project was that the mechanistic interaction of a DNA repair initiating agent and a nucleoside analog initiates an apoptotic signal in quiescent cells. The purpose of this research was to identify the sensing and signaling mechanism(s) that respond to DNA repair inhibition by F-ara-A. Lymphocytes were treated with F-ara-A, to accumulate the active triphosphate metabolite and subsequently DNA repair was activated by UV irradiation. Pre-incubation of lymphocytes with 3 μM F-ara-A inhibited DNA repair initiated by 2 J/m2 UV and induced greater than additive apoptosis after 24 h. Blocking the incorporation of F-ara-A nucleotide into repairing DNA using 30 μM aphidicolin considerably lowered the apoptotic response. ^ Wild-type quiescent cells showed a significant loss in viability than did cells lacking functional sensor kinase DNA-PKcs or p53 as measured by colony formation assays. The functional status of ATM did not appear to affect the apoptotic outcome. Immunoprecipitation studies showed an interaction between the catalytic sub-unit of DNA-PK and p53 following DNA repair inhibition. Confocal fluorescence microscopy studies have indicated the localization pattern of p53, DNA-PK and γ-H2AX in the nucleus following DNA damage. Foci formation by γ-H2AX was seen as an early event that is followed by interaction with DNA-PKcs. p53 serine-15 phosphorylation and accumulation were detected 2 h after treatment. Fas/Fas ligand expression increased significantly after repair inhibition and was dependent on the functional status of p53. Blocking the interaction between Fas and Fas ligand by neutralizing antibodies significantly rescued the apoptotic fraction of cells. ^ Collectively, these results suggest that incorporation of the nucleoside analog into repair patches is critical for cytotoxicity and that the DNA damage, while being sensed by DNA-PK, may induce apoptosis by a p53-mediated signaling mechanism. Based on the results, a model is proposed for the sensing of F-ara-A-induced DNA damage that includes γ-H2AX, DNA-PKcs, and p53. Targeting the cellular DNA repair mechanism can be a potential means of producing cytotoxicity in a quiescent population of neoplastic cells. These results also provide mechanistic support for the success of nucleoside analogs with cyclophosphamide or other agents that initiate excision repair processes, in the clinic. ^
Resumo:
DNA interstrand crosslinks (ICLs) are among the most toxic type of damage to a cell. Many ICL-inducing agents are widely used as therapeutic agents, e.g. cisplatin, psoralen. A bettor understanding of the cellular mechanism that eliminates ICLs is important for the improvement of human health. However, ICL repair is still poorly understood in mammals. Using a triplex-directed site-specific ICL model, we studied the roles of mismatch repair (MMR) proteins in ICL repair in human cells. We are also interested in using psoralen-conjugated triplex-forming oligonucleotides (TFOs) to direct ICLs to a specific site in targeted DNA and in the mammalian genomes. ^ MSH2 protein is the common subunit of two MMR recognition complexes, and MutSα and MutSβ. We showed that MSH2 deficiency renders human cell hypersensitive to psoralen ICLs. MMR recognition complexes bind specifically to triplex-directed psoralen ICLs in vitro. Together with the fact that psoralen ICL-induced repair synthesis is dramatically decreased in MSH2 deficient cell extracts, we demonstrated that MSH2 function is critical for the recognition and processing of psoralen ICLs in human cells. Interestingly, lack of MSH2 does not reduce the level of psoralen ICL-induced mutagenesis in human cells, suggesting that MSH2 does not contribute to error-generating repair of psoralen ICLs, and therefore, may represent a novel error-free mechanism for repairing ICLs. We also studied the role of MLH1, anther key protein in MMR, in the processing of psoralen ICLs. MLH1-deficient human cells are more resistant to psoralen plus UVA treatment. Importantly, MLH1 function is not required for the mutagenic repair of psoralen ICLs, suggesting that it is not involved in the error-generating repair of this type of DNA damage in human cells. ^ These are the first data indicating mismatch repair proteins may participate in a relatively error-free mechanism for processing psoralen ICL in human cells. Enhancement of MMR protein function relative to nucleotide excision repair proteins may reduce the mutagenesis caused by DNA ICLs in humans. ^ In order to specifically target ICLs to mammalian genes, we identified novel TFO target sequences in mouse and human genomes. Using this information, many critical mammalian genes can now be targeted by TFOs.^
Resumo:
The Education for All Handicapped Children Act of 1975, P.L. 94-142, created a new challenge for the nation's public school systems. During 1982-1983, a national study, called the "Collaborative Study of Children with Special Needs", was conducted in 5 metropolitan school districts to evaluate the effectiveness of education and health care services of children in kindergarten to 6th grade being provided under P.L. 94-142 programs. This dissertation (the Substudy) was undertaken to augment the findings of the Collaborative Study. The purpose of this study was to develop a database to provide descriptive information on the demographic, service and health characteristics of a small group of 3 and 4 year old handicapped children served by the Houston Independent School District (HISD) during 1982-1983.^ The study involved a stratified sample of 105 three and four year old children divided into 3 groups according to type of handicapping condition.^ The results of the study gave a clearer picture of the demographic characteristics of these Pre-K children. Specifically, sex ratio was approximately one, lower than the national norm. Family and socioeconomic characteristics were assessed.^ The study used an independence/dependence index composed of 11 items on the parent questionnaire to assess the level of functional independence of each child. An association was found between index scores and parent-reported effects of the child on family activity. Parents who said that their child's condition had affected the family's job situation, housing accomodations, vacation plans, marriage, choice of friends and social activities were also more likely to report less independence in the child. In addition, many of the Substudy children had extensive care-taking needs reflected in specific components of the index such as dressing, feeding, toileting or moving about the house.^ In general the results of the Pre-K Substudy indicate that at the early childhood level, the HISD special education program is functioning well in most areas and that parents are very satisfied with the program. (Abstract shortened with permission of author.)^
Resumo:
El uso de materiales compuestos para el refuerzo, reparación y rehabilitación de estructuras de hormigón se ha convertido en una técnica muy utilizada en la última década. Con independencia de la técnica del refuerzo, uno de los principales condicionantes del diseño es el fallo de la adherencia entre el hormigón y el material compuesto, atribuida generalmente a las tensiones en la interfaz de estos materiales. Las propiedades mecánicas del hormigón y de los materiales compuestos son muy distintas. Los materiales compuestos comúnmente utilizados en ingeniería civil poseen alta resistencia a tracción y tienen un comportamiento elástico y lineal hasta la rotura, lo cual, en contraste con el ampliamente conocido comportamiento del hormigón, genera una clara incompatibilidad para soportar esfuerzos de forma conjunta. Esta incompatibilidad conduce a fallos relacionados con el despegue del material compuesto del sustrato de hormigón. En vigas de hormigón reforzadas a flexión o a cortante, el despegue del material compuesto es un fenómeno que frecuentemente condiciona la capacidad portante del elemento. Existen dos zonas potenciales de iniciación del despegue: los extremos y la zona entre fisuras de flexión o de flexión-cortante. En el primer caso, la experiencia a través de los últimos años ha demostrado que se puede evitar prolongando el refuerzo hasta los apoyos o mediante el empleo de algún sistema de anclaje. Sin embargo, las recomendaciones para evitar el segundo caso de despegue aún se encuentran lejos de poder prever el fallo de forma eficiente. La necesidad de medir la adherencia experimentalmente de materiales FRP adheridos al hormigón ha dado lugar a desarrollar diversos métodos por la comunidad de investigadores. De estas campañas experimentales surgieron modelos para el pronóstico de la resistencia de adherencia, longitud efectiva y relación tensión-deslizamiento. En la presente tesis se propone un ensayo de beam-test, similar al utilizado para medir la adherencia de barras de acero, para determinar las características de adherencia del FRP al variar la resistencia del hormigón y el espesor del adhesivo. A la vista de los resultados, se considera que este ensayo puede ser utilizado para investigar diferentes tipos de adhesivos y otros métodos de aplicación, dado que representa con mayor realidad el comportamiento en vigas reforzadas. Los resultados experimentales se trasladan a la comprobación del fallo por despegue en la región de fisuras de flexión o flexión cortante en vigas de hormigón presentando buena concordancia. Los resultados condujeron a la propuesta de que la limitación de la deformación constituye una alternativa simple y eficiente para prever el citado modo de fallo. Con base en las vigas analizadas, se propone una nueva expresión para el cálculo de la limitación de la deformación del laminado y se lleva a cabo una comparación entre los modelos existentes mediante un análisis estadístico para evaluar su precisión. Abstract The use of composite materials for strengthening, repairing or rehabilitating concrete structures has become more and more popular in the last ten years. Irrespective of the type of strengthening used, design is conditioned, among others, by concrete-composite bond failure, normally attributed to stresses at the interface between these two materials. The mechanical properties of concrete and composite materials are very different. Composite materials commonly used in civil engineering possess high tensile strength (both static and long term) and they are linear elastic to failure, which, in contrast to the widely known behavior of concrete, there is a clear incompatibility which leads to bond-related failures. Bond failure in the composite material in bending- or shear-strengthened beams often controls bearing capacity of the strengthened member. Debonding failure of RC beams strengthened in bending by externally-bonded composite laminates takes place either, at the end (plate end debonding) or at flexure or flexure-shear cracks (intermediate crack debonding). In the first case, the experience over the past years has shown that this can be avoided by extending laminates up to the supports or by using an anchoring system. However, recommendations for the second case are still considered far from predicting failure efficiently. The need to experimentally measure FRP bonding to concrete has induced the scientific community to develop test methods for that purpose. Experimental campaigns, in turn, have given rise to models for predicting bond strength, effective length and the stress-slip relationship. The beam-type test proposed and used in this thesis to determine the bonding characteristics of FRP at varying concrete strengths and adhesive thicknesses was similar to the test used for measuring steel reinforcement to concrete bonding conditions. In light of the findings, this test was deemed to be usable to study different types of adhesives and application methods, since it reflects the behavior of FRP in strengthened beams more accurately than the procedures presently in place. Experimental results are transferred to the verification of peeling-off at flexure or flexure-shear cracks, presenting a good general agreement. Findings led to the conclusion that the strain limitation of laminate produces accurate predictions of intermediate crack debonding. A new model for strain limitation is proposed. Finally, a comprehensive evaluation based on a statistical analysis among existing models is carried out in order to assess their accuracy.
Resumo:
The use of fiber-reinforced polymer (FRP) composites for strengthening, repairing, or rehabilitating concrete structures has become more and more popular in the last 10 years. Irrespective of the type of strengthening used, design is conditioned, among others, by concrete-composite bond failure, normally attributed to stress at the interface between these two materials. Single shear, double shear, and notched beam tests are the bond tests most commonly used by the scientific community to estimate bond strength, effective length, and the bond stress-slip relationship. The present paper discusses the effect of concrete strength and adhesive thickness on the results of beam tests, which reproduce debonding conditions around bending cracks much more accurately. The bond stress-slip relationship was analyzed in a cross section near the inner edge, where stress was observed to concentrate. The ultimate load and the bond stress-slip relationship were visibly affected by concrete strength. Adhesive thickness, in turn, was found to have no significant impact on low-strength concrete but a somewhat greater effect on higher strength materials.
Condicionantes de la adherencia y anclaje en el refuerzo de muros de fábrica con elementos de fibras
Resumo:
Es cada vez más frecuente la rehabilitación de patrimonio construido, tanto de obras deterioradas como para la adecuación de obras existentes a nuevos usos o solicitaciones. Se ha considerado el estudio del refuerzo de obras de fábrica ya que constituyen un importante número dentro del patrimonio tanto de edificación como de obra civil (sistemas de muros de carga o en estructuras principales porticadas de acero u hormigón empleándose las fábricas como cerramiento o distribución con elementos autoportantes). A la hora de reparar o reforzar una estructura es importante realizar un análisis de las deficiencias, caracterización mecánica del elemento y solicitaciones presentes o posibles; en el apartado 1.3 del presente trabajo se refieren acciones de rehabilitación cuando lo que se precisa no es refuerzo estructural, así como las técnicas tradicionales más habituales para refuerzo de fábricas que suelen clasificarse según se trate de refuerzos exteriores o interiores. En los últimos años se ha adoptado el sistema de refuerzo de FRP, tecnología con origen en los refuerzos de hormigón tanto de elementos a flexión como de soportes. Estos refuerzos pueden ser de láminas adheridas a la fábrica soporte (SM), o de barras incluidas en rozas lineales (NSM). La elección de un sistema u otro depende de la necesidad de refuerzo y tipo de solicitación predominante, del acceso para colocación y de la exigencia de impacto visual. Una de las mayores limitaciones de los sistemas de refuerzo por FRP es que no suele movilizarse la resistencia del material de refuerzo, produciéndose previamente fallo en la interfase con el soporte con el consecuente despegue o deslaminación; dichos fallos pueden tener un origen local y propagarse a partir de una discontinuidad, por lo que es preciso un tratamiento cuidadoso de la superficie soporte, o bien como consecuencia de una insuficiente longitud de anclaje para la transferencia de los esfuerzos en la interfase. Se considera imprescindible una caracterización mecánica del elemento a reforzar. Es por ello que el trabajo presenta en el capítulo 2 métodos de cálculo de la fábrica soporte de distintas normativas y también una formulación alternativa que tiene en cuenta la fábrica histórica ya que su caracterización suele ser más complicada por la heterogeneidad y falta de clasificación de sus materiales, especialmente de los morteros. Una vez conocidos los parámetros resistentes de la fábrica soporte es posible diseñar el refuerzo; hasta la fecha existe escasa normativa de refuerzos de FRP para muros de fábrica, consistente en un protocolo propuesto por la ACI 440 7R-10 que carece de mejoras por tipo de anclaje y aporta valores muy conservadores de la eficacia del refuerzo. Como se ha indicado, la problemática principal de los refuerzos de FRP en muros es el modo de fallo que impide un aprovechamiento óptimo de las propiedades del material. Recientemente se están realizando estudios con distintos métodos de anclaje para estos refuerzos, con lo que se incremente la capacidad última y se mantenga el soporte ligado al refuerzo tras la rotura. Junto con sistemas de anclajes por prolongación del refuerzo (tanto para láminas como para barras) se han ensayado anclajes con llaves de cortante, barras embebidas, o anclajes mecánicos de acero o incluso de FRP. Este texto resume, en el capítulo 4, algunas de las campañas experimentales llevadas a cabo entre los años 2000 y 2013 con distintos anclajes. Se observan los parámetros fundamentales para medir la eficacia del anclajes como son: el modo de fallo, el incremento de resistencia, y los desplazamientos que permite observar la ductilidad del refuerzo; estos datos se analizan en función de la variación de: tipo de refuerzo incluyéndose el tipo de fibra y sistema de colocación, y tipo de anclaje. Existen también parámetros de diseño de los propios anclajes. En el caso de barras embebidas se resumen en diámetro y material de la barra, acabado superficial, dimensiones y forma de la roza, tipo de adhesivo. En el caso de anclajes de FRP tipo pasador la caracterización incluye: tipo de fibra, sistema de fabricación del anclajes y diámetro del mismo, radio de expansión del abanico, espaciamiento longitudinal de anclajes, número de filas de anclajes, número de láminas del refuerzo, longitud adherida tras el anclaje; es compleja la sistematización de resultados de los autores de las campañas expuestas ya que algunos de estos parámetros varían impidiendo la comparación. El capítulo 5 presenta los ensayos empleados para estas campañas de anclajes, distinguiéndose entre ensayos de modo I, tipo tracción directa o arrancamiento, que servirían para sistemas NSM o para cuantificar la resistencia individual de anclajes tipo pasador; ensayos de modo II, tipo corte simple, que se asemeja más a las condiciones de trabajo de los refuerzos. El presente texto se realiza con objeto de abrir una posible investigación sobre los anclajes tipo pasador, considerándose que junto con los sistemas de barra embebida son los que permiten una mayor versatilidad de diseño para los refuerzos de FRP y siendo su eficacia aún difícil de aislar por el número de parámetros de diseño. Rehabilitation of built heritage is becoming increasingly frequent, including repair of damaged works and conditioning for a new use or higher loads. In this work it has been considered the study of masonry wall reinforcement, as most buildings and civil works have load bearing walls or at least infilled masonry walls in concrete and steel structures. Before repairing or reinforcing an structure, it is important to analyse its deficiencies, its mechanical properties and both existing and potential loads; chapter 1, section 4 includes the most common rehabilitation methods when structural reinforcement is not needed, as well as traditional reinforcement techniques (internal and external reinforcement) In the last years the FRP reinforcement system has been adopted for masonry walls. FRP materials for reinforcement were initially used for concrete pillars and beams. FRP reinforcement includes two main techniques: surface mounted laminates (SM) and near surface mounted bars (NSM); one of them may be more accurate according to the need for reinforcement and main load, accessibility for installation and aesthetic requirements. One of the main constraints of FRP systems is not reaching maximum load for material due to premature debonding failure, which can be caused by surface irregularities so surface preparation is necessary. But debonding (or delamination for SM techniques) can also be a consequence of insufficient anchorage length or stress concentration. In order to provide an accurate mechanical characterisation of walls, chapter 2 summarises the calculation methods included in guidelines as well as alternative formulations for old masonry walls as historic wall properties are more complicated to obtain due to heterogeneity and data gaps (specially for mortars). The next step is designing reinforcement system; to date there are scarce regulations for walls reinforcement with FRP: ACI 440 7R-10 includes a protocol without considering the potential benefits provided by anchorage devices and with conservative values for reinforcement efficiency. As noted above, the main problem of FRP masonry walls reinforcement is failure mode. Recently, some authors have performed studies with different anchorage systems, finding that these systems are able to delay or prevent debonding . Studies include the following anchorage systems: Overlap, embedded bars, shear keys, shear restraint and fiber anchors. Chapter 4 briefly describes several experimental works between years 2000 and 2013, concerning different anchorage systems. The main parameters that measure the anchorage efficiency are: failure mode, failure load increase, displacements (in order to evaluate the ductility of the system); all these data points strongly depend on: reinforcement system, FRP fibers, anchorage system, and also on the specific anchorage parameters. Specific anchorage parameters are a function of the anchorage system used. The embedded bar system have design variables which can be identified as: bar diameter and material, surface finish, groove dimensions, and adhesive. In FRP anchorages (spikes) a complete design characterisation should include: type of fiber, manufacturing process, diameter, fan orientation, anchor splay width, anchor longitudinal spacing and number or rows, number or FRP sheet plies, bonded length beyond anchorage devices,...the parameters considered differ from some authors to others, so the comparison of results is quite complicated. Chapter 5 includes the most common tests used in experimental investigations on bond-behaviour and anchorage characterisation: direct shear tests (with variations single-shear and double-shear), pullout tests and bending tests. Each of them may be used according to the data needed. The purpose of this text is to promote further investigation of anchor spikes, accepting that both FRP anchors and embedded bars are the most versatile anchorage systems of FRP reinforcement and considering that to date its efficiency cannot be evaluated as there are too many design uncertainties.
Resumo:
Increasing nitrogen (N) use efficiency during crop production is paramount both from an economic and environmental perspective. A proposed measure to achieve it is to split the addition of fertilizers with more than on application. For a winter crop under Mediterranean climatic conditions, the most common application pattern consists of a basal fertilization (October-November) an a top-dressing (February-March).
Resumo:
Esta tesis doctoral se centra principalmente en técnicas de ataque y contramedidas relacionadas con ataques de canal lateral (SCA por sus siglas en inglés), que han sido propuestas dentro del campo de investigación académica desde hace 17 años. Las investigaciones relacionadas han experimentado un notable crecimiento en las últimas décadas, mientras que los diseños enfocados en la protección sólida y eficaz contra dichos ataques aún se mantienen como un tema de investigación abierto, en el que se necesitan iniciativas más confiables para la protección de la información persona de empresa y de datos nacionales. El primer uso documentado de codificación secreta se remonta a alrededor de 1700 B.C., cuando los jeroglíficos del antiguo Egipto eran descritos en las inscripciones. La seguridad de la información siempre ha supuesto un factor clave en la transmisión de datos relacionados con inteligencia diplomática o militar. Debido a la evolución rápida de las técnicas modernas de comunicación, soluciones de cifrado se incorporaron por primera vez para garantizar la seguridad, integridad y confidencialidad de los contextos de transmisión a través de cables sin seguridad o medios inalámbricos. Debido a las restricciones de potencia de cálculo antes de la era del ordenador, la técnica de cifrado simple era un método más que suficiente para ocultar la información. Sin embargo, algunas vulnerabilidades algorítmicas pueden ser explotadas para restaurar la regla de codificación sin mucho esfuerzo. Esto ha motivado nuevas investigaciones en el área de la criptografía, con el fin de proteger el sistema de información ante sofisticados algoritmos. Con la invención de los ordenadores se ha acelerado en gran medida la implementación de criptografía segura, que ofrece resistencia eficiente encaminada a obtener mayores capacidades de computación altamente reforzadas. Igualmente, sofisticados cripto-análisis han impulsado las tecnologías de computación. Hoy en día, el mundo de la información ha estado involucrado con el campo de la criptografía, enfocada a proteger cualquier campo a través de diversas soluciones de cifrado. Estos enfoques se han fortalecido debido a la unificación optimizada de teorías matemáticas modernas y prácticas eficaces de hardware, siendo posible su implementación en varias plataformas (microprocesador, ASIC, FPGA, etc.). Las necesidades y requisitos de seguridad en la industria son las principales métricas de conducción en el diseño electrónico, con el objetivo de promover la fabricación de productos de gran alcance sin sacrificar la seguridad de los clientes. Sin embargo, una vulnerabilidad en la implementación práctica encontrada por el Prof. Paul Kocher, et al en 1996 implica que un circuito digital es inherentemente vulnerable a un ataque no convencional, lo cual fue nombrado posteriormente como ataque de canal lateral, debido a su fuente de análisis. Sin embargo, algunas críticas sobre los algoritmos criptográficos teóricamente seguros surgieron casi inmediatamente después de este descubrimiento. En este sentido, los circuitos digitales consisten típicamente en un gran número de celdas lógicas fundamentales (como MOS - Metal Oxide Semiconductor), construido sobre un sustrato de silicio durante la fabricación. La lógica de los circuitos se realiza en función de las innumerables conmutaciones de estas células. Este mecanismo provoca inevitablemente cierta emanación física especial que puede ser medida y correlacionada con el comportamiento interno del circuito. SCA se puede utilizar para revelar datos confidenciales (por ejemplo, la criptografía de claves), analizar la arquitectura lógica, el tiempo e incluso inyectar fallos malintencionados a los circuitos que se implementan en sistemas embebidos, como FPGAs, ASICs, o tarjetas inteligentes. Mediante el uso de la comparación de correlación entre la cantidad de fuga estimada y las fugas medidas de forma real, información confidencial puede ser reconstruida en mucho menos tiempo y computación. Para ser precisos, SCA básicamente cubre una amplia gama de tipos de ataques, como los análisis de consumo de energía y radiación ElectroMagnética (EM). Ambos se basan en análisis estadístico y, por lo tanto, requieren numerosas muestras. Los algoritmos de cifrado no están intrínsecamente preparados para ser resistentes ante SCA. Es por ello que se hace necesario durante la implementación de circuitos integrar medidas que permitan camuflar las fugas a través de "canales laterales". Las medidas contra SCA están evolucionando junto con el desarrollo de nuevas técnicas de ataque, así como la continua mejora de los dispositivos electrónicos. Las características físicas requieren contramedidas sobre la capa física, que generalmente se pueden clasificar en soluciones intrínsecas y extrínsecas. Contramedidas extrínsecas se ejecutan para confundir la fuente de ataque mediante la integración de ruido o mala alineación de la actividad interna. Comparativamente, las contramedidas intrínsecas están integradas en el propio algoritmo, para modificar la aplicación con el fin de minimizar las fugas medibles, o incluso hacer que dichas fugas no puedan ser medibles. Ocultación y Enmascaramiento son dos técnicas típicas incluidas en esta categoría. Concretamente, el enmascaramiento se aplica a nivel algorítmico, para alterar los datos intermedios sensibles con una máscara de manera reversible. A diferencia del enmascaramiento lineal, las operaciones no lineales que ampliamente existen en criptografías modernas son difíciles de enmascarar. Dicho método de ocultación, que ha sido verificado como una solución efectiva, comprende principalmente la codificación en doble carril, que está ideado especialmente para aplanar o eliminar la fuga dependiente de dato en potencia o en EM. En esta tesis doctoral, además de la descripción de las metodologías de ataque, se han dedicado grandes esfuerzos sobre la estructura del prototipo de la lógica propuesta, con el fin de realizar investigaciones enfocadas a la seguridad sobre contramedidas de arquitectura a nivel lógico. Una característica de SCA reside en el formato de las fuentes de fugas. Un típico ataque de canal lateral se refiere al análisis basado en la potencia, donde la capacidad fundamental del transistor MOS y otras capacidades parásitas son las fuentes esenciales de fugas. Por lo tanto, una lógica robusta resistente a SCA debe eliminar o mitigar las fugas de estas micro-unidades, como las puertas lógicas básicas, los puertos I/O y las rutas. Las herramientas EDA proporcionadas por los vendedores manipulan la lógica desde un nivel más alto, en lugar de realizarlo desde el nivel de puerta, donde las fugas de canal lateral se manifiestan. Por lo tanto, las implementaciones clásicas apenas satisfacen estas necesidades e inevitablemente atrofian el prototipo. Por todo ello, la implementación de un esquema de diseño personalizado y flexible ha de ser tomado en cuenta. En esta tesis se presenta el diseño y la implementación de una lógica innovadora para contrarrestar SCA, en la que se abordan 3 aspectos fundamentales: I. Se basa en ocultar la estrategia sobre el circuito en doble carril a nivel de puerta para obtener dinámicamente el equilibrio de las fugas en las capas inferiores; II. Esta lógica explota las características de la arquitectura de las FPGAs, para reducir al mínimo el gasto de recursos en la implementación; III. Se apoya en un conjunto de herramientas asistentes personalizadas, incorporadas al flujo genérico de diseño sobre FPGAs, con el fin de manipular los circuitos de forma automática. El kit de herramientas de diseño automático es compatible con la lógica de doble carril propuesta, para facilitar la aplicación práctica sobre la familia de FPGA del fabricante Xilinx. En este sentido, la metodología y las herramientas son flexibles para ser extendido a una amplia gama de aplicaciones en las que se desean obtener restricciones mucho más rígidas y sofisticadas a nivel de puerta o rutado. En esta tesis se realiza un gran esfuerzo para facilitar el proceso de implementación y reparación de lógica de doble carril genérica. La viabilidad de las soluciones propuestas es validada mediante la selección de algoritmos criptográficos ampliamente utilizados, y su evaluación exhaustiva en comparación con soluciones anteriores. Todas las propuestas están respaldadas eficazmente a través de ataques experimentales con el fin de validar las ventajas de seguridad del sistema. El presente trabajo de investigación tiene la intención de cerrar la brecha entre las barreras de implementación y la aplicación efectiva de lógica de doble carril. En esencia, a lo largo de esta tesis se describirá un conjunto de herramientas de implementación para FPGAs que se han desarrollado para trabajar junto con el flujo de diseño genérico de las mismas, con el fin de lograr crear de forma innovadora la lógica de doble carril. Un nuevo enfoque en el ámbito de la seguridad en el cifrado se propone para obtener personalización, automatización y flexibilidad en el prototipo de circuito de bajo nivel con granularidad fina. Las principales contribuciones del presente trabajo de investigación se resumen brevemente a continuación: Lógica de Precharge Absorbed-DPL logic: El uso de la conversión de netlist para reservar LUTs libres para ejecutar la señal de precharge y Ex en una lógica DPL. Posicionamiento entrelazado Row-crossed con pares idénticos de rutado en redes de doble carril, lo que ayuda a aumentar la resistencia frente a la medición EM selectiva y mitigar los impactos de las variaciones de proceso. Ejecución personalizada y herramientas de conversión automática para la generación de redes idénticas para la lógica de doble carril propuesta. (a) Para detectar y reparar conflictos en las conexiones; (b) Detectar y reparar las rutas asimétricas. (c) Para ser utilizado en otras lógicas donde se requiere un control estricto de las interconexiones en aplicaciones basadas en Xilinx. Plataforma CPA de pruebas personalizadas para el análisis de EM y potencia, incluyendo la construcción de dicha plataforma, el método de medición y análisis de los ataques. Análisis de tiempos para cuantificar los niveles de seguridad. División de Seguridad en la conversión parcial de un sistema de cifrado complejo para reducir los costes de la protección. Prueba de concepto de un sistema de calefacción auto-adaptativo para mitigar los impactos eléctricos debido a la variación del proceso de silicio de manera dinámica. La presente tesis doctoral se encuentra organizada tal y como se detalla a continuación: En el capítulo 1 se abordan los fundamentos de los ataques de canal lateral, que abarca desde conceptos básicos de teoría de modelos de análisis, además de la implementación de la plataforma y la ejecución de los ataques. En el capítulo 2 se incluyen las estrategias de resistencia SCA contra los ataques de potencia diferencial y de EM. Además de ello, en este capítulo se propone una lógica en doble carril compacta y segura como contribución de gran relevancia, así como también se presentará la transformación lógica basada en un diseño a nivel de puerta. Por otra parte, en el Capítulo 3 se abordan los desafíos relacionados con la implementación de lógica en doble carril genérica. Así mismo, se describirá un flujo de diseño personalizado para resolver los problemas de aplicación junto con una herramienta de desarrollo automático de aplicaciones propuesta, para mitigar las barreras de diseño y facilitar los procesos. En el capítulo 4 se describe de forma detallada la elaboración e implementación de las herramientas propuestas. Por otra parte, la verificación y validaciones de seguridad de la lógica propuesta, así como un sofisticado experimento de verificación de la seguridad del rutado, se describen en el capítulo 5. Por último, un resumen de las conclusiones de la tesis y las perspectivas como líneas futuras se incluyen en el capítulo 6. Con el fin de profundizar en el contenido de la tesis doctoral, cada capítulo se describe de forma más detallada a continuación: En el capítulo 1 se introduce plataforma de implementación hardware además las teorías básicas de ataque de canal lateral, y contiene principalmente: (a) La arquitectura genérica y las características de la FPGA a utilizar, en particular la Xilinx Virtex-5; (b) El algoritmo de cifrado seleccionado (un módulo comercial Advanced Encryption Standard (AES)); (c) Los elementos esenciales de los métodos de canal lateral, que permiten revelar las fugas de disipación correlacionadas con los comportamientos internos; y el método para recuperar esta relación entre las fluctuaciones físicas en los rastros de canal lateral y los datos internos procesados; (d) Las configuraciones de las plataformas de pruebas de potencia / EM abarcadas dentro de la presente tesis. El contenido de esta tesis se amplia y profundiza a partir del capítulo 2, en el cual se abordan varios aspectos claves. En primer lugar, el principio de protección de la compensación dinámica de la lógica genérica de precarga de doble carril (Dual-rail Precharge Logic-DPL) se explica mediante la descripción de los elementos compensados a nivel de puerta. En segundo lugar, la lógica PA-DPL es propuesta como aportación original, detallando el protocolo de la lógica y un caso de aplicación. En tercer lugar, dos flujos de diseño personalizados se muestran para realizar la conversión de doble carril. Junto con ello, se aclaran las definiciones técnicas relacionadas con la manipulación por encima de la netlist a nivel de LUT. Finalmente, una breve discusión sobre el proceso global se aborda en la parte final del capítulo. El Capítulo 3 estudia los principales retos durante la implementación de DPLs en FPGAs. El nivel de seguridad de las soluciones de resistencia a SCA encontradas en el estado del arte se ha degenerado debido a las barreras de implantación a través de herramientas EDA convencionales. En el escenario de la arquitectura FPGA estudiada, se discuten los problemas de los formatos de doble carril, impactos parásitos, sesgo tecnológico y la viabilidad de implementación. De acuerdo con estas elaboraciones, se plantean dos problemas: Cómo implementar la lógica propuesta sin penalizar los niveles de seguridad, y cómo manipular un gran número de celdas y automatizar el proceso. El PA-DPL propuesto en el capítulo 2 se valida con una serie de iniciativas, desde características estructurales como doble carril entrelazado o redes de rutado clonadas, hasta los métodos de aplicación tales como las herramientas de personalización y automatización de EDA. Por otra parte, un sistema de calefacción auto-adaptativo es representado y aplicado a una lógica de doble núcleo, con el fin de ajustar alternativamente la temperatura local para equilibrar los impactos negativos de la variación del proceso durante la operación en tiempo real. El capítulo 4 se centra en los detalles de la implementación del kit de herramientas. Desarrollado sobre una API third-party, el kit de herramientas personalizado es capaz de manipular los elementos de la lógica de circuito post P&R ncd (una versión binaria ilegible del xdl) convertido al formato XDL Xilinx. El mecanismo y razón de ser del conjunto de instrumentos propuestos son cuidadosamente descritos, que cubre la detección de enrutamiento y los enfoques para la reparación. El conjunto de herramientas desarrollado tiene como objetivo lograr redes de enrutamiento estrictamente idénticos para la lógica de doble carril, tanto para posicionamiento separado como para el entrelazado. Este capítulo particularmente especifica las bases técnicas para apoyar las implementaciones en los dispositivos de Xilinx y su flexibilidad para ser utilizado sobre otras aplicaciones. El capítulo 5 se enfoca en la aplicación de los casos de estudio para la validación de los grados de seguridad de la lógica propuesta. Se discuten los problemas técnicos detallados durante la ejecución y algunas nuevas técnicas de implementación. (a) Se discute el impacto en el proceso de posicionamiento de la lógica utilizando el kit de herramientas propuesto. Diferentes esquemas de implementación, tomando en cuenta la optimización global en seguridad y coste, se verifican con los experimentos con el fin de encontrar los planes de posicionamiento y reparación optimizados; (b) las validaciones de seguridad se realizan con los métodos de correlación y análisis de tiempo; (c) Una táctica asintótica se aplica a un núcleo AES sobre BCDL estructurado para validar de forma sofisticada el impacto de enrutamiento sobre métricas de seguridad; (d) Los resultados preliminares utilizando el sistema de calefacción auto-adaptativa sobre la variación del proceso son mostrados; (e) Se introduce una aplicación práctica de las herramientas para un diseño de cifrado completa. Capítulo 6 incluye el resumen general del trabajo presentado dentro de esta tesis doctoral. Por último, una breve perspectiva del trabajo futuro se expone, lo que puede ampliar el potencial de utilización de las contribuciones de esta tesis a un alcance más allá de los dominios de la criptografía en FPGAs. ABSTRACT This PhD thesis mainly concentrates on countermeasure techniques related to the Side Channel Attack (SCA), which has been put forward to academic exploitations since 17 years ago. The related research has seen a remarkable growth in the past decades, while the design of solid and efficient protection still curiously remain as an open research topic where more reliable initiatives are required for personal information privacy, enterprise and national data protections. The earliest documented usage of secret code can be traced back to around 1700 B.C., when the hieroglyphs in ancient Egypt are scribed in inscriptions. Information security always gained serious attention from diplomatic or military intelligence transmission. Due to the rapid evolvement of modern communication technique, crypto solution was first incorporated by electronic signal to ensure the confidentiality, integrity, availability, authenticity and non-repudiation of the transmitted contexts over unsecure cable or wireless channels. Restricted to the computation power before computer era, simple encryption tricks were practically sufficient to conceal information. However, algorithmic vulnerabilities can be excavated to restore the encoding rules with affordable efforts. This fact motivated the development of modern cryptography, aiming at guarding information system by complex and advanced algorithms. The appearance of computers has greatly pushed forward the invention of robust cryptographies, which efficiently offers resistance relying on highly strengthened computing capabilities. Likewise, advanced cryptanalysis has greatly driven the computing technologies in turn. Nowadays, the information world has been involved into a crypto world, protecting any fields by pervasive crypto solutions. These approaches are strong because of the optimized mergence between modern mathematical theories and effective hardware practices, being capable of implement crypto theories into various platforms (microprocessor, ASIC, FPGA, etc). Security needs from industries are actually the major driving metrics in electronic design, aiming at promoting the construction of systems with high performance without sacrificing security. Yet a vulnerability in practical implementation found by Prof. Paul Kocher, et al in 1996 implies that modern digital circuits are inherently vulnerable to an unconventional attack approach, which was named as side-channel attack since then from its analysis source. Critical suspicions to theoretically sound modern crypto algorithms surfaced almost immediately after this discovery. To be specifically, digital circuits typically consist of a great number of essential logic elements (as MOS - Metal Oxide Semiconductor), built upon a silicon substrate during the fabrication. Circuit logic is realized relying on the countless switch actions of these cells. This mechanism inevitably results in featured physical emanation that can be properly measured and correlated with internal circuit behaviors. SCAs can be used to reveal the confidential data (e.g. crypto-key), analyze the logic architecture, timing and even inject malicious faults to the circuits that are implemented in hardware system, like FPGA, ASIC, smart Card. Using various comparison solutions between the predicted leakage quantity and the measured leakage, secrets can be reconstructed at much less expense of time and computation. To be precisely, SCA basically encloses a wide range of attack types, typically as the analyses of power consumption or electromagnetic (EM) radiation. Both of them rely on statistical analyses, and hence require a number of samples. The crypto algorithms are not intrinsically fortified with SCA-resistance. Because of the severity, much attention has to be taken into the implementation so as to assemble countermeasures to camouflage the leakages via "side channels". Countermeasures against SCA are evolving along with the development of attack techniques. The physical characteristics requires countermeasures over physical layer, which can be generally classified into intrinsic and extrinsic vectors. Extrinsic countermeasures are executed to confuse the attacker by integrating noise, misalignment to the intra activities. Comparatively, intrinsic countermeasures are built into the algorithm itself, to modify the implementation for minimizing the measurable leakage, or making them not sensitive any more. Hiding and Masking are two typical techniques in this category. Concretely, masking applies to the algorithmic level, to alter the sensitive intermediate values with a mask in reversible ways. Unlike the linear masking, non-linear operations that widely exist in modern cryptographies are difficult to be masked. Approved to be an effective counter solution, hiding method mainly mentions dual-rail logic, which is specially devised for flattening or removing the data-dependent leakage in power or EM signatures. In this thesis, apart from the context describing the attack methodologies, efforts have also been dedicated to logic prototype, to mount extensive security investigations to countermeasures on logic-level. A characteristic of SCA resides on the format of leak sources. Typical side-channel attack concerns the power based analysis, where the fundamental capacitance from MOS transistors and other parasitic capacitances are the essential leak sources. Hence, a robust SCA-resistant logic must eliminate or mitigate the leakages from these micro units, such as basic logic gates, I/O ports and routings. The vendor provided EDA tools manipulate the logic from a higher behavioral-level, rather than the lower gate-level where side-channel leakage is generated. So, the classical implementations barely satisfy these needs and inevitably stunt the prototype. In this case, a customized and flexible design scheme is appealing to be devised. This thesis profiles an innovative logic style to counter SCA, which mainly addresses three major aspects: I. The proposed logic is based on the hiding strategy over gate-level dual-rail style to dynamically overbalance side-channel leakage from lower circuit layer; II. This logic exploits architectural features of modern FPGAs, to minimize the implementation expenses; III. It is supported by a set of assistant custom tools, incorporated by the generic FPGA design flow, to have circuit manipulations in an automatic manner. The automatic design toolkit supports the proposed dual-rail logic, facilitating the practical implementation on Xilinx FPGA families. While the methodologies and the tools are flexible to be expanded to a wide range of applications where rigid and sophisticated gate- or routing- constraints are desired. In this thesis a great effort is done to streamline the implementation workflow of generic dual-rail logic. The feasibility of the proposed solutions is validated by selected and widely used crypto algorithm, for thorough and fair evaluation w.r.t. prior solutions. All the proposals are effectively verified by security experiments. The presented research work attempts to solve the implementation troubles. The essence that will be formalized along this thesis is that a customized execution toolkit for modern FPGA systems is developed to work together with the generic FPGA design flow for creating innovative dual-rail logic. A method in crypto security area is constructed to obtain customization, automation and flexibility in low-level circuit prototype with fine-granularity in intractable routings. Main contributions of the presented work are summarized next: Precharge Absorbed-DPL logic: Using the netlist conversion to reserve free LUT inputs to execute the Precharge and Ex signal in a dual-rail logic style. A row-crossed interleaved placement method with identical routing pairs in dual-rail networks, which helps to increase the resistance against selective EM measurement and mitigate the impacts from process variations. Customized execution and automatic transformation tools for producing identical networks for the proposed dual-rail logic. (a) To detect and repair the conflict nets; (b) To detect and repair the asymmetric nets. (c) To be used in other logics where strict network control is required in Xilinx scenario. Customized correlation analysis testbed for EM and power attacks, including the platform construction, measurement method and attack analysis. A timing analysis based method for quantifying the security grades. A methodology of security partitions of complex crypto systems for reducing the protection cost. A proof-of-concept self-adaptive heating system to mitigate electrical impacts over process variations in dynamic dual-rail compensation manner. The thesis chapters are organized as follows: Chapter 1 discusses the side-channel attack fundamentals, which covers from theoretic basics to analysis models, and further to platform setup and attack execution. Chapter 2 centers to SCA-resistant strategies against generic power and EM attacks. In this chapter, a major contribution, a compact and secure dual-rail logic style, will be originally proposed. The logic transformation based on bottom-layer design will be presented. Chapter 3 is scheduled to elaborate the implementation challenges of generic dual-rail styles. A customized design flow to solve the implementation problems will be described along with a self-developed automatic implementation toolkit, for mitigating the design barriers and facilitating the processes. Chapter 4 will originally elaborate the tool specifics and construction details. The implementation case studies and security validations for the proposed logic style, as well as a sophisticated routing verification experiment, will be described in Chapter 5. Finally, a summary of thesis conclusions and perspectives for future work are included in Chapter 5. To better exhibit the thesis contents, each chapter is further described next: Chapter 1 provides the introduction of hardware implementation testbed and side-channel attack fundamentals, and mainly contains: (a) The FPGA generic architecture and device features, particularly of Virtex-5 FPGA; (b) The selected crypto algorithm - a commercially and extensively used Advanced Encryption Standard (AES) module - is detailed; (c) The essentials of Side-Channel methods are profiled. It reveals the correlated dissipation leakage to the internal behaviors, and the method to recover this relationship between the physical fluctuations in side-channel traces and the intra processed data; (d) The setups of the power/EM testing platforms enclosed inside the thesis work are given. The content of this thesis is expanded and deepened from chapter 2, which is divided into several aspects. First, the protection principle of dynamic compensation of the generic dual-rail precharge logic is explained by describing the compensated gate-level elements. Second, the novel DPL is originally proposed by detailing the logic protocol and an implementation case study. Third, a couple of custom workflows are shown next for realizing the rail conversion. Meanwhile, the technical definitions that are about to be manipulated above LUT-level netlist are clarified. A brief discussion about the batched process is given in the final part. Chapter 3 studies the implementation challenges of DPLs in FPGAs. The security level of state-of-the-art SCA-resistant solutions are decreased due to the implementation barriers using conventional EDA tools. In the studied FPGA scenario, problems are discussed from dual-rail format, parasitic impact, technological bias and implementation feasibility. According to these elaborations, two problems arise: How to implement the proposed logic without crippling the security level; and How to manipulate a large number of cells and automate the transformation. The proposed PA-DPL in chapter 2 is legalized with a series of initiatives, from structures to implementation methods. Furthermore, a self-adaptive heating system is depicted and implemented to a dual-core logic, assumed to alternatively adjust local temperature for balancing the negative impacts from silicon technological biases on real-time. Chapter 4 centers to the toolkit system. Built upon a third-party Application Program Interface (API) library, the customized toolkit is able to manipulate the logic elements from post P&R circuit (an unreadable binary version of the xdl one) converted to Xilinx xdl format. The mechanism and rationale of the proposed toolkit are carefully convoyed, covering the routing detection and repairing approaches. The developed toolkit aims to achieve very strictly identical routing networks for dual-rail logic both for separate and interleaved placement. This chapter particularly specifies the technical essentials to support the implementations in Xilinx devices and the flexibility to be expanded to other applications. Chapter 5 focuses on the implementation of the case studies for validating the security grades of the proposed logic style from the proposed toolkit. Comprehensive implementation techniques are discussed. (a) The placement impacts using the proposed toolkit are discussed. Different execution schemes, considering the global optimization in security and cost, are verified with experiments so as to find the optimized placement and repair schemes; (b) Security validations are realized with correlation, timing methods; (c) A systematic method is applied to a BCDL structured module to validate the routing impact over security metric; (d) The preliminary results using the self-adaptive heating system over process variation is given; (e) A practical implementation of the proposed toolkit to a large design is introduced. Chapter 6 includes the general summary of the complete work presented inside this thesis. Finally, a brief perspective for the future work is drawn which might expand the potential utilization of the thesis contributions to a wider range of implementation domains beyond cryptography on FPGAs.