935 resultados para Non-contact mapping
Resumo:
This thesis describes the investigation of systematically varied organic molecules for use in molecular self-assembly processes. All experiments were performed using high-resolution non-contact atomic force microscopy under UHV conditions and at room temperature. Using this technique, three different approaches for influencing intermolecular and molecule-surface interaction on the insulating calcite(10.4) surface were investigated by imaging the structure formation at the molecular scale. I first demonstrated the functionalization of shape-persistent oligo(p-benzamide)s that was engineered by introducing different functional groups and investigating their effect on the structural formation on the sample surface. The molecular core was designed to provide significant electrostatic anchoring towards the surface, while at the same time maintaining the flexibility to fine-tune the resulting structure by adjusting the intermolecular cohesion energy. The success of this strategy is based on a clear separation of the molecule-substrate interaction from the molecule-molecule interaction. My results show that sufficient molecule-surface anchoring can be achieved without restricting the structural flexibility that is needed for the design of complex molecular systems. Three derivatives of terephthalic acid (TPA) were investigated in chapter 7. Here, the focus was on changing the adhesion to the calcite surface by introducing different anchor functionalities to the TPA backbone. For all observed molecules, the strong substrate templating effect results in molecular structures that are strictly oriented along the calcite main crystal directions. This templating is especially pronounced in the case of 2-ATPA where chain formation on the calcite surface is observed in contrast to the formation of molecular layers in the bulk. At the same time, the amino group of 2-ATPA proved an efficient anchor functionality, successfully stabilizing the molecular chains on the sample surface. These findings emphasizes, once again, the importance of balancing and fine-tuning molecule-molecule and molecule-surface interactions in order to achieve stable, yet structurally flexible molecular arrangements on the sample surface. In the last chapter, I showed how the intrinsic property of molecular chirality decisively influences the structure formation in molecular self-assembly. This effect is especially pronounced in the case of the chiral heptahelicene-2-carboxylic acid. Deposition of the enantiopure molecules results in the formation of homochiral islands on the sample surface which is in sharp contrast to the formation of uni-directional double rows upon deposition of the racemate onto the same surface. While it remained uncertain from these previous experiments whether the double rows are composed of hetero- or homochiral molecules, I could clearly answer that question here and demonstrate that the rows are of heterochiral origin. Chirality, thus, proves to be another important parameter to steer the intermolecular interaction on surfaces. Altogether, the results of this thesis demonstrate that, in order to successfully control the structure formation in molecular self-assembly, the correct combination of molecule and surface properties is crucial. This is of special importance when working on substrates that exhibit a strong influence on the structure formation, such as the calcite(10.4) surface. Through the systematic variation of functional groups several important parameters that influence the balance between molecule-surface and molecule-molecule interaction were identified here, and the results of this thesis can, thus, act as a guideline for the rational design of molecules for use in molecular self-assembly.
Resumo:
Graphene nanoribbons (GNRs), which are defined as nanometer-wide strips of graphene, are attracting an increasing attention as one on the most promising materials for future nanoelectronics. Unlike zero-bandgap graphene that cannot be switched off in transistors, GNRs possess open bandgaps that critically depend on their width and edge structures. GNRs were predominantly prepared through “top-down” methods such as “cutting” of graphene and “unzipping” of carbon nanotubes, but these methods cannot precisely control the structure of the resulting GNRs. In contrast, “bottom-up” chemical synthetic approach enables fabrication of structurally defined and uniform GNRs from tailor-made polyphenylene precursors. Nevertheless, width and length of the GNRs obtainable by this method were considerably limited. In this study, lateral as well as longitudinal extensions of the GNRs were achieved while preserving the high structural definition, based on the bottom-up solution synthesis. Initially, wider (~2 nm) GNRs were synthesized by using laterally expanded monomers through AA-type Yamamoto polymerization, which proved more efficient than the conventional A2B2-type Suzuki polymerization. The wider GNRs showed broad absorption profile extending to the near-infrared region with a low optical bandgap of 1.12 eV, which indicated a potential of such GNRs for the application in photovoltaic cells. Next, high longitudinal extension of narrow (~1 nm) GNRs over 600 nm was accomplished based on AB-type Diels–Alder polymerization, which provided corresponding polyphenylene precursors with the weight-average molecular weight of larger than 600,000 g/mol. Bulky alkyl chains densely installed on the peripheral positions of these GNRs enhanced their liquid-phase processability, which allowed their formation of highly ordered self-assembled monolayers. Furthermore, non-contact time-resolved terahertz spectroscopy measurements demonstrated high charge-carrier mobility within individual GNRs. Remarkably, lateral extension of the AB-type monomer enabled the fabrication of wider (~2 nm) and long (>100 nm) GNRs through the Diels–Alder polymerization. Such longitudinally extended and structurally well-defined GNRs are expected to allow the fabrication of single-ribbon transistors for the fundamental studies on the electronic properties of the GNRs as well as contribute to the development of future electronic devices.
Resumo:
Für die Realisierung zukünftiger Technologien, wie z.B. molekulare Elektronik, werden Strategien benötigt, um funktionale Strukturen direkt auf Oberflächen zu erzeugen. Für die Bewältigung dieser Aufgabe ist die molekulare Selbstanordnung ein äußerst vielversprechender Bottom-up-Ansatz. Hierbei ist eine der größten Herausforderungen das Zusammenspiel aus intramolekularer Wechselwirkung und der Wechselwirkung zwischen Substrat und Molekülen in ein Gleichgewicht zu bringen. Da jedoch die wirkenden Kräfte der molekularen Selbstanordnung ausschließlich reversibler Natur sind, ist eine langfristige Stabilität fragwürdig. Somit ist die kovalente Verknüpfung der gebildeten Strukturen durch Reaktionen direkt auf der Oberfläche unerlässlich, um die Stabilität der Strukturen weiter zu erhöhen. Hierzu stellt die vorliegende Arbeit eine ausführliche Studie zu molekularer Selbstanordnung und der zielgerichteten Modifikation ebensolcher Strukturen dar. Durch den Einsatz von hochauflösender Rasterkraftmikroskopie im Ultrahochvakuum, welche es erlaubt einzelne Moleküle auf Nichtleitern abzubilden, wurde der maßgebliche Einfluss von Ankerfunktionalitäten auf den Prozess der molekularen Selbstanordnung gezeigt. Des Weiteren konnte die Stabilität der selbst angeordneten Strukturen durch neue Oberflächenreaktionskonzepte entschieden verbessert werden. Der Einfluss von Ankerfunktionen, die elektrostatische Wechselwirkung zwischen Molekül und Substrat vermitteln, auf den Strukturbildungsprozess der molekularen Selbstanordnung wird eingehend durch den Vergleich eines aromatischen Moleküls und seines vierfach chlorierten Derivates gezeigt. Für diese beiden Moleküle wurde ein deutlich unterschiedliches Verhalten der Selbstanordnung beobachtet. Es wird gezeigt, dass die Fähigkeit zur Bildung selbst angeordneter, stabiler Inseln entscheidend durch die Substituenten und die Abmessungen des Moleküls beeinflusst wird. Auch wird in dieser Arbeit die erste photochemische Reaktion organischer Moleküle auf einem Isolator gezeigt. Qualitative und quantitative Ergebnisse liefern ein detailliertes Bild darüber, wie die Abmessungen des Substratgitters die Richtung der Reaktion gezielt beeinflussen. Des Weiteren wird ein allgemeines Konzept zur selektiven Stabilisierung selbstangeordneter Molekülstrukturen durch den kontrollierten Transfer von Elektronen präsentiert. Durch die gezielte Steuerung der Menge an Dotierungsatomen wird die Desorptionstemperatur der molekularen Inseln signifikant erhöht und das Desorptionsverhalten der Inseln entschieden verändert. Diese Arbeit präsentiert somit erfolgreich durchgeführte Strategien um den Prozess der molekularen Selbstanordnung zu steuern, sowie entscheidende Mechanismen um die Stabilisierung und Modifizierung von selbst angeordneten Strukturen zu gewährleisten.
Resumo:
In campo medico ha un ruolo fondamentale il monitoraggio dei parametri vitali, importanti indicatori dello stato di salute del paziente, essenziali nella diagnosi e nella cura dellle patologie. La frequenza cardiaca occupa un ruolo fondamentale nella clinica, primo indice dell'attività cardio circolatoria del paziente. Il trattato analizza una metodica di monitoraggio del battito cardiaco per mezzo delle videocamere digitali, la ripresa diretta in video del volto del paziente e la presenza di un'adeguata illuminazione ambientale: la pulsazione cardiaca esercita variazioni di pressione a livello periferico generando un cambiamento del colore della pelle sulle zone più esposte, quali il viso. Analizzando l'andamento temporale del segnale RGB registra, per mezzo di algoritmi di elaborazione delle immagini, è possibile stimare accuratamente il battito cardiaco dell'utente. Nell'elaborato viene affrontata la metodica degl algoritmi di image-prcessing presentando un applicativo scritto in linguaggio Python, funzionante e testato su di un sistema Linux (Ubuntu 14.04). Tale metodo si basa sui concetti della fotopletismografia applicata in remoto denotando il non-contact-mode.
Resumo:
For crime scene investigation in cases of homicide, the pattern of bloodstains at the incident site is of critical importance. The morphology of the bloodstain pattern serves to determine the approximate blood source locations, the minimum number of blows and the positioning of the victim. In the present work, the benefits of the three-dimensional bloodstain pattern analysis, including the ballistic approximation of the trajectories of the blood drops, will be demonstrated using two illustrative cases. The crime scenes were documented in 3D, using the non-contact methods digital photogrammetry, tachymetry and laser scanning. Accurate, true-to-scale 3D models of the crime scenes, including the bloodstain pattern and the traces, were created. For the determination of the areas of origin of the bloodstain pattern, the trajectories of up to 200 well-defined bloodstains were analysed in CAD and photogrammetry software. The ballistic determination of the trajectories was performed using ballistics software. The advantages of this method are the short preparation time on site, the non-contact measurement of the bloodstains and the high accuracy of the bloodstain analysis. It should be expected that this method delivers accurate results regarding the number and position of the areas of origin of bloodstains, in particular the vertical component is determined more precisely than using conventional methods. In both cases relevant forensic conclusions regarding the course of events were enabled by the ballistic bloodstain pattern analysis.
Resumo:
BACKGROUND/AIMS: Rebound tonometry (RT) is performed without anaesthesia with a hand held device. The primary aim was to compare RT with Goldmann applanation tonometry (GAT) and to correlate with central corneal thickness (CCT). The secondary aim was to prove tolerability and practicability of RT under "study conditions" and "routine practice conditions." METHODS: In group 1 (52 eyes/28 patients), all measurements were taken by the same physician, in the same room and order: non-contact optical pachymetry, RT, slit lamp inspection, GAT. Patients were questioned about discomfort or pain. In group 2 (49 eyes/27 patients), tonometry was performed by three other physicians during routine examinations. RESULTS: RT was well tolerated and safe. Intraocular pressure (IOP) ranged between 6 mm Hg and 48 mm Hg. No different trends were found between the groups. RT tended to give slightly higher readings: n = 101, mean difference 1.0 (SD 2.17) mm Hg; 84.1% of RT readings within plus or minus 3 mm Hg of GAT; 95% confidence interval in the Bland-Altman analysis -3.2 mm Hg to +5.2 mm Hg. Both RT and GAT showed a weak positive correlation with CCT (r2 0.028 and 0.025, respectively). CONCLUSIONS: RT can be considered a reliable alternative for clinical screening and in cases where positioning of the head at the slit lamp is impossible or topical preparations are to be avoided.
Resumo:
Noise and vibration has long been sought to be reduced in major industries: automotive, aerospace and marine to name a few. Products must be tested and pass certain levels of federally regulated standards before entering the market. Vibration measurements are commonly acquired using accelerometers; however limitations of this method create a need for alternative solutions. Two methods for non-contact vibration measurements are compared: Laser Vibrometry, which directly measures the surface velocity of the aluminum plate, and Nearfield Acoustic Holography (NAH), which measures sound pressure in the nearfield, and using Green’s Functions, reconstructs the surface velocity at the plate. The surface velocity from each method is then used in modal analysis to determine the comparability of frequency, damping and mode shapes. Frequency and mode shapes are also compared to an FEA model. Laser Vibrometry is a proven, direct method for determining surface velocity and subsequently calculating modal analysis results. NAH is an effective method in locating noise sources, especially those that are not well separated spatially. Little work has been done in incorporating NAH into modal analysis.
Resumo:
The analysis and reconstruction of forensically relevant events, such as traffic accidents, criminal assaults and homicides are based on external and internal morphological findings of the injured or deceased person. For this approach high-tech methods are gaining increasing importance in forensic investigations. The non-contact optical 3D digitising system GOM ATOS is applied as a suitable tool for whole body surface and wound documentation and analysis in order to identify injury-causing instruments and to reconstruct the course of event. In addition to the surface documentation, cross-sectional imaging methods deliver medical internal findings of the body. These 3D data are fused into a whole body model of the deceased. Additional to the findings of the bodies, the injury inflicting instruments and incident scene is documented in 3D. The 3D data of the incident scene, generated by 3D laser scanning and photogrammetry, is also included into the reconstruction. Two cases illustrate the methods. In the fist case a man was shot in his bedroom and the main question was, if the offender shot the man intentionally or accidentally, as he declared. In the second case a woman was hit by a car, driving backwards into a garage. It was unclear if the driver drove backwards once or twice, which would indicate that he willingly injured and killed the woman. With this work, we demonstrate how 3D documentation, data merging and animation enable to answer reconstructive questions regarding the dynamic development of patterned injuries, and how this leads to a real data based reconstruction of the course of event.
Resumo:
BACKGROUND To investigate anterior scleral thickness in a cohort of healthy subjects using enhanced depth imaging anterior segment optical coherence tomography. METHODS Observational case series. The mean scleral thickness in the inferonasal, inferotemporal, superotemporal, and superonasal quadrant was measured 2 mm from the scleral spur on optical coherence tomography in healthy volunteers. RESULTS Fifty-three eyes of 53 Caucasian patients (25 male and 28 female) with an average age of 48.6 years (range: 18 to 92 years) were analysed. The mean scleral thickness was 571 μm (SD 84 μm) in the inferonasal quadrant, 511 μm (SD 80 μm) in the inferotemporal quadrant, 475 (SD 81 μm) in the superotemporal, and 463 (SD 64 μm) in the superonasal quadrant. The mean scleral thickness was significantly different between quadrants (p < 0.0001, repeated measures one-way ANOVA). The association between average scleral thickness and age was statistically significant (p < 0.0001, Pearson r = 0.704). CONCLUSIONS Enhanced depth imaging optical coherence tomography revealed the detailed anatomy of the anterior sclera and enabled non-invasive measurements of scleral thickness in a non-contact approach. The anterior scleral thickness varies significantly between quadrants, resembling the spiral of Tillaux. An association of increasing scleral thickness with age was found.
Resumo:
Background. The Cypress Creek is one of the main tributaries of Lake Houston, which provides drinking water to 21.4 million customers. Furthermore, the watershed is being utilized for contact and non-contact recreation, such as canoeing, swimming, hiking trail, and picnics. Water along the creek is impacted by numerous wastewater outfalls from both point and non-point sources. As the creek flows into Lake Houston, it carries both organic and inorganic contaminants that may affect the drinking water quality of this important water source reservoir. Objective. This study was carried out to evaluate the inorganic chemical load of the water in Cypress Creek along its entire length, from the headwaters in Waller County and up to the drainage into Lake Houston. The purpose was to determine whether there are hazardous concentrations of metals in the water and what would be the likely sources. Method. Samples were collected at 29 sites along the creek and analyzed for 29 metals, 17 of which were on the Environmental Protection Agency priority pollution list. Public access sites primarily at bridges were used for sample collection. Samples were transported on ice to the University Of Texas School Of Public Health laboratory, spiked with 2 ml HNO3 kept overnight in the refrigerator, and the following day transported to the EPA laboratory for analysis. Analysis was done by EPA Method 200.7-ICP, Method 200.8ICP/MS and Method 245.1-CVAAS. Results. Metals were present above the detection limits at 65% of sites. Concentrations of aluminum, iron, sodium, potassium, magnesium, and calcium, were particularly high at all sites. Aluminum, sodium, and iron concentrations greatly exceeded the EPA secondary drinking water standards at all sites. ^ Conclusion. The recreational water along Cypress Creek is impacted by wastewater from both permitted and non-permitted outfalls, which deposit inorganic substances into the water. Although a number of inorganic contaminants were present in the water, toxic metals regulated by the EPA were mostly below the recommended limits. However, high concentrations of aluminum, sodium, and iron in the Cypress Creek bring forward the issue of unauthorized discharges of salt water from mining, as well as industrial and domestic wastewater.^
Resumo:
La educación en la Argentina está articulada bajo criterios sociales establecidos pero que son básicamente arbitrarios y sustentados en supuestos no demostrados que afirman que el conocimiento se construye a partir de ciertos contenidos y no de otros. Dichos criterios no han variado mayormente durante las últimas décadas y siguen utilizándose como plataforma inicial a partir de los cuales se articula la educación posterior del educando. Los sistemas de educación superior en América Latina sufren una crisis a raíz de la creciente internacionalización de las nuevas tecnologías de comunicación e información y de los reclamos de inclusión social de los sectores marginados, entre otras razones. Las tecnologías de compresión digital dan origen a un modelo educativo "en red" caracterizado por un funcionamiento no presencial, mediante el cual se produce la transformación del rol de la Universidad, como centro de descubrimiento y posesión del conocimiento, para convertirse en apenas una intermediaria en la búsqueda del saber y la información. Esta nueva modalidad de educación crece en la medida en que puede cubrir una demanda social de educación superior insatisfecha, conformada básicamente por adultos que trabajan, estudiantes de zonas alejadas de los centros educativos, extranjeros que carecen de opciones educativas y alumnos globalizados. Por ello, la educación virtual nace como una nueva respuesta a viejas demandas. La construcción de una sociedad planetaria y la convivencia del multiculturalismo, además de representar la expresión de sociedades abiertas, que quizás no dispongan de bases comunes de cohesión nacional, debe ser parte de un nuevo proyecto de solidaridad y confraternidad mundial.Resulta sumamente importante que las Universidades de América Latina defiendan su participación como tales en los mercados regionales mediante la adquisición de mayor flexibilidad, actualización y excelencia, para erigirse de esta manera como una opción comparativamente válida. Asimismo, creemos que la educación, entendida como todo el corpus del conocimiento que tiene una persona, no se construye de manera arbitraria sino, por el contrario, de manera selectiva de acuerdo a las posibilidades del educando; y es precisamente sobre la base de esta pormenorizada elección el sustento sobre el cual el alumno llega posteriormente a desarrollos intelectuales superiores. El objetivo del presente trabajo se centra en mostrar la importancia de índole social y política que tienen la flexibilización y la personalización en el currículum de estudios universitarios, al momento de observar el resultado final del ejercicio profesional del graduado. Desde este punto de vista, es fundamental que la elección de los contenidos del plan de estudios de la carrera universitaria estén a cargo del educando, con la dirección de una unidad académica, especialmente en relación con lo que hoy se conoce como "aprendizaje justo a tiempo". Dicho en otras palabras, solamente cuando el educando trasciende ese fundamento institucional e inicial de conocimientos para abrevar en otras fuentes, como las Artes, la Religión, la Filosofía, etc., puede relacionar y comparar conocimientos diferentes entre sí, pero cuya elección obedece fundamentalmente a criterios personales y no meramente institucionales
Resumo:
La educación en la Argentina está articulada bajo criterios sociales establecidos pero que son básicamente arbitrarios y sustentados en supuestos no demostrados que afirman que el conocimiento se construye a partir de ciertos contenidos y no de otros. Dichos criterios no han variado mayormente durante las últimas décadas y siguen utilizándose como plataforma inicial a partir de los cuales se articula la educación posterior del educando. Los sistemas de educación superior en América Latina sufren una crisis a raíz de la creciente internacionalización de las nuevas tecnologías de comunicación e información y de los reclamos de inclusión social de los sectores marginados, entre otras razones. Las tecnologías de compresión digital dan origen a un modelo educativo "en red" caracterizado por un funcionamiento no presencial, mediante el cual se produce la transformación del rol de la Universidad, como centro de descubrimiento y posesión del conocimiento, para convertirse en apenas una intermediaria en la búsqueda del saber y la información. Esta nueva modalidad de educación crece en la medida en que puede cubrir una demanda social de educación superior insatisfecha, conformada básicamente por adultos que trabajan, estudiantes de zonas alejadas de los centros educativos, extranjeros que carecen de opciones educativas y alumnos globalizados. Por ello, la educación virtual nace como una nueva respuesta a viejas demandas. La construcción de una sociedad planetaria y la convivencia del multiculturalismo, además de representar la expresión de sociedades abiertas, que quizás no dispongan de bases comunes de cohesión nacional, debe ser parte de un nuevo proyecto de solidaridad y confraternidad mundial.Resulta sumamente importante que las Universidades de América Latina defiendan su participación como tales en los mercados regionales mediante la adquisición de mayor flexibilidad, actualización y excelencia, para erigirse de esta manera como una opción comparativamente válida. Asimismo, creemos que la educación, entendida como todo el corpus del conocimiento que tiene una persona, no se construye de manera arbitraria sino, por el contrario, de manera selectiva de acuerdo a las posibilidades del educando; y es precisamente sobre la base de esta pormenorizada elección el sustento sobre el cual el alumno llega posteriormente a desarrollos intelectuales superiores. El objetivo del presente trabajo se centra en mostrar la importancia de índole social y política que tienen la flexibilización y la personalización en el currículum de estudios universitarios, al momento de observar el resultado final del ejercicio profesional del graduado. Desde este punto de vista, es fundamental que la elección de los contenidos del plan de estudios de la carrera universitaria estén a cargo del educando, con la dirección de una unidad académica, especialmente en relación con lo que hoy se conoce como "aprendizaje justo a tiempo". Dicho en otras palabras, solamente cuando el educando trasciende ese fundamento institucional e inicial de conocimientos para abrevar en otras fuentes, como las Artes, la Religión, la Filosofía, etc., puede relacionar y comparar conocimientos diferentes entre sí, pero cuya elección obedece fundamentalmente a criterios personales y no meramente institucionales
Resumo:
La educación en la Argentina está articulada bajo criterios sociales establecidos pero que son básicamente arbitrarios y sustentados en supuestos no demostrados que afirman que el conocimiento se construye a partir de ciertos contenidos y no de otros. Dichos criterios no han variado mayormente durante las últimas décadas y siguen utilizándose como plataforma inicial a partir de los cuales se articula la educación posterior del educando. Los sistemas de educación superior en América Latina sufren una crisis a raíz de la creciente internacionalización de las nuevas tecnologías de comunicación e información y de los reclamos de inclusión social de los sectores marginados, entre otras razones. Las tecnologías de compresión digital dan origen a un modelo educativo "en red" caracterizado por un funcionamiento no presencial, mediante el cual se produce la transformación del rol de la Universidad, como centro de descubrimiento y posesión del conocimiento, para convertirse en apenas una intermediaria en la búsqueda del saber y la información. Esta nueva modalidad de educación crece en la medida en que puede cubrir una demanda social de educación superior insatisfecha, conformada básicamente por adultos que trabajan, estudiantes de zonas alejadas de los centros educativos, extranjeros que carecen de opciones educativas y alumnos globalizados. Por ello, la educación virtual nace como una nueva respuesta a viejas demandas. La construcción de una sociedad planetaria y la convivencia del multiculturalismo, además de representar la expresión de sociedades abiertas, que quizás no dispongan de bases comunes de cohesión nacional, debe ser parte de un nuevo proyecto de solidaridad y confraternidad mundial.Resulta sumamente importante que las Universidades de América Latina defiendan su participación como tales en los mercados regionales mediante la adquisición de mayor flexibilidad, actualización y excelencia, para erigirse de esta manera como una opción comparativamente válida. Asimismo, creemos que la educación, entendida como todo el corpus del conocimiento que tiene una persona, no se construye de manera arbitraria sino, por el contrario, de manera selectiva de acuerdo a las posibilidades del educando; y es precisamente sobre la base de esta pormenorizada elección el sustento sobre el cual el alumno llega posteriormente a desarrollos intelectuales superiores. El objetivo del presente trabajo se centra en mostrar la importancia de índole social y política que tienen la flexibilización y la personalización en el currículum de estudios universitarios, al momento de observar el resultado final del ejercicio profesional del graduado. Desde este punto de vista, es fundamental que la elección de los contenidos del plan de estudios de la carrera universitaria estén a cargo del educando, con la dirección de una unidad académica, especialmente en relación con lo que hoy se conoce como "aprendizaje justo a tiempo". Dicho en otras palabras, solamente cuando el educando trasciende ese fundamento institucional e inicial de conocimientos para abrevar en otras fuentes, como las Artes, la Religión, la Filosofía, etc., puede relacionar y comparar conocimientos diferentes entre sí, pero cuya elección obedece fundamentalmente a criterios personales y no meramente institucionales
Resumo:
La termografía infrarroja (TI) es una técnica no invasiva y de bajo coste que permite, con el simple acto de tomar una fotografía, el registro sin contacto de la energía que irradia el cuerpo humano (Akimov & Son’kin, 2011, Merla et al., 2005, Ng et al., 2009, Costello et al., 2012, Hildebrandt et al., 2010). Esta técnica comenzó a utilizarse en el ámbito médico en los años 60, pero debido a los malos resultados como herramienta diagnóstica y la falta de protocolos estandarizados (Head & Elliot, 2002), ésta se dejó de utilizar en detrimento de otras técnicas más precisas a nivel diagnóstico. No obstante, las mejoras tecnológicas de la TI en los últimos años han hecho posible un resurgimiento de la misma (Jiang et al., 2005, Vainer et al., 2005, Cheng et al., 2009, Spalding et al., 2011, Skala et al., 2012), abriendo el camino a nuevas aplicaciones no sólo centradas en el uso diagnóstico. Entre las nuevas aplicaciones, destacamos las que se desarrollan en el ámbito de la actividad física y el deporte, donde recientemente se ha demostrado que los nuevos avances con imágenes de alta resolución pueden proporcionar información muy interesante sobre el complejo sistema de termorregulación humana (Hildebrandt et al., 2010). Entre las nuevas aplicaciones destacan: la cuantificación de la asimilación de la carga de trabajo físico (Čoh & Širok, 2007), la valoración de la condición física (Chudecka et al., 2010, 2012, Akimov et al., 2009, 2011, Merla et al., 2010), la prevención y seguimiento de lesiones (Hildebrandt et al., 2010, 2012, Badža et al., 2012, Gómez Carmona, 2012) e incluso la detección de agujetas (Al-Nakhli et al., 2012). Bajo estas circunstancias, se acusa cada vez más la necesidad de ampliar el conocimiento sobre los factores que influyen en la aplicación de la TI en los seres humanos, así como la descripción de la respuesta de la temperatura de la piel (TP) en condiciones normales, y bajo la influencia de los diferentes tipos de ejercicio. Por consiguiente, este estudio presenta en una primera parte una revisión bibliográfica sobre los factores que afectan al uso de la TI en los seres humanos y una propuesta de clasificación de los mismos. Hemos analizado la fiabilidad del software Termotracker, así como su reproducibilidad de la temperatura de la piel en sujetos jóvenes, sanos y con normopeso. Finalmente, se analizó la respuesta térmica de la piel antes de un entrenamiento de resistencia, velocidad y fuerza, inmediatamente después y durante un período de recuperación de 8 horas. En cuanto a la revisión bibliográfica, hemos propuesto una clasificación para organizar los factores en tres grupos principales: los factores ambientales, individuales y técnicos. El análisis y descripción de estas influencias deben representar la base de nuevas investigaciones con el fin de utilizar la TI en las mejores condiciones. En cuanto a la reproducibilidad, los resultados mostraron valores excelentes para imágenes consecutivas, aunque la reproducibilidad de la TP disminuyó ligeramente con imágenes separadas por 24 horas, sobre todo en las zonas con valores más fríos (es decir, zonas distales y articulaciones). Las asimetrías térmicas (que normalmente se utilizan para seguir la evolución de zonas sobrecargadas o lesionadas) también mostraron excelentes resultados pero, en este caso, con mejores valores para las articulaciones y el zonas centrales (es decir, rodillas, tobillos, dorsales y pectorales) que las Zonas de Interés (ZDI) con valores medios más calientes (como los muslos e isquiotibiales). Los resultados de fiabilidad del software Termotracker fueron excelentes en todas las condiciones y parámetros. En el caso del estudio sobre los efectos de los entrenamientos de la velocidad resistencia y fuerza en la TP, los resultados muestran respuestas específicas según el tipo de entrenamiento, zona de interés, el momento de la evaluación y la función de las zonas analizadas. Los resultados mostraron que la mayoría de las ZDI musculares se mantuvieron significativamente más calientes 8 horas después del entrenamiento, lo que indica que el efecto del ejercicio sobre la TP perdura por lo menos 8 horas en la mayoría de zonas analizadas. La TI podría ser útil para cuantificar la asimilación y recuperación física después de una carga física de trabajo. Estos resultados podrían ser muy útiles para entender mejor el complejo sistema de termorregulación humano, y por lo tanto, para utilizar la TI de una manera más objetiva, precisa y profesional con visos a mejorar las nuevas aplicaciones termográficas en el sector de la actividad física y el deporte Infrared Thermography (IRT) is a safe, non-invasive and low-cost technique that allows the rapid and non-contact recording of the irradiated energy released from the body (Akimov & Son’kin, 2011; Merla et al., 2005; Ng et al., 2009; Costello et al., 2012; Hildebrandt et al., 2010). It has been used since the early 1960’s, but due to poor results as diagnostic tool and a lack of methodological standards and quality assurance (Head et al., 2002), it was rejected from the medical field. Nevertheless, the technological improvements of IRT in the last years have made possible a resurgence of this technique (Jiang et al., 2005; Vainer et al., 2005; Cheng et al., 2009; Spalding et al., 2011; Skala et al., 2012), paving the way to new applications not only focused on the diagnose usages. Among the new applications, we highlighted those in physical activity and sport fields, where it has been recently proven that a high resolution thermal images can provide us with interesting information about the complex thermoregulation system of the body (Hildebrandt et al., 2010), information than can be used as: training workload quantification (Čoh & Širok, 2007), fitness and performance conditions (Chudecka et al., 2010, 2012; Akimov et al., 2009, 2011; Merla et al., 2010; Arfaoui et al., 2012), prevention and monitoring of injuries (Hildebrandt et al., 2010, 2012; Badža et al., 2012, Gómez Carmona, 2012) and even detection of Delayed Onset Muscle Soreness – DOMS- (Al-Nakhli et al., 2012). Under this context, there is a relevant necessity to broaden the knowledge about factors influencing the application of IRT on humans, and to better explore and describe the thermal response of Skin Temperature (Tsk) in normal conditions, and under the influence of different types of exercise. Consequently, this study presents a literature review about factors affecting the application of IRT on human beings and a classification proposal about them. We analysed the reliability of the software Termotracker®, and also its reproducibility of Tsk on young, healthy and normal weight subjects. Finally, we examined the Tsk thermal response before an endurance, speed and strength training, immediately after and during an 8-hour recovery period. Concerning the literature review, we proposed a classification to organise the factors into three main groups: environmental, individual and technical factors. Thus, better exploring and describing these influence factors should represent the basis of further investigations in order to use IRT in the best and optimal conditions to improve its accuracy and results. Regarding the reproducibility results, the outcomes showed excellent values for consecutive images, but the reproducibility of Tsk slightly decreased with time, above all in the colder Regions of Interest (ROI) (i.e. distal and joint areas). The side-to-side differences (ΔT) (normally used to follow the evolution of some injured or overloaded ROI) also showed highly accurate results, but in this case with better values for joints and central ROI (i.e. Knee, Ankles, Dorsal and Pectoral) than the hottest muscle ROI (as Thigh or Hamstrings). The reliability results of the IRT software Termotracker® were excellent in all conditions and parameters. In the part of the study about the effects on Tsk of aerobic, speed and strength training, the results of Tsk demonstrated specific responses depending on the type of training, ROI, moment of the assessment and the function of the considered ROI. The results showed that most of muscular ROI maintained warmer significant Tsk 8 hours after the training, indicating that the effect of exercise on Tsk last at least 8 hours in most of ROI, as well as IRT could help to quantify the recovery status of the athlete as workload assimilation indicator. Those results could be very useful to better understand the complex skin thermoregulation behaviour, and therefore, to use IRT in a more objective, accurate and professional way to improve the new IRT applications for the physical activity and sport sector.
Resumo:
This paper presents the results of cyclic loading tests on two large-scale reinforced concrete structural walls that were conducted at Purdue University. One of the walls had confinement reinforcement meeting ACI-318-11 requirements while the other wall did not have any confinement reinforcement. The walls were tested as part of a larger study aimed at indentifying parameters affecting failure modes observed to limit the drift capacity of structural walls in Chile during the Maule Earthquake of 2010. These failure modes include out-of-plane buckling (of the wall rather tan individual reinforcing bars), compression failure, and bond failure. This paper discusses the effects of confinement on failure mode. Distributions of unit strain and curvature obtained with a dense array of non-contact coordinate-tracking targets are also presented.