912 resultados para Curvature.
Resumo:
Exercises and solutions in PDF
Resumo:
Exercises and solutions in LaTex
Resumo:
Exercises and solutions in LaTex
Resumo:
La obesidad es un problema de salud global siendo la cirugía bariatrica el mejor tratamiento demostrado. El Bypass gástrico (BGYR) es el método más utilizado que combina restricción y malabsorcion; sin embargo los procedimientos restrictivos se han popularizado recientemente. La Gastro-gastroplastia produce restricción gástrica reversible por medio de un pouch gástrico con anastomosis gastrogástrica y propusimos su evaluación Métodos: Estudio retrospectivo no randomizado que evaluó archivos de pacientes con GG y BGYR laparoscópicos entre febrero de 2008 y Abril de 2011 Resultados: 289 pacientes identificados: 180 GG y 109 BGYR de los cuales 138 cumplieron criterios de inclusión, 77 (55.8%) GG y 61 (44,2%) BGYR, 18 (13%) hombres y 120 (87%) mujeres. Para GG la mediana del peso inicial fue 97,15 (± 17,3) kg, IMC inicial de 39,35 (± 3,38) kg/m2 y exceso de peso de 37,1 (±11,9). La mediana de IMC a los 1, 6 y 12 meses fue 34,8 (±3,58) kg/m2, 30,81 (±3,81) kg/m2, 29,58 (±4,25) kg/m2 respectivamente. La mediana de % PEP 1, 6 y 12 meses fue 30,9 (±14,2) %, 61,88 (±18,27) %, 68,4 (±19,64) % respectivamente. Para BGYR la mediana del peso inicial fue 108,1 (± 25,4) kg, IMC inicial 44,4 (± 8,1) y exceso de peso de 48,4 (±15,2) %. La mediana de IMC a los 1, 6 y 12 meses fue 39 (±7,5) kg/m2, 33,31 (±4,9) kg/m2, 30,9 (±4,8) kg/m2 respectivamente. La mediana de % PEP 1, 6 y 12 meses fue 25,9 (±12,9) %, 61,87 (±18,62) %, 71,41 (±21,09) % respectivamente. Seguimiento a un año Conclusiones: La gastro-gastroplastia se plantea como técnica restrictiva, reversible, con resultados óptimos en reducción de peso y alternativa quirúrgica en pacientes con obesidad. Son necesarios estudios a mayor plazo para demostrar mantenimiento de cambios en el tiempo
Resumo:
La obesidad es un problema de salud global siendo la cirugía bariatrica el mejor tratamiento demostrado. El Bypass Gástrico (BGYR) es el método más utilizado que combina restricción y malabsorcion; sin embargo los procedimientos restrictivos se han popularizado recientemente. La Gastro-gastroplastia produce restricción gástrica reversible por medio de un pouch gástrico con anastomosis gastrogástrica y propusimos su evaluación Métodos: Estudio retrospectivo no randomizado que evaluó archivos de pacientes con GG y BGYR laparoscópicos entre Febrero de 2008 y Abril de 2011 Resultados: 289 pacientes identificados: 180 GG y 109 BGYR de los cuales 138 cumplieron criterios de inclusión, 77 (55.8%) GG y 61 (44,2%) BGYR, 18 (13%) hombres y 120 (87%) mujeres. Para GG la mediana del peso inicial fue 97,15 (± 17,3) kg, IMC inicial de 39,35 (± 3,38) kg/m2 y exceso de peso de 37,1 (±11,9). La mediana de IMC a los 1, 6 y 12 meses fue 34,8 (±3,58) kg/m2, 30,81 (±3,81) kg/m2, 29,58 (±4,25) kg/m2 respectivamente. La mediana de % PEP 1, 6 y 12 meses fue 30,9 (±14,2) %, 61,88 (±18,27) %, 68,4 (±19,64) % respectivamente. Para BGYR la mediana del peso inicial fue 108,1 (± 25,4) kg, IMC inicial 44,4 (± 8,1) y exceso de peso de 48,4 (±15,2) %. La mediana de IMC a los 1, 6 y 12 meses fue 39 (±7,5) kg/m2, 33,31 (±4,9) kg/m2, 30,9 (±4,8) kg/m2 respectivamente. La mediana de % PEP 1, 6 y 12 meses fue 25,9 (±12,9) %, 61,87 (±18,62) %, 71,41 (±21,09) % respectivamente. Seguimiento a un año. Conclusiones: La gastro-gastroplastia se plantea como técnica restrictiva, reversible, con resultados óptimos en reducción de peso y alternativa quirúrgica en pacientes con obesidad. Son necesarios estudios a mayor plazo para demostrar mantenimiento de cambios en el tiempo.
Resumo:
El objetivo del presente estudio cualitativo fue analizar los aspectos morfológicos de la anatomía cerebral interna utilizando imágenes de resonancia magnética (IRM) en dos especies de primates, El mono Araña (A. geoffroyi) y el humano (H. sapiens), tomando como base un estudio comparativo de las estructuras cerebrales de las dos especies, concentrándose primordialmente en el sistema límbico del cerebro del mono araña. Aunque es una especie común en el hemisferio occidental, es interesante para estudiar dada su organización social y funciones motoras, el mono araña (A. geoffroyi) ha sido poco estudiado en cuanto a su neuroanatomía. Las IRM fueron hechas a un mono araña utilizando un resonador General Electrics Signa 1.5 T. Esta investigación se llevo a cabo conforme a las leyes internacionales para la protección de animales en cautiverio y teniendo en cuenta todas las medidas de protección para el manejo experimental para evitar cualquier efecto residual de índole comportamental o fisiológico. Desde un punto de vista cualitativo, los cerebros del mono araña y el humano tenían estructuras similares. Con respecto a la forma, las estructuras más parecidas fueron encontradas en el sistema límbico, sin embargo la curvatura cervical, la amígdala, el hipocampo, la comisura anterior y el colículo fueron más grandes proporcionalmente en el mono araña que en el humano.
Resumo:
La escoliosis es una desviación lateral de la columna vertebral desde la línea media, caracterizada por una curvatura lateral y por una rotación vertebral. Generalmente, es de carácter idiopático y se presenta, principalmente, en niñas adolescentes. Existen múltiples técnicas de tratamiento conservador para la escoliosis, entre las cuales se encuentran la terapia manual, que complementa el tratamiento para dicha patología. Esta terapia utiliza menos medios físicos, más manipulación de tejidos blandos y óseos, y logra así una recuperación más eficaz, con una mejor calidad de vida. El objetivo de este estudio de caso es comparar y describir los cambios en las condiciones de una paciente de 18 años, con escoliosis idiopática juvenil en columna toracolumbar izquierda, al aplicar un tratamiento de terapia manual. Se realizaron procedimientos de valoración integral mediante terapia manual, ortopedia, postura computarizada, análisis del puesto de trabajo, tratamiento con medios físicos y movilización de las articulaciones torácicas y lumbares, en los segmentos vertebrales que presentaban disminución del deslizamiento inferior de las carillas inferiores de la vértebra superior, sobre las carillas superiores de la vértebra inferior (segmentos T5-T6, T6-T7, T7-T8, T8-T9);técnicas de energía muscular, ejercicios de reeducación postural global, estabilización cervical y lumbar, ejercicios de fortalecimiento para musculatura débil del hemicuerpo izquierdo y de estiramiento, con el fin de elongar la musculatura retraída del hemicuerpo derecho. Al iniciar el tratamiento, se verificó, mediante una radiografía, que el ángulo de Cobb era de 24º; después de las sesiones de terapia manual se logró reducir a 18º, lo que generó una disminución significativa de 6º. Se verificó la efectividad del tratamiento por la disminución del dolor, el aumento de la fuerza muscular, la realineación postural, la satisfacción del paciente y la recuperación significativa comprobada por los estudios radiológicos.
Resumo:
El objetivo del presente estudio cualitativo fue analizar los aspectos morfológicos de la anatomía cerebral interna utilizando imágenes de resonancia magnética (IRM) en dos especies de primates, El mono Araña (A. geoffroyi) y el humano (H. sapiens), tomando como base un estudio comparativo de las estructuras cerebrales de las dos especies, concentrándose primordialmente en el sistema límbico del cerebro del mono araña. Aunque es una especie común en el hemisferio occidental, es interesante para estudiar dada su organización social y funciones motoras, el mono araña (A. geoffroyi) ha sido poco estudiado en cuanto a su neuroanatomía. Las IRM fueron hechas a un mono araña utilizando un resonador General Electrics Signa 1.5 T. Esta investigación se llevo a cabo conforme a las leyes internacionales para la protección de animales en cautiverio y teniendo en cuenta todas las medidas de protección para el manejo experimental para evitar cualquier efecto residual de índole comportamental o fisiológico. Desde un punto de vista cualitativo, los cerebros del mono araña y el humano tenían estructuras similares. Con respecto a la forma, las estructuras más parecidas fueron encontradas en el sistema límbico, sin embargo la curvatura cervical, la amígdala, el hipocampo, la comisura anterior y el colículo fueron más grandes proporcionalmente en el mono araña que en el humano.
Resumo:
La estimación e interpretación de la estructura a plazo de la tasas de interés es de gran relevancia porque permite realizar pronósticos, es fundamental para la toma de decisiones de política monetaria y fiscal, es esencial en la administración de riesgos y es insumo para la valoración de diferentes activos financieros. Por estas razones, es necesario entender que puede provocar un movimiento en la estructura a plazo. En este trabajo se estiman un modelo afín exponencial de tres factores aplicado a los rendimientos de los títulos en pesos de deuda pública colombianos. Los factores estimados son la tasa corta, la media de largo plazo de la tasa corta y la volatilidad de la tasa corta. La estimación se realiza para el periodo enero 2010 a mayo de 2015 y se realiza un análisis de correlaciones entre los tres factores. Posterior a esto, con los factores estimados se realiza una regresión para identificar la importancia que tiene cada uno de estos en el comportamiento de las tasas de los títulos de deuda pública colombiana para diferentes plazos al vencimiento. Finalmente, se estima la estructura a plazo de las tasas de interés para Colombia y se identifica la relación de los factores estimados con los encontrados por Litterman y Scheinkman [1991] correspondientes al nivel, pendiente y curvatura.
Resumo:
La present tesi, tot i que emmarcada dins de la teoria de les Mesures Semblança Molecular Quántica (MQSM), es deriva en tres àmbits clarament definits: - La creació de Contorns Moleculars de IsoDensitat Electrònica (MIDCOs, de l'anglès Molecular IsoDensity COntours) a partir de densitats electròniques ajustades. - El desenvolupament d'un mètode de sobreposició molecular, alternatiu a la regla de la màxima semblança. - Relacions Quantitatives Estructura-Activitat (QSAR, de l'anglès Quantitative Structure-Activity Relationships). L'objectiu en el camp dels MIDCOs és l'aplicació de funcions densitat ajustades, ideades inicialment per a abaratir els càlculs de MQSM, per a l'obtenció de MIDCOs. Així, es realitza un estudi gràfic comparatiu entre diferents funcions densitat ajustades a diferents bases amb densitats obtingudes de càlculs duts a terme a nivells ab initio. D'aquesta manera, l'analogia visual entre les funcions ajustades i les ab initio obtinguda en el ventall de representacions de densitat obtingudes, i juntament amb els valors de les mesures de semblança obtinguts prèviament, totalment comparables, fonamenta l'ús d'aquestes funcions ajustades. Més enllà del propòsit inicial, es van realitzar dos estudis complementaris a la simple representació de densitats, i són l'anàlisi de curvatura i l'extensió a macromolècules. La primera observació correspon a comprovar no només la semblança dels MIDCOs, sinó la coherència del seu comportament a nivell de curvatura, podent-se així observar punts d'inflexió en la representació de densitats i veure gràficament aquelles zones on la densitat és còncava o convexa. Aquest primer estudi revela que tant les densitats ajustades com les calculades a nivell ab initio es comporten de manera totalment anàloga. En la segona part d'aquest treball es va poder estendre el mètode a molècules més grans, de fins uns 2500 àtoms. Finalment, s'aplica part de la filosofia del MEDLA. Sabent que la densitat electrònica decau ràpidament al allunyar-se dels nuclis, el càlcul d'aquesta pot ser obviat a distàncies grans d'aquests. D'aquesta manera es va proposar particionar l'espai, i calcular tan sols les funcions ajustades de cada àtom tan sols en una regió petita, envoltant l'àtom en qüestió. Duent a terme aquest procés, es disminueix el temps de càlcul i el procés esdevé lineal amb nombre d'àtoms presents en la molècula tractada. En el tema dedicat a la sobreposició molecular es tracta la creació d'un algorisme, així com la seva implementació en forma de programa, batejat Topo-Geometrical Superposition Algorithm (TGSA), d'un mètode que proporcionés aquells alineaments que coincideixen amb la intuïció química. El resultat és un programa informàtic, codificat en Fortran 90, el qual alinea les molècules per parelles considerant tan sols nombres i distàncies atòmiques. La total absència de paràmetres teòrics permet desenvolupar un mètode de sobreposició molecular general, que proporcioni una sobreposició intuïtiva, i també de forma rellevant, de manera ràpida i amb poca intervenció de l'usuari. L'ús màxim del TGSA s'ha dedicat a calcular semblances per al seu ús posterior en QSAR, les quals majoritàriament no corresponen al valor que s'obtindria d'emprar la regla de la màxima semblança, sobretot si hi ha àtoms pesats en joc. Finalment, en l'últim tema, dedicat a la Semblança Quàntica en el marc del QSAR, es tracten tres aspectes diferents: - Ús de matrius de semblança. Aquí intervé l'anomenada matriu de semblança, calculada a partir de les semblances per parelles d'entre un conjunt de molècules. Aquesta matriu és emprada posteriorment, degudament tractada, com a font de descriptors moleculars per a estudis QSAR. Dins d'aquest àmbit s'han fet diversos estudis de correlació d'interès farmacològic, toxicològic, així com de diverses propietats físiques. - Aplicació de l'energia d'interacció electró-electró, assimilat com a una forma d'autosemblança. Aquesta modesta contribució consisteix breument en prendre el valor d'aquesta magnitud, i per analogia amb la notació de l'autosemblança molecular quàntica, assimilar-la com a cas particular de d'aquesta mesura. Aquesta energia d'interacció s'obté fàcilment a partir de programari mecanoquàntic, i esdevé ideal per a fer un primer estudi preliminar de correlació, on s'utilitza aquesta magnitud com a únic descriptor. - Càlcul d'autosemblances, on la densitat ha estat modificada per a augmentar el paper d'un substituent. Treballs previs amb densitats de fragments, tot i donar molt bons resultats, manquen de cert rigor conceptual en aïllar un fragment, suposadament responsable de l'activitat molecular, de la totalitat de l'estructura molecular, tot i que les densitats associades a aquest fragment ja difereixen degut a pertànyer a esquelets amb diferents substitucions. Un procediment per a omplir aquest buit que deixa la simple separació del fragment, considerant així la totalitat de la molècula (calcular-ne l'autosemblança), però evitant al mateix temps valors d'autosemblança no desitjats provocats per àtoms pesats, és l'ús de densitats de Forats de fermi, els quals es troben definits al voltant del fragment d'interès. Aquest procediment modifica la densitat de manera que es troba majoritàriament concentrada a la regió d'interès, però alhora permet obtenir una funció densitat, la qual es comporta matemàticament igual que la densitat electrònica regular, podent-se així incorporar dins del marc de la semblança molecular. Les autosemblances calculades amb aquesta metodologia han portat a bones correlacions amb àcids aromàtics substituïts, podent així donar una explicació al seu comportament. Des d'un altre punt de vista, també s'han fet contribucions conceptuals. S'ha implementat una nova mesura de semblança, la d'energia cinètica, la qual consisteix en prendre la recentment desenvolupada funció densitat d'energia cinètica, la qual al comportar-se matemàticament igual a les densitats electròniques regulars, s'ha incorporat en el marc de la semblança. A partir d'aquesta mesura s'han obtingut models QSAR satisfactoris per diferents conjunts moleculars. Dins de l'aspecte del tractament de les matrius de semblança s'ha implementat l'anomenada transformació estocàstica com a alternativa a l'ús de l'índex Carbó. Aquesta transformació de la matriu de semblança permet obtenir una nova matriu no simètrica, la qual pot ser posteriorment tractada per a construir models QSAR.
Resumo:
Modelo de predicción de la geometría final de una pieza de chapa, radio y ángulo de doblado final, producida mediante un proceso de doblado al aire.
Resumo:
A primary interest of this thesis is to obtain a powerful tool for determining structural properties, electrical and reactivity of molecules. A second interest is the study of fundamental error based on complex overlay of bridge hydrogen. One way to correct this error, using Counterpoise correction proposed by Boys and Bernardi. Usually the Counterpoise correction is applied promptly on the geometries previously optimized. Our goal was to find areas of potential which had all the points fixed with CP. These surfaces have a minimum corresponding to a surface other than corrected, ie, the geometric parameters will be different. The curvature of this minimum will also be different, therefore the vibrational frequency will also change when they are corrected with BSSE. Once constructed these surfaces have been studied various complex. It has also been investigated as the method for calculating the error influenced on the basis superposition.
Resumo:
Separation of stratified flow over a two-dimensional hill is inhibited or facilitated by acceleration or deceleration of the flow just outside the attached boundary layer. In this note, an expression is derived for this acceleration or deceleration in terms of streamline curvature and stratification. The expression is valid for linear as well as nonlinear deformation of the flow. For hills of vanishing aspect ratio a linear theory can be derived and a full regime diagram for separation can be constructed. For hills of finite aspect ratio scaling relationships can be derived that indicate the presence of a critical aspect ratio, proportional to the stratification, above which separation will occur as well as a second critical aspect ratio above which separation will always occur irrespective of stratification.
Resumo:
Airborne scanning laser altimetry (LiDAR) is an important new data source for river flood modelling. LiDAR can give dense and accurate DTMs of floodplains for use as model bathymetry. Spatial resolutions of 0.5m or less are possible, with a height accuracy of 0.15m. LiDAR gives a Digital Surface Model (DSM), so vegetation removal software (e.g. TERRASCAN) must be used to obtain a DTM. An example used to illustrate the current state of the art will be the LiDAR data provided by the EA, which has been processed by their in-house software to convert the raw data to a ground DTM and separate vegetation height map. Their method distinguishes trees from buildings on the basis of object size. EA data products include the DTM with or without buildings removed, a vegetation height map, a DTM with bridges removed, etc. Most vegetation removal software ignores short vegetation less than say 1m high. We have attempted to extend vegetation height measurement to short vegetation using local height texture. Typically most of a floodplain may be covered in such vegetation. The idea is to assign friction coefficients depending on local vegetation height, so that friction is spatially varying. This obviates the need to calibrate a global floodplain friction coefficient. It’s not clear at present if the method is useful, but it’s worth testing further. The LiDAR DTM is usually determined by looking for local minima in the raw data, then interpolating between these to form a space-filling height surface. This is a low pass filtering operation, in which objects of high spatial frequency such as buildings, river embankments and walls may be incorrectly classed as vegetation. The problem is particularly acute in urban areas. A solution may be to apply pattern recognition techniques to LiDAR height data fused with other data types such as LiDAR intensity or multispectral CASI data. We are attempting to use digital map data (Mastermap structured topography data) to help to distinguish buildings from trees, and roads from areas of short vegetation. The problems involved in doing this will be discussed. A related problem of how best to merge historic river cross-section data with a LiDAR DTM will also be considered. LiDAR data may also be used to help generate a finite element mesh. In rural area we have decomposed a floodplain mesh according to taller vegetation features such as hedges and trees, so that e.g. hedge elements can be assigned higher friction coefficients than those in adjacent fields. We are attempting to extend this approach to urban area, so that the mesh is decomposed in the vicinity of buildings, roads, etc as well as trees and hedges. A dominant points algorithm is used to identify points of high curvature on a building or road, which act as initial nodes in the meshing process. A difficulty is that the resulting mesh may contain a very large number of nodes. However, the mesh generated may be useful to allow a high resolution FE model to act as a benchmark for a more practical lower resolution model. A further problem discussed will be how best to exploit data redundancy due to the high resolution of the LiDAR compared to that of a typical flood model. Problems occur if features have dimensions smaller than the model cell size e.g. for a 5m-wide embankment within a raster grid model with 15m cell size, the maximum height of the embankment locally could be assigned to each cell covering the embankment. But how could a 5m-wide ditch be represented? Again, this redundancy has been exploited to improve wetting/drying algorithms using the sub-grid-scale LiDAR heights within finite elements at the waterline.
Resumo:
In this paper we estimate a Translog output distance function for a balanced panel of state level data for the Australian dairy processing sector. We estimate a fixed effects specification employing Bayesian methods, with and without the imposition of monotonicity and curvature restrictions. Our results indicate that Tasmania and Victoria are the most technically efficient states with New South Wales being the least efficient. The imposition of theoretical restrictions marginally affects the results especially with respect to estimates of technical change and industry deregulation. Importantly, our bias estimates show changes in both input use and output mix that result from deregulation. Specifically, we find that deregulation has positively biased the production of butter, cheese and powders.