567 resultados para Observables
Resumo:
La Química, como parte de las ciencias naturales, posee intereses entrecruzaos con muchas otras ciencias y disciplinas, ayudando a la interpretación y construcción de otros campos del conocimiento, a la vez crea su propio desarrollo de representaciones mentales, explicaciones y modelaciones de los fenómenos con relación a la materia, tanto desde una visión microscópica como macroscópica. Para conocer la naturaleza de las cosas materiales, su clasificación, sus comportamientos observables o no, sus transformaciones naturales o desencadenadas por la mano del hombre, en general, su relación con el mundo circundante, la experimentación se plantea como un requisito o herramienta necesaria en la construcción de este conocimiento.
Resumo:
Este artículo se centra en la identificación y análisis de los agentes específicos involucrados en el proceso de internacionalización económica de México a partir de analizar su penetración e impacto en el aparato de Estado. Ponderaremos su influencia en el diseño e implementación de la política del país, en el área económica y ecológica.Se revisan casos documentalmente específicos, dando cuenta de las operaciones desplegadas en México, con su peculiar manejo lingüístico y modus operandi del Grupo del Banco Mundial, así como otros actores que trabajan de manera coordinada con el último: el Banco Interamericano de Desarrollo (BID) y el Global Environmental Facility (GEF). Tarea que se realizará en el marco de las continuidades y discontinuidades históricas observables en la esfera de la economía internacional, identificando las distintas formas en que se materializan los procesos de ordenación y subordinación en estos rubros.
Resumo:
Investigation of large, destructive earthquakes is challenged by their infrequent occurrence and the remote nature of geophysical observations. This thesis sheds light on the source processes of large earthquakes from two perspectives: robust and quantitative observational constraints through Bayesian inference for earthquake source models, and physical insights on the interconnections of seismic and aseismic fault behavior from elastodynamic modeling of earthquake ruptures and aseismic processes.
To constrain the shallow deformation during megathrust events, we develop semi-analytical and numerical Bayesian approaches to explore the maximum resolution of the tsunami data, with a focus on incorporating the uncertainty in the forward modeling. These methodologies are then applied to invert for the coseismic seafloor displacement field in the 2011 Mw 9.0 Tohoku-Oki earthquake using near-field tsunami waveforms and for the coseismic fault slip models in the 2010 Mw 8.8 Maule earthquake with complementary tsunami and geodetic observations. From posterior estimates of model parameters and their uncertainties, we are able to quantitatively constrain the near-trench profiles of seafloor displacement and fault slip. Similar characteristic patterns emerge during both events, featuring the peak of uplift near the edge of the accretionary wedge with a decay toward the trench axis, with implications for fault failure and tsunamigenic mechanisms of megathrust earthquakes.
To understand the behavior of earthquakes at the base of the seismogenic zone on continental strike-slip faults, we simulate the interactions of dynamic earthquake rupture, aseismic slip, and heterogeneity in rate-and-state fault models coupled with shear heating. Our study explains the long-standing enigma of seismic quiescence on major fault segments known to have hosted large earthquakes by deeper penetration of large earthquakes below the seismogenic zone, where mature faults have well-localized creeping extensions. This conclusion is supported by the simulated relationship between seismicity and large earthquakes as well as by observations from recent large events. We also use the modeling to connect the geodetic observables of fault locking with the behavior of seismicity in numerical models, investigating how a combination of interseismic geodetic and seismological estimates could constrain the locked-creeping transition of faults and potentially their co- and post-seismic behavior.
Resumo:
En El Salvador, como en la mayoría de países subdesarrollados, la micro y pequeña empresa ha operado y sigue operando en condiciones adversas e inadecuadas, y la principal causa de ello es su administración informal, la que se desarrolla de forma circunstancial y amorfa sin considerar el proceso administrativo en sus diferentes etapas. Las Micro y pequeñas empresas dedicadas a la panificación no escapan a tal realidad, especialmente en las etapas de planeación y control financiero, para los cuales no existe el suficiente conocimiento para su formulación y aplicación; los problemas son observables en la deficiente planeación a corto, mediano y largo plazo, lo que conlleva a una deficiente toma de decisiones que resulta sin un previo análisis de las variables internas y externas que afectan a la empresa. Más específicamente, los obstáculos se encuentran en la falta de los distintos planes financieros como son los objetivos, metas, estrategias, procedimientos, reglas y presupuestos; así como también la falta de los controles financieros tales como estadísticas, análisis de razones financieras, estados financieros proyectados, análisis del punto de equilibrio, entre otros. Por tal razón, resulta de gran importancia para las micro y pequeñas empresas panificadoras contar con un modelo de planeación y control financiero que les ayude a tomar decisiones eficaces, eficientes y oportunas, tomando en cuenta además las variables internas y externas que la afectan; logrando de esta manera identificar, pronosticar y evaluar las diferentes variables concernientes a los planes y controles financieros. Con base a lo anterior, los objetivos de la investigación son: Diseñar los principales planes financieros a las micro y pequeñas empresas panificadoras con el propósito de optimizar sus recursos. Determinar los principales controles financieros que procuren el cumplimiento de los planes y la adopción de medidas correctivas en su ejecución, en las micro y pequeñas empresas panificadoras. Establecer una estructura correlacional de planes y controles financieros que sirva de guía para las micro y pequeñas empresas panificadoras en la toma de decisiones. La metodología de la investigación se elaboró a través de fuentes primarias, las cuales fueron la observación directa y encuestas dirigidas a propietarios de las panaderías del área metropolitana de San Miguel; y las fuentes secundarias como: libros, revistas y tesis. Con esto se determinó que las micro y pequeñas empresas panificadoras del área metropolitana de San Miguel no tienen definidos los planes y controles financieros y la utilidad de éstos, como herramienta básica, en la toma de decisiones en sus respectivos negocios, del cual dependerá el grado de éxito o fracaso de sus operaciones. Lo anteriormente citado puede mejorarse con la implementación de un modelo de planeación y control financiero que se apegue a las necesidades y capacidades de cada uno de las micro y pequeñas empresas panificadoras del área metropolitana de San Miguel. Además, se incluye al final los anexos que ayudan a una mejor comprensión del tema y la bibliografía respectiva.
Resumo:
EL PRIMER FRANQUISMO EN MARBELLA (1939-1959). DE LOS AÑOS DEL HAMBRE A LOS AÑOS DEL SOL, es un trabajo de investigación que abarca los veinte años de la primera etapa del franquismo en Marbella pero cuyo marco cronológico se flexibiliza desde la Dictadura de Primo de Rivera y la Segunda República, especialmente en el estudio del pasado político de los miembros de las primeras Gestoras y Ayuntamientos franquistas, hasta los primeros años de la década de los sesenta con el amanecer del desarrollo turístico de la ciudad. Un trabajo de investigación basado en la situación social, económica, política y religiosa de Marbella tras la Guerra Civil y los años del primer franquismo, contexto histórico similar al resto de España, pero que al mismo tiempo presenta sus propias características específicas observables en la conexión del personal político con etapas políticas anteriores y en el particular despertar del comienzo del fenómeno turístico en Marbella. Desarrollo teórico Las características sociales, económicas y políticas del primer franquismo a nivel nacional son observables a nivel local; un reflejo a pequeña escala de los problemas que la sociedad española vivió en estos años de posguerra. El trabajo de investigación está dividido en cinco capítulos cuyo contenido ha sido trabajado a nivel local y provincial. El primero refleja la situación social de Marbella tras la contienda. El segundo capítulo estudia la situación económica de la ciudad tras la Guerra Civil. En el tercero se analiza la Institución Municipal, desde la etapa de las Comisiones Gestoras hasta los Ayuntamientos Corporativos y la Gestión Municipal. El cuarto capítulo estudia las características del partido único a nivel provincial y local, Organización Sindical, así como el papel desempeñado por las Instituciones del Movimiento Nacional, Frente de Juventudes y Sección Femenina. El capítulo cinco desarrolla las relaciones de la Iglesia con el Poder Político a nivel local y nacional. Conclusión Marbella presenta similares características políticas, sociales y económicas que el resto del país durante los años de posguerra, con la particularidad de que gran parte del personal político del primer franquismo presentaba una clara conexión con etapas políticas anteriores y la ciudad terminaría convirtiéndose, durante los años finales de la etapa objeto de estudio, en uno de los centros más significativos de desarrollo turístico a nivel provincial, regional y nacional. Bibliografía Ha sido dividida en dos apartados, uno general sobre la Guerra Civil y el franquismo y otro específico sobre la misma temática a nivel local y provincial.
Resumo:
Molecular simulation provides a powerful tool for connecting molecular-level processes to physical observables. However, the facility to make those connections relies upon the application and development of theoretical methods that permit appropriate descriptions of the systems or processes to be studied. In this thesis, we utilize molecular simulation to study and predict two phenomena with very different theoretical challenges, beginning with (1) lithium-ion transport behavior in polymers and following with (2) equilibrium isotope effects with relevance to position-specific and clumped isotope studies. In the case of ion transport in polymers, there is motivation to use molecular simulation to provide guidance in polymer electrolyte design, but the length and timescales relevant for ion diffusion in polymers preclude the use of direct molecular dynamics simulation to compute ion diffusivities in more than a handful of candidate systems. In the case of equilibrium isotope effects, the thermodynamic driving forces for isotopic fractionation are often fundamentally quantum mechanical in nature, and the high precision of experimental instruments demands correspondingly accurate theoretical approaches. Herein, we describe respectively coarse-graining and path-integral strategies to address outstanding questions in these two subject areas.
Resumo:
Sachant que plusieurs maladies entrainent des lésions qui ne sont pas toujours observables à l’oeil, cette étude préliminaire en paléopathologie humaine utilise une approche complémentaire issue de l’imagerie médicale, le ct-scan, afin de fournir des diagnostics plus précis. L’objectif est donc de tester ici l’efficacité et les limites de l’analyse scanographique durant l’analyse de spécimens archéologiques. Un échantillon de 55 individus a été sélectionné à partir de la collection ostéologique provenant du cimetière protestant St. Matthew (ville de Québec, 1771 – 1860). Une analyse macroscopique et scanographique complète a alors été effectuée sur chaque squelette. Les observations macroscopiques ont consisté à enregistrer une dizaine de critères standardisés par la littérature de référence en lien avec des manifestations anormales à la surface du squelette. Les ct-scans ont été réalisés à l’Institut National de la Recherche Scientifique de la Ville de Québec avec un tomodensitomètre Somatom de Siemens (définition AS+ 128). Les données scanographiques ont permis d’enregistrer une série de critères complémentaires sur la structure interne de l’os (amincissement/épaississement de la corticale, variation de densité, etc.) Selon la méthode du diagnostic différentiel, des hypothèses ou diagnostics ont été proposés. Ils sont principalement basés sur les critères diagnostiques mentionnés dans les manuels de référence en paléopathologie, mais aussi à l’aide de la littérature clinique et l’expertise de médecins. Les résultats présentés ici supportent que: 1) Dans 43% des cas, les données scanographiques ont apporté des informations essentielles dans la diagnose pathologique. Cette tendance se confirme en fonction de certaines maladies, mais pas d’autres, car certains diagnostics ne peuvent se faire sans la présence de tissus mous. 2) La distribution spatiale de la plupart des lésions varie selon les régions anatomiques, aussi bien en macroscopie qu’en scanographie. 3) Certains types de maladie semblent associés à l’âge et au sexe, ce qui est conforté par la littérature. 4) Cette recherche démontre aussi que le processus de diagnose nécessite, dans 38% des cas, une analyse complémentaire (ex. histologie, scintigraphie, radiographie) pour préciser le diagnostic final.
Resumo:
The electromagnetic form factors are the most fundamental observables that encode information about the internal structure of the nucleon. The electric ($G_{E}$) and the magnetic ($G_{M}$) form factors contain information about the spatial distribution of the charge and magnetization inside the nucleon. A significant discrepancy exists between the Rosenbluth and the polarization transfer measurements of the electromagnetic form factors of the proton. One possible explanation for the discrepancy is the contributions of two-photon exchange (TPE) effects. Theoretical calculations estimating the magnitude of the TPE effect are highly model dependent, and limited experimental evidence for such effects exists. Experimentally, the TPE effect can be measured by comparing the ratio of positron-proton elastic scattering cross section to that of the electron-proton $\large(R = \frac{\sigma (e^{+}p)}{\sigma (e^{-}p)}\large)$. The ratio $R$ was measured over a wide range of kinematics, utilizing a 5.6 GeV primary electron beam produced by the Continuous Electron Beam Accelerator Facility (CEBAF) at Jefferson Lab. This dissertation explored dependence of $R$ on kinematic variables such as squared four-momentum transfer ($Q^{2}$) and the virtual photon polarization parameter ($\varepsilon$). A mixed electron-positron beam was produced from the primary electron beam in experimental Hall B. The mixed beam was scattered from a liquid hydrogen (LH$_{2}$) target. Both the scattered lepton and the recoil proton were detected by the CEBAF Large Acceptance Spectrometer (CLAS). The elastic events were then identified by using elastic scattering kinematics. This work extracted the $Q^{2}$ dependence of $R$ at high $\varepsilon$ ($\varepsilon > $ 0.8) and the $\varepsilon$ dependence of $R$ at $\langle Q^{2} \rangle \approx 0.85$ GeV$^{2}$. In these kinematics, our data confirm the validity of the hadronic calculations of the TPE effect by Blunden, Melnitchouk, and Tjon. This hadronic TPE effect, with additional corrections contributed by higher excitations of the intermediate state nucleon, largely reconciles the Rosenbluth and the polarization transfer measurements of the electromagnetic form factors.
Resumo:
Sachant que plusieurs maladies entrainent des lésions qui ne sont pas toujours observables à l’oeil, cette étude préliminaire en paléopathologie humaine utilise une approche complémentaire issue de l’imagerie médicale, le ct-scan, afin de fournir des diagnostics plus précis. L’objectif est donc de tester ici l’efficacité et les limites de l’analyse scanographique durant l’analyse de spécimens archéologiques. Un échantillon de 55 individus a été sélectionné à partir de la collection ostéologique provenant du cimetière protestant St. Matthew (ville de Québec, 1771 – 1860). Une analyse macroscopique et scanographique complète a alors été effectuée sur chaque squelette. Les observations macroscopiques ont consisté à enregistrer une dizaine de critères standardisés par la littérature de référence en lien avec des manifestations anormales à la surface du squelette. Les ct-scans ont été réalisés à l’Institut National de la Recherche Scientifique de la Ville de Québec avec un tomodensitomètre Somatom de Siemens (définition AS+ 128). Les données scanographiques ont permis d’enregistrer une série de critères complémentaires sur la structure interne de l’os (amincissement/épaississement de la corticale, variation de densité, etc.) Selon la méthode du diagnostic différentiel, des hypothèses ou diagnostics ont été proposés. Ils sont principalement basés sur les critères diagnostiques mentionnés dans les manuels de référence en paléopathologie, mais aussi à l’aide de la littérature clinique et l’expertise de médecins. Les résultats présentés ici supportent que: 1) Dans 43% des cas, les données scanographiques ont apporté des informations essentielles dans la diagnose pathologique. Cette tendance se confirme en fonction de certaines maladies, mais pas d’autres, car certains diagnostics ne peuvent se faire sans la présence de tissus mous. 2) La distribution spatiale de la plupart des lésions varie selon les régions anatomiques, aussi bien en macroscopie qu’en scanographie. 3) Certains types de maladie semblent associés à l’âge et au sexe, ce qui est conforté par la littérature. 4) Cette recherche démontre aussi que le processus de diagnose nécessite, dans 38% des cas, une analyse complémentaire (ex. histologie, scintigraphie, radiographie) pour préciser le diagnostic final.
Resumo:
Résumé : Contexte: Les maladies cardiovasculaires (MCV) sont un enjeu contemporain de santé publique. Or, des recherches cliniques démontrent que certaines interventions sont efficaces dans leur traitement et prévention. Il s’agit d’interventions nutritionnelles éducatives priorisant des aliments végétaux minimalement transformés (VMT). Ces interventions promeuvent l’adoption de postures alimentaires se caractérisant par la consommation à volonté d’une grande variété d’aliments d’origine végétale (e.g. légumineuses, céréales entières, fruits, légumes) et par une diminution de la consommation d’aliments d’origine animale (e.g. viandes, œufs et produits laitiers) et ultra-transformés (e.g. riches en sucres, sel ou gras, et faibles en fibres). Objectifs: À l’aide d’un devis mixte concomitant imbriqué, nous avons évalué les effets d’un programme d’interventions éducatives visant à augmenter la consommation de VMT chez des adultes à risque de MCV et exploré les déterminants des modifications comportementales observées. Méthodologie : Divers paramètres physiologiques et anthropométriques ont été mesurés pré-post programme (n = 72) puis analysés avec un test t pour échantillons appariés ou un test signé des rangs de Wilcoxon. D’autre part, 10 entretiens semi-dirigés ont été réalisés post-programme et soutenus par un guide d’entretien basé sur le Food Choice Process Model. Les verbatims intégraux ont été codés selon la méthode d’analyse thématique. Résultats : Après 12 semaines, le poids (-10,5 lb, IC 95 %: 9,0-12,0), le tour de taille (-7,4 cm, IC 95 %:6,5-8,4), la tension artérielle diastolique (-3,2 mmHg, IC 95 %: 0,1-6,3), le cholestérol total (-0,87 mmol/ L, IC 95 %:0,57-1,17), le cholestérol LDL (-0,84 mmol/ L, IC 95 %: 0,55-1,13) et l’hémoglobine glyquée (-1,32 %, IC 95 %:-0,17-2,80) se sont significativement améliorés. L’analyse thématique des données qualitatives révèle que le programme, par la stimulation de valeurs de santé, d’éthique et d’intégrité, favorise la transformation des choix alimentaires vers une posture davantage axée sur les VMT durant une période clé du parcours de vie (i.e. pré-retraite). D’autres déterminants pouvant favoriser l’adoption d’une alimentation VMT ont été identifiés, dont les bénéfices importants observables à court terme, l’absence de restriction à l’égard de la quantité d’aliments VMT et le développement de compétences de planification dans l’acquisition et la préparation des aliments. Conclusion : Une intervention priorisant les VMT permet d’améliorer le profil cardiométabolique d’individus pré-retraités en raison de ses caractéristiques intrinsèques, mais aussi parce qu’elle modifie les valeurs impliquées dans les choix alimentaires.
Resumo:
The current approach to data analysis for the Laser Interferometry Space Antenna (LISA) depends on the time delay interferometry observables (TDI) which have to be generated before any weak signal detection can be performed. These are linear combinations of the raw data with appropriate time shifts that lead to the cancellation of the laser frequency noises. This is possible because of the multiple occurrences of the same noises in the different raw data. Originally, these observables were manually generated starting with LISA as a simple stationary array and then adjusted to incorporate the antenna's motions. However, none of the observables survived the flexing of the arms in that they did not lead to cancellation with the same structure. The principal component approach is another way of handling these noises that was presented by Romano and Woan which simplified the data analysis by removing the need to create them before the analysis. This method also depends on the multiple occurrences of the same noises but, instead of using them for cancellation, it takes advantage of the correlations that they produce between the different readings. These correlations can be expressed in a noise (data) covariance matrix which occurs in the Bayesian likelihood function when the noises are assumed be Gaussian. Romano and Woan showed that performing an eigendecomposition of this matrix produced two distinct sets of eigenvalues that can be distinguished by the absence of laser frequency noise from one set. The transformation of the raw data using the corresponding eigenvectors also produced data that was free from the laser frequency noises. This result led to the idea that the principal components may actually be time delay interferometry observables since they produced the same outcome, that is, data that are free from laser frequency noise. The aims here were (i) to investigate the connection between the principal components and these observables, (ii) to prove that the data analysis using them is equivalent to that using the traditional observables and (ii) to determine how this method adapts to real LISA especially the flexing of the antenna. For testing the connection between the principal components and the TDI observables a 10x 10 covariance matrix containing integer values was used in order to obtain an algebraic solution for the eigendecomposition. The matrix was generated using fixed unequal arm lengths and stationary noises with equal variances for each noise type. Results confirm that all four Sagnac observables can be generated from the eigenvectors of the principal components. The observables obtained from this method however, are tied to the length of the data and are not general expressions like the traditional observables, for example, the Sagnac observables for two different time stamps were generated from different sets of eigenvectors. It was also possible to generate the frequency domain optimal AET observables from the principal components obtained from the power spectral density matrix. These results indicate that this method is another way of producing the observables therefore analysis using principal components should give the same results as that using the traditional observables. This was proven by fact that the same relative likelihoods (within 0.3%) were obtained from the Bayesian estimates of the signal amplitude of a simple sinusoidal gravitational wave using the principal components and the optimal AET observables. This method fails if the eigenvalues that are free from laser frequency noises are not generated. These are obtained from the covariance matrix and the properties of LISA that are required for its computation are the phase-locking, arm lengths and noise variances. Preliminary results of the effects of these properties on the principal components indicate that only the absence of phase-locking prevented their production. The flexing of the antenna results in time varying arm lengths which will appear in the covariance matrix and, from our toy model investigations, this did not prevent the occurrence of the principal components. The difficulty with flexing, and also non-stationary noises, is that the Toeplitz structure of the matrix will be destroyed which will affect any computation methods that take advantage of this structure. In terms of separating the two sets of data for the analysis, this was not necessary because the laser frequency noises are very large compared to the photodetector noises which resulted in a significant reduction in the data containing them after the matrix inversion. In the frequency domain the power spectral density matrices were block diagonals which simplified the computation of the eigenvalues by allowing them to be done separately for each block. The results in general showed a lack of principal components in the absence of phase-locking except for the zero bin. The major difference with the power spectral density matrix is that the time varying arm lengths and non-stationarity do not show up because of the summation in the Fourier transform.
Resumo:
En un intento de describir procesos de construcción de espacios agrícolas locales, sin duda debe hacerse el esfuerzo por considerar una multiplicidad de actores y niveles espaciales observables en una interacción constante entre escalas diversas, mismas que van desde lo local y lo regional, hasta llegar a lo meso y nacional. Ante dicha complejidad, resulta relevante considerar las variadas articulaciones entre actores cuyo radio de acción puede tener su origen en alguno de los niveles escalares señalados, de acuerdo con el periodo histórico considerado. A ese respecto quizá el ejemplo del desarrollo de la irrigación en una pequeña región ubicada en el occidente de México, pueda ilustrar la interacción entre actores sociales, algunos ubicados en lo local regional (campesinos e instituciones locales) y otros en lo meso y nacional (funcionarios de los gobiernos estatal y nacional). El objetivo del presente trabajo es dar cuenta del proceso de construcción de espacios agrícolas locales comprendidos en una pequeña región del Occidente de México. Un aspecto concluyente a señalar, es que el Estado no es un ente monolítico ni los actores locales y regionales son meros ejecutores de decisiones externas a lo local, sino más bien éstos últimos buscan negociar según sus intereses.