999 resultados para Interacción ordenador-cerebro
Resumo:
El siglo XXI parece será el siglo de las Ciencias de la Vida y más en concreto, el siglo en el que el principal reto al que se enfrentará la Ciencia será el de intentar acercarse un poco más a la comprensión del cerebro humano. La Fotónica no debe quedarse en los terrenos en los que se ha movido con relativa comodidad hasta ahora, sino que debe aportar lo que pueda a ese nuevo camino que se presenta. Las armas de las que dispone son mucho más potentes de lo que pensamos. Solo es necesario saber que existen y saber manejarlas.
Resumo:
Este artículo presenta la aplicación del M.E.C. a un problema de interacción suelo-estructura. Se trata de una estructura rígida empotrada a gran profundidad en un terreno muy duro y sometido a acciones sísmicas de importancia. Tras recordar los conceptos básico del problema se describe la discretización utilizada para la resolución mediante el método de los tres pasos. Se describe también la modificación inducida por la presencia de la estructura en la solicitación sísmica tanto en profundidad como en distancia a aquella.
Resumo:
Los problemas del comportamiento sismico de estructuras masivas de gran responsabilidad y edificios de gran altura asi como el clásico problema del cimiento de las maquinas vibrantes, hacen que el estudio de la interacci6n suelo- estructura adquiera una gran actualidad. Estos problemas, que implican formas y propiedades complicadas, suponen siempre la necesidad de utilizar un modelo numerico del medio considerado. Aqui se emplea el metodo de los elementos de contorno que dadas sus caracteristicas resulta una alternativa muy sugestiva para modelar el suelo y que hace posible el estudio de problemas tridimensionales a un precio razonable. Se introduce un tipo de elementos para problenas bidimensionales , que incluye una singularidad de tipo logaritmico en uno de sus extremos.Se muestran distribuciones de tensiones obtenidas con este tipo de elementos.
Resumo:
La preparación de estas notas ha llevado, al más veterano de los autores, a rememorar sus primeros tanteos con los métodos numéricos. Tratando de desarrollar su tesis doctoral sobre efectos dinámicos en puentes de ferrocarril, descubrió, en 1968, en la biblioteca del Laboratorio de Transporte (donde el profesor ]iménez Salas era Director) las Actas de la reunión ASTM en las que Quilan y Sung proponían la asimilación del comportamiento dinámico del semiespacio elástico a un sistema con un grado de libertad. Además de incorporar estos resultados a un modelo de puente para tener en cuenta los fenómenos de interacción dinámica terreno-estructura dicho autor entró en contacto con algunos miembros del equipo de investigación del Prof. ]iménez Salas que, por entonces, estaba explorando la posibilidad de aplicación del ordenador y los métodos numéricos necesarios para tratar los problemas más difíciles de Mecánica de los Medios Continuos. De hecho fue ese grupo quien contribuyó a introducir en España el método de los elementos finitos en la ingeniería civil, pero además, y en relación directa con el título de este artículo fue el propio ]iménez Salas quién inició la línea de trabajo de lo que mas tarde se ha llamado Método Indirecto de Elementos de Contorno que luego fue seguida por otros miembros de su grupo. En aquélla época poco podía sospechar el autor precitado que iba a dedicar una parte sustancial de su vida al desarrollo de ese método numérico en su versión Directa y mucho menos que gran parte de la motivación vendría del problema de interacción dinámica terreno-estructura, una de cuyas primeras soluciones había obtenido en la mencionada visita al Laboratorio de Transporte. En efecto los autores trataban en 1975 de encontrar un procedimiento que les permitiera afrontar el estudio de la interacción en túneles sometidos a carga sísmica y tropezaron, al utilizar el método de elementos finitos, con el problema de las reflexiones de ondas en los contornos artificiales creados al truncar la malla de cálculo. Deseando evitar el uso contornos absorbentes y otros recursos similares se exploró la posibilidad de soluciones fundamentales que incorporasen el comportamiento en el infmito y, fruto de ello, fueron los primeros trabajos que introdujeron el Método Directo de los Elementos de Contorno en España en problemas estáticos. La extensión a teoría del potencial, dinámica en el dominio de la frecuencia, plasticidad, etc tuvo lugar inmediatamente siendo en la mayoría de los casos los problemas típicos de mecánica del suelo los que motivaron y justifican el esfuerzo realizado. Un campo apasionante, el de la poroelasticidad ha dado lugar a nuevas contribuciones y también se han escrito libros de diverso calado que describen las posibilidades del método para dar contestación a preguntas de gran importancia técnica. Los autores quieren poner de manifiesto que la redacción de este trabajo, debe considerarse no solo como la muestra de algunos resultados de aplicación a problemas prácticos, sino también como un homenaje y reconocimiento explícito a la labor precursora del Prof. ]iménez Salas y a su espíritu de permanente curiosidad por el conocimiento científico.
Resumo:
En los sistemas de comunicación por fibra óptica, la configuración usualmente empleada para velocidades de transmisión no superiores a 10 Gb/s es la modulación directa del láser (DML). Esta configuración presenta diversas ventajas frente a la modulación externa, como son un bajo coste, simplicidad de diseño, tamaño reducido y una elevada potencia de emisión. Sin embargo, el desplazamiento de la frecuencia nominal del láser (chirp) asociado al DML es un grave inconveniente al que deben enfrentarse los sistemas que trabajan con este modelo de transmisor. En este trabajo se propone un método para la optimización de los sistemas modulados directamente. Este método determina bajo qué condiciones se consigue contrarrestar la dispersión acumulada en el enlace ajustando adecuadamente el chirp del láser y los fenómenos no lineales que se generan en la fibra óptica.
Resumo:
La gestión forestal de masas mixtas cobra un creciente interés debido a los potenciales beneficios que presentan frente a las masas monoespecíficas, como mayor diversidad, resiliencia, etc. La interacción entre especies es frecuentemente de complementariedad y/o facilitación, lo que conlleva un aumento de la productividad en masas mixtas. Sin embargo, esta relación depende de la composición específica, la estación, edad y densidad de la masa. A partir de datos del Inventario Forestal Nacional se han comparado los crecimientos en volumen de Pinus sylvestris, Fagus sylvatica y Quercus robur / petraea en masas puras y mixtas y bajo distintas densidades. Los resultados mostraron que la eficiencia de crecimiento del pino y del haya aumenta con la presencia de las otras especies, mientras que la del roble no se ve afectada por la presencia de pino y disminuye con la proporción de haya. El efecto de la mezcla varía con la densidad, pero con distinto patrón entre especies. Estos resultados implican que la diversificación de masas monoespecíficas con vocación productiva, además de generar beneficios ecológicos, puede conllevar una mayor producción.
Resumo:
Los virus de plantas pueden causar enfermedades severas que conllevan serias pérdidas económicas a nivel mundial. Además, en la naturaleza son comunes las infecciones simultáneas con distintos virus que conducen a la exacerbación de los síntomas de enfermedad, fenómeno al que se conoce como sinergismo viral. Una de las sintomatologías más severas causadas por los virus en plantas susceptibles es la necrosis sistémica (NS), que incluso puede conducir a la muerte del huésped. Este fenotipo ha sido comparado en ocasiones con la respuesta de resistencia de tipo HR, permitiendo establecer una serie de paralelismos entre ambos tipos de respuesta que sugieren que la NS producida en interacciones compatibles sería el resultado de una respuesta hipersensible sistémica (SHR). Sin embargo, los mecanismos moleculares implicados en el desarrollo de la NS, su relación con procesos de defensa antiviral o su relevancia biológica aún no son bien entendidos, al igual que tampoco han sido estudiados los cambios producidos en la planta a escala genómica en infecciones múltiples que muestran sinergismo en patología. En esta tesis doctoral se han empleado distintas aproximaciones de análisis de expresión génica, junto con otras técnicas genéticas y bioquímicas, en el sistema modelo de Nicotiana benthamiana para estudiar la NS producida por la infección sinérgica entre el Virus X de la patata (PVX) y diversos potyvirus. Se han comparado los cambios producidos en el huésped a nivel genómico y fisiológico entre la infección doble con PVX y el Virus Y de la patata (PVY), y las infecciones simples con PVX o PVY. Además, los cambios transcriptómicos y hormonales asociados a la infección con la quimera viral PVX/HC‐Pro, que reproduce los síntomas del sinergismo entre PVX‐potyvirus, se han comparado con aquellos producidos por otros dos tipos de muerte celular, la PCD ligada a una interacción incompatible y la PCD producida por la disfunción del proteasoma. Por último, técnicas de genética reversa han permitido conocer la implicación de factores del huésped, como las oxilipinas, en el desarrollo de la NS asociada al sinergismo entre PVXpotyvirus. Los resultados revelan que, respecto a las infecciones con solo uno de los virus, la infección doble con PVX‐PVY produce en el huésped diferencias cualitativas además de cuantitativas en el perfil transcriptómico relacionado con el metabolismo primario. Otros cambios en la expresión génica, que reflejan la activación de mecanismos de defensa, correlacionan con un fuerte estrés oxidativo en las plantas doblemente infectadas que no se detecta en las infecciones simples. Además, medidas en la acumulación de determinados miRNAs implicados en diversos procesos celulares muestran como la infección doble altera de manera diferencial tanto la acumulación de estos miRNAs como su funcionalidad, lo cual podría estar relacionado con los cambios en el transcriptoma, así como con la sintomatología de la infección. La comparación a nivel transcriptómico y hormonal entre la NS producida por PVX/HC‐Pro y la interacción incompatible del Virus del mosaico del tabaco en plantas que expresan el gen N de resistencia (SHR), muestra que la respuesta en la interacción compatible es similar a la que se produce durante la SHR, si bien se presenta de manera retardada en el tiempo. Sin embargo, los perfiles de expresión de genes de defensa y de respuesta a hormonas, así como la acumulación relativa de ácido salicílico (SA), ácido jasmonico (JA) y ácido abscísico, en la interacción compatible son más semejantes a la respuesta PCD producida por la disfunción del proteasoma que a la interacción incompatible. Estos datos sugieren una contribución de la interferencia sobre la funcionalidad del proteasoma en el incremento de la patogenicidad, observado en el sinergismo PVX‐potyvirus. Por último, los resultados obtenidos al disminuir la expresión de 9‐LOX, α‐DOX1 y COI1, relacionados con la síntesis o con la señalización de oxilipinas, y mediante la aplicación exógena de JA y SA, muestran la implicación del metabolismo de las oxilipinas en el desarrollo de la NS producida por la infección sinérgica entre PVXpotyvirus en N. benthamiana. Además, estos resultados indican que la PCD asociada a esta infección, al igual que ocurre en interacciones incompatibles, no contiene necesariamente la acumulación viral, lo cual indica que necrosis e inhibición de la multiplicación viral son procesos independientes. ABSTRACT Plant viruses cause severe diseases that lead to serious economic losses worldwide. Moreover, simultaneous infections with several viruses are common in nature leading to exacerbation of the disease symptoms. This phenomenon is known as viral synergism. Systemic necrosis (SN) is one of the most severe symptoms caused by plant viruses in susceptible plants, even leading to death of the host. This phenotype has been compared with the hypersensitive response (HR) displayed by resistant plants, and some parallelisms have been found between both responses, which suggest that SN induced by compatible interactions could be the result of a systemic hypersensitive response (SHR). However, the molecular mechanisms involved in the development of SN, its relationship with antiviral defence processes and its biological relevance are still unknown. Furthermore, the changes produced in plants by mixed infections that cause synergistic pathological effects have not been studied in a genome‐wide scale. In this doctoral thesis different approaches have been used to analyse gene expression, together with other genetic and biochemical techniques, in the model plant Nicotiana benthamiana, in order to study the SN produced by the synergistic infection of Potato virus X (PVX) with several potyviruses. Genomic and physiological changes produced in the host by double infection with PVX and Potato virus Y (PVY), and by single infection with PVX or PVY have been compared. In addition, transcriptional and hormonal changes associated with infection by the chimeric virus PVX/HC‐Pro, which produces synergistic symptoms similar to those caused by PVX‐potyvirus, have been compared with those produced by other types of cell death. These types of cell death are: PCD associated with an incompatible interaction, and PCD produced by proteasome disruption. Finally, reverse genetic techniques have revealed the involvement of host factors, such as oxylipins, in the development of SN associated with PVX‐potyvirus synergism. The results revealed that compared with single infections, double infection with PVX‐PVY produced qualitative and quantitative differences in the transcriptome profile, mainly related to primary metabolism. Other changes in gene expression, which reflected the activation of defence mechanisms, correlated with a severe oxidative stress in doubly infected plants that was undetected in single infections. Additionally, accumulation levels of several miRNAs involved in different cellular processes were measured, and the results showed that double infection not only produced the greatest variations in miRNA accumulation levels but also in miRNA functionality. These variations could be related with transcriptomic changes and the symptomatology of the infection. Transcriptome and hormone level comparisons between SN induced by PVX/HCPro and the incompatible interaction produced by Tobacco mosaic virus in plants expressing the N resistance gene (SHR), showed some similarities between both responses, even though the compatible interaction appeared retarded in time. Nevertheless, the expression profiles of both defence‐related genes and hormoneresponsive genes, as well as the relative accumulation of salicylic acid (SA), jasmonic acid (JA) and abscisic acid in the compatible interaction are more similar to the PCD response produced by proteasome disruption. These data suggest that interference with proteasome functionality contributes to the increase in pathogenicity associated with PVX‐potyvirus synergism. Finally, the results obtained by reducing the expression of 9‐LOX, α‐DOX1 and COI1, related with synthesis or signalling of oxylipins, and by applying exogenously JA and SA, revealed that oxylipin metabolism is involved in the development of SN induced by PVX‐potyvirus synergistic infections in N. benthamiana. Moreover, these results also indicated that PVX‐potyvirus associated PCD does not necessarily restrict viral accumulation, as is also the case in incompatible interactions. This indicates that both necrosis and inhibition of viral multiplication are independent processes.
Resumo:
Numerosos problemas en ingeniería se refieren a la respuesta dinámica del terreno frente a solicitaciones permanentes o transitorias. Ejemplos típicos son las sacudidas sísmicas, el paso de cargas móviles, la actuación de máquinas con dispositivos alternativos (compactadores, turboalternadores etc.), etc. El desarrollo de la mecánica de suelo, así como el interés de mejorar el diseño y garantizar la seguridad de las estructuras afectadas han conducido al desarrollo de un cuerpo de doctrina homogéneo y riguroso para el tratamiento de problemas como los citados. Obsérvese que, en general, ni el terreno ni la estructura sobre él construida se pueden estudiar por separado. Hay una verdadera interacción entre ambos y ella es, preciamente, la motivación del problema. Así, en el presente capítulo se analiza el semiespacio elástico con carga dinámica, el caso viscoelástico y el amortiguamiento material. En lo que respecta al semiespacio elástico con carga dinámica, además de un breve desarrollo histórico, se hace referencia a las vibraciones verticales en régimen permanente, las vibraciones horizontales y giratoriaas en régimen permanente, el modelo de Veletsos, las vibraciones de torsión, la carga en faja, los cimientos rectangulares y los cimientos empotrados. Respecto al caso viscoelástico y el amortiguamiento material, se analizan diversos mecanismos de amortiguamiento.
Resumo:
En este capítulo se pretende estudiar el efecto combinado de las características elásticas y de inercia del terreno y la estructura sobre él construida. Desde el punto de vista de esta última, los efectos más llamativos son la alteración de los valores de las frecuencias aparentes, debido justamente a la participación del suelo en el fenómeno vibratorio, y del amortiguamiento general pues la radiación de energía y el amortiguamiento propio del suelo tienen unos valores importantes cuando se comparan con los propios de la estructura. Ambos fenómenos tienen lógicamente su reflejo en el valor de las amplitudes del movimiento, que serán distintas de las que se producirían en el caso de base rígida. El fenómeno era conocido desde antiguo por los constructores de cimientos de máquinas y su consideración en otras construcciones se ha producido cuando se ha ido a estructuras singulares como rascacielos, centrales nucleares, etc. En este sentido los primeros resultados llamativos fueron los presentados por AKINO,OTA y YAMAHARA (1969) donde se comunicaban los resultados obtenidos de la instrumentación de pequeños modelos muy rígidos de edificios de contención de reactores. Los registros obtenidos en ensayos forzados con vibradores, así como los resultados de pequeños terremotos reales indicaban diferencias apreciables del movimiento del suelo según la cota de observación, con lo que se planteó el problema de elegir cuál debería escogerse para analizar el modelo matemático de la realidad. Desde entonces han sido numerosísimos los trabajos de investigación del tema; trabajos que, al coincidir con el desarrollo de los nuevos métodos de cálculo, los han usado e impulsado a perfeccionarse. Paradójicamente el resultado final es la existencia de varias escuelas de pensamiento que, impulsadas por razones extracientíficas, han radicalizado sus diferencias. Con ello el establecimiento objetivo de un estado del arte actual es realmente dificil como lo prueba la tendencia fluctuante de la normativa yankee, al respecto.
Resumo:
Situado en el límite entre Ingeniería, Informática y Biología, la mecánica computacional de las neuronas aparece como un nuevo campo interdisciplinar que potencialmente puede ser capaz de abordar problemas clínicos desde una perspectiva diferente. Este campo es multiescala por naturaleza, yendo desde la nanoescala (como, por ejemplo, los dímeros de tubulina) a la macroescala (como, por ejemplo, el tejido cerebral), y tiene como objetivo abordar problemas que son complejos, y algunas veces imposibles, de estudiar con medios experimentales. La modelización computacional ha sido ampliamente empleada en aplicaciones Neurocientíficas tan diversas como el crecimiento neuronal o la propagación de los potenciales de acción compuestos. Sin embargo, en la mayoría de los enfoques de modelización hechos hasta ahora, la interacción entre la célula y el medio/estímulo que la rodea ha sido muy poco explorada. A pesar de la tremenda importancia de esa relación en algunos desafíos médicos—como, por ejemplo, lesiones traumáticas en el cerebro, cáncer, la enfermedad del Alzheimer—un puente que relacione las propiedades electrofisiológicas-químicas y mecánicas desde la escala molecular al nivel celular todavía no existe. Con ese objetivo, esta investigación propone un marco computacional multiescala particularizado para dos escenarios respresentativos: el crecimiento del axón y el acomplamiento electrofisiológicomecánico de las neuritas. En el primer caso, se explora la relación entre los constituyentes moleculares del axón durante su crecimiento y sus propiedades mecánicas resultantes, mientras que en el último, un estímulo mecánico provoca deficiencias funcionales a nivel celular como consecuencia de sus alteraciones electrofisiológicas-químicas. La modelización computacional empleada en este trabajo es el método de las diferencias finitas, y es implementada en un nuevo programa llamado Neurite. Aunque el método de los elementos finitos es también explorado en parte de esta investigación, el método de las diferencias finitas tiene la flexibilidad y versatilidad necesaria para implementar mode los biológicos, así como la simplicidad matemática para extenderlos a simulaciones a gran escala con un coste computacional bajo. Centrándose primero en el efecto de las propiedades electrofisiológicas-químicas sobre las propiedades mecánicas, una versión adaptada de Neurite es desarrollada para simular la polimerización de los microtúbulos en el crecimiento del axón y proporcionar las propiedades mecánicas como función de la ocupación de los microtúbulos. Después de calibrar el modelo de crecimiento del axón frente a resultados experimentales disponibles en la literatura, las características mecánicas pueden ser evaluadas durante la simulación. Las propiedades mecánicas del axón muestran variaciones dramáticas en la punta de éste, donde el cono de crecimiento soporta las señales químicas y mecánicas. Bansándose en el conocimiento ganado con el modelo de diferencias finitas, y con el objetivo de ir de 1D a 3D, este esquema preliminar pero de una naturaleza innovadora allana el camino a futuros estudios con el método de los elementos finitos. Centrándose finalmente en el efecto de las propiedades mecánicas sobre las propiedades electrofisiológicas- químicas, Neurite es empleado para relacionar las cargas mecánicas macroscópicas con las deformaciones y velocidades de deformación a escala microscópica, y simular la propagación de la señal eléctrica en las neuritas bajo carga mecánica. Las simulaciones fueron calibradas con resultados experimentales publicados en la literatura, proporcionando, por tanto, un modelo capaz de predecir las alteraciones de las funciones electrofisiológicas neuronales bajo cargas externas dañinas, y uniendo lesiones mecánicas con las correspondientes deficiencias funcionales. Para abordar simulaciones a gran escala, aunque otras arquitecturas avanzadas basadas en muchos núcleos integrados (MICs) fueron consideradas, los solvers explícito e implícito se implementaron en unidades de procesamiento central (CPU) y unidades de procesamiento gráfico (GPUs). Estudios de escalabilidad fueron llevados acabo para ambas implementaciones mostrando resultados prometedores para casos de simulaciones extremadamente grandes con GPUs. Esta tesis abre la vía para futuros modelos mecánicos con el objetivo de unir las propiedades electrofisiológicas-químicas con las propiedades mecánicas. El objetivo general es mejorar el conocimiento de las comunidades médicas y de bioingeniería sobre la mecánica de las neuronas y las deficiencias funcionales que aparecen de los daños producidos por traumatismos mecánicos, como lesiones traumáticas en el cerebro, o enfermedades neurodegenerativas como la enfermedad del Alzheimer. ABSTRACT Sitting at the interface between Engineering, Computer Science and Biology, Computational Neuron Mechanics appears as a new interdisciplinary field potentially able to tackle clinical problems from a new perspective. This field is multiscale by nature, ranging from the nanoscale (e.g., tubulin dimers) to the macroscale (e.g., brain tissue), and aims at tackling problems that are complex, and sometime impossible, to study through experimental means. Computational modeling has been widely used in different Neuroscience applications as diverse as neuronal growth or compound action potential propagation. However, in the majority of the modeling approaches done in this field to date, the interactions between the cell and its surrounding media/stimulus have been rarely explored. Despite of the tremendous importance of such relationship in several medical challenges—e.g., traumatic brain injury (TBI), cancer, Alzheimer’s disease (AD)—a bridge between electrophysiological-chemical and mechanical properties of neurons from the molecular scale to the cell level is still lacking. To this end, this research proposes a multiscale computational framework particularized for two representative scenarios: axon growth and electrophysiological-mechanical coupling of neurites. In the former case, the relation between the molecular constituents of the axon during its growth and its resulting mechanical properties is explored, whereas in the latter, a mechanical stimulus provokes functional deficits at cell level as a consequence of its electrophysiological-chemical alterations. The computational modeling approach chosen in this work is the finite difference method (FDM), and was implemented in a new program called Neurite. Although the finite element method (FEM) is also explored as part of this research, the FDM provides the necessary flexibility and versatility to implement biological models, as well as the mathematical simplicity to extend them to large scale simulations with a low computational cost. Focusing first on the effect of electrophysiological-chemical properties on the mechanical proper ties, an adaptation of Neurite was developed to simulate microtubule polymerization in axonal growth and provide the axon mechanical properties as a function of microtubule occupancy. After calibrating the axon growth model against experimental results available in the literature, the mechanical characteristics can be tracked during the simulation. The axon mechanical properties show dramatic variations at the tip of the axon, where the growth cone supports the chemical and mechanical signaling. Based on the knowledge gained from the FDM scheme, and in order to go from 1D to 3D, this preliminary yet novel scheme paves the road for future studies with FEM. Focusing then on the effect of mechanical properties on the electrophysiological-chemical properties, Neurite was used to relate macroscopic mechanical loading to microscopic strains and strain rates, and simulate the electrical signal propagation along neurites under mechanical loading. The simulations were calibrated against experimental results published in the literature, thus providing a model able to predict the alteration of neuronal electrophysiological function under external damaging load, and linking mechanical injuries to subsequent acute functional deficits. To undertake large scale simulations, although other state-of-the-art architectures based on many integrated cores (MICs) were considered, the explicit and implicit solvers were implemented for central processing units (CPUs) and graphics processing units (GPUs). Scalability studies were done for both implementations showing promising results for extremely large scale simulations with GPUs. This thesis opens the avenue for future mechanical modeling approaches aimed at linking electrophysiological- chemical properties to mechanical properties. Its overarching goal is to enhance the bioengineering and medical communities knowledge on neuronal mechanics and functional deficits arising from damages produced by direct mechanical insults, such as TBI, or neurodegenerative evolving illness, such as AD.
Resumo:
El Cerebro Escuadrado. Sobre el ángulo recto en arquitectura = The Brain is Square
Resumo:
Este TFG se enmarca dentro de un proyecto más amplio cuyo objetivo general es utilizar un teléfono móvil de última generación (con pantalla táctil y cámara de buena calidad) como producto de apoyo para personas con baja visión, en concreto, realizando la función de magnificador digital de documentos en papel.
Resumo:
En esta investigación se aborda el tema de los paisajes sonoros urbanos a partir del análisis de doce espacios públicos abiertos de la Ciudad de Córdoba (Argentina) tomados como casos de estudio, buscando definir e interrelacionar los indicadores objetivos que pueden caracterizar el paisaje sonoro y su relación con componentes físicos del paisaje. En una primera etapa, la investigación se orienta a profundizar en el estudio de las variables que influyen en la percepción acústica de los espacios exteriores, los tipos de fuentes sonoras y el nivel de aceptación que las mismas producen en los usuarios. El estudio se ha realizado por medio de encuestas y mediciones objetivas, destinadas a reconocer paisajes sonoros cuyo contenido semántico puede ser de importancia para la identidad de los habitantes y detectar las fuentes sonoras involucradas. El proceso de análisis cruzado realizado entre los datos objetivos y subjetivos permitió identificar los descriptores acústicos que se pueden interrelacionar con la respuesta de los usuarios para definir la calidad de un paisaje sonoro. En paralelo a las mediciones de nivel de ruido se realizaron registros de audio de los intervalos, de cuyo procesamiento posterior se pudieron deducir parámetros psicoacústicos que complementan los descriptores acústicos anteriores, y que en conjunto son utilizados para describir objetivamente la calidad sonora de los espacios urbanos. En el proceso se seleccionaron aquellos descriptores que se evidencian como significativos y con mejor correlación con los niveles de calidad del paisaje sonoro, adoptando en este trabajo la sonoridad, la nitidez, la relación LCeq-LAeq y la diferencia L10-L90. Cada uno de los parámetros describe o refleja un aspecto característico de un ambiente sonoro de alta calidad o “hi-fi”, como la presencia de sonidos con posible contenido semántico (nitidez), la presencia o no de bajas frecuencias y la relación figura-fondo de los escenarios sonoros. En la investigación se observa que, si bien existe una correlación de estos indicadores con la calidad sonora de los espacios, la misma no es lineal. Por el contrario, la importancia o influencia relativa dependen de las interrelaciones que se producen entre los parámetros estudiados, quedando en evidencia la dificultad de aplicar una metodología de análisis basada en la lógica clásica. Como alternativa se aplica un modelo de análisis y correlación de los parámetros con la calidad sonora basada en los postulados de la lógica difusa, observando que se logra una aproximación muy ajustada a la respuesta subjetiva de los habitantes. Este ajuste alcanzado entre los resultados del modelo y la respuesta subjetiva de los usuarios permite confirmar el modelo borroso como una herramienta efectiva para el estudio, no solo de los paisajes sonoros, sino también para aquellas situaciones donde los parámetros objetivos deben ser relacionados con la respuesta subjetiva de los usuarios.
Resumo:
Desde el año 2004 el código ARWEN ha sido utilizado con éxito para simular y diseñar experimentos relacionados con blancos para fusión por confinamiento inercial [146], astrofísica de laboratorio [145], plasmas como amplificadores de láseres de rayos X [107] o plasmas creados por láser para la medición de espectros de transmisión. Para la realización de estas simulaciones es necesario, además de métodos de alto orden precisos y que presenten buenas propiedades conservativas, conocer ciertas propiedades de los plasmas. En el caso de la fluidodinámica y la conducción electrónica necesitaremos conocer la ecuación de estado [94, 49, 36], y para el transporte de la radiación será preciso disponer de los datos de absorción y emisión [104, 95, 40]. Hasta el año 2009 ARWEN dependía de códigos externos para la generación de estas tablas de opacidad, careciendo de control sobre los métodos empleados para su generación. Además estos códigos asumían equilibrio local termodinámico (LTE), limitando su validez a rangos de alta densidad y baja temperatura. En el marco de esta tesis se ha desarrollado el código BIGBART para la generación de tablas detalladas de opacidad y emisividad para su uso en el módulo de transporte de radiación. De esta forma el grupo dispondrá de su propia herramienta de generación de propiedades radiativas. El código desarrollado es capaz de tratar plasmas en estado fuera de equilibrio (non-LTE) mediante el modelo colisional-radiativo, extendiendo así el rango de validez de las tablas generadas. El trabajo desarrollado para implementar un código LTE/non-LTE estacionario es el siguiente Cálculo de estructura y datos atómicos. Se ha acoplado en código FAC a BIGBART, incorporando la capacidad para generar potenciales atómicos para una configuración y el cálculo de funciones de onda de electrones en orbitales ligados y libres. Aproximaciones y métodos para la obtención de tasas y secciones eficaces de procesos. Se han incluido y programado los modelos implementados en FAC para el cálculo de secciones eficaces de fotoionización, y tasas de decaimiento de emisión espontánea y autoionización. Además se ha incluido el modelo Plane-Wave Born (PWBA) para el cálculo de las secciones eficaces de ionización y excitación colisional. Modelos para la obtención de la distribución de estados iónicos dentro del plasma. Se ha programado un solver LTE basado en la ecuación de Saha-Boltzmann con efectos de ionización por presión debida a los iones adyacentes. También se ha implementado un modelo non-LTE colisionalradiativo para la resolución del sistema de ecuaciones que nos permite obtener la densidad de estados iónicos fuera de equilibrio. Modelo non-LTE RADIOM. Se ha implementado el modelo RADIOM para aproximar efectos de no-equilibrio mediante cálculos LTE a una temperatura equivalente, menor o igual que la temperatura electrónica real. Cálculo de las propiedades espectrales de absorción y emisión. Se han implementado los modelos para el cálculo de los perfiles espectrales de absorción y emisión para procesos entre niveles ligados, ligado-libre y librelibre. Aprovechando el trabajo realizado en este sentido, durante el transcurso de esta tesis se amplió el código BIGBART para tratar problemas con dependencia temporal. La extensión para tratar este tipo de problemas se orientó a la simulación numérica de la interacción de láseres ultra intensos en el rango XUV/rayos X. Para ello, además de adaptar el modelo non-LTE colisionalradiativo se incluyeron procesos adicionales asociados a la interacción de la materia con fotones altamente energéticos. También se han incluido modelos para el cálculo de las propiedades ópticas, y por ende las propiedades dieléctricas de la materia irradiada, de gran interés en algunas aplicaciones novedosas de estos láseres intensos. Debido a la naturaleza fuertemente fuera de equilibrio en la interacción de fotones de alta energía con la materia, se incluyó el tratamiento de la distribución de electrones libres fuera de equilibrio en la aproximación de Fokker-Planck, tanto para condiciones degeneradas como no degeneradas. El trabajo desarrollado en el código non-LTE con dependencia temporal es el siguiente Procesos asociados a láseres intensos XUV/rayos X. Se ha implementado el cálculo de procesos radiativos estimulados de absorción y emisión por el láser. También se han incluido procesos asociados a la creación de vacantes en capas internas electrónicas (Shake), además de doble autoionización y doble fotoionización. Cálculo de propiedades ópticas y dieléctricas en blancos sólidos. Se ha implementado un modelo para la absorción por bremsstrahlung inverso en blancos en estado sólido. Con el coeficiente de extinción debido a procesos de fotoabsorción resonante, fotoionización y bremsstrahlung inverso se obtiene el ´ındice de refracción mediante la relación de Kronig-Kramers. Electrones fuera de equilibrio. Se ha tratado la evolución de la distribución de electrones, cuando no está justificado asumir que es Maxwelliana o de Fermi-Dirac, mediante la aproximación de Fokker-Planck para la colisión entre electrones libres. En la resolución de la ecuación de Fokker-Planck se han incluido los procesos inelásticos por colisiones con iones y términos fuente por interacción con el láser y otros procesos. ABSTRACT Since 2004 the ARWEN code has been successfully used to simulate and design targets for inertial confinement fusion experiments [146], laboratory astrophysics [145], plasmas as X-ray lasers amplifiers [107] or laser created plasmas for measuring transmission spectra. To perform these simulations it is necessary, in addition to high order precise methods with good conservative properties, to know certain properties of plasmas. For fluid dynamic and electronic conduction we need to know the equation of state [94, 49, 36], and for radiation transport it will be necessary to have the data of the absorption and emission [104, 95, 40]. Until 2009 ARWEN depended on external codes to generate these opacity tables, lacking of control over the methods used for their generation. Besides, these codes assumed local thermodynamic equilibrium (LTE), limiting their validity ranges to high densities and low temperatures. As part of this thesis it has been developed the BIGBART code for generating detailed opacity and emissivity tables for use in the radiation transport module. This group will have its own tool for the generation of radiative properties. The developed code is capable of treating plasmas out of equilibrium (non-LTE) by means of a collisional-radiative model, extending the range of validity of the generated tables. The work to implement an LTE/non-LTE steady-state code is as follows Calculation of structure and atomic data. the FAC code was coupled to BIGBART, incorporating the ability to generate atomic potentials for calculating configuration wave functions for bound and free electrons. Approaches and methods for obtaining cross sections and processes rates. We have included and reprogrammed in Fortran the models implemented in FAC for calculation of photoionization cross sections and decay rates of spontaneous emission and autoionization. We also included the Plane- Wave Born (PWBA) model to calculate the cross sections of ionization and collisional excitation. Models for the obtention of the distribution of ionic states within the plasma. We programmed a LTE solver based on the Saha-Boltzmann equation with pressure ionization effects due to adjacent ions. It has also been implemented a non-LTE collisional-radiative model for solving the system of equations that allows us to obtain the density of ionic states out of equilibrium. Non-LTE RADIOM model. We have implemented the non-LTE RADIOM model to approximate non-equilibrium effects with LTE data at an equivalent temperature, lower or equal to the actual electronic temperature. Calculation of the spectral absorption and emission properties. Models have been implemented for the calculation of the spectral profiles of absorption and emission processes between bound levels, free-bound and free-free. Taking advantage of the work done in this direction throughout the course of this thesis the code BIGBART was extended to treat time-dependent problems. The extension to treat such problems is oriented to the numerical simulation of the interaction of ultra intense lasers in the XUV/X-ray range. For this range, in addition to adapting the non-LTE collisional-radiative model, additional processes associated with the interaction of matter with high energy photons. We also included models for calculation of the optical properties, and therefore the dielectric properties of the irradiated material, of great interest in some novel applications of these intense lasers. Due to the strong non-equilibrium nature of the interaction of high energy photons with matter, we included the treatment of the distribution of free electrons out of equilibrium in the Fokker-Planck approximation for both degenerate and non-degenerate conditions. The work in the non-LTE time-dependent code is as follows Processes associated with intense XUV/X-ray lasers. We have implemented the calculation of stimulated radiative processes in absorption and emission. Also we included processes associated with the creation of electronic vacancies in inner shells (Shake), double autoionization and double photoionization. Calculation of optical and dielectric properties in solid targets. We have implemented a model for inverse bremsstrahlung absorption in solid targets. With the extinction coefficient from resonant photoabsorption, photoionization and inverse bremsstrahlung the refractive index is obtained by the Kramers-Kronig relation. Electrons out of equilibrium. We treat the evolution of the electron distribution, when it is not justified to assume a Maxwellian or Fermi-Dirac distribution, by the Fokker-Planck approximation for collisions between electrons. When solving the Fokker-Planck equation we included inelastic collision processes with ions and source terms by interaction with the laser and other processes.
Resumo:
La usabilidad es un atributo de calidad de un sistema software que llega a ser crítico en sistemas altamente interactivos. Desde el campo de la Interacción Persona-Ordenador se proponen recomendaciones que permiten alcanzar un nivel adecuado de usabilidad en un sistema. En la disciplina de la Ingeniería de Software se ha establecido que algunas de estas recomendaciones afectan a la funcionalidad principal de los sistemas y no solo a la interfaz de usuario. Este tipo de recomendaciones de usabilidad se deben tener en cuenta desde las primeras actividades y durante todo el proceso de desarrollo, así como se hace con atributos tales como la seguridad, la facilidad de mantenimiento o el rendimiento. Desde la Ingeniería de Software se han hecho estudios y propuestas para abordar la usabilidad en las primeras actividades del desarrollo. En particular en la educción de requisitos y diseño de la arquitectura. Estas propuestas son de un alto nivel de abstracción. En esta investigación se aborda la usabilidad en actividades avanzadas del proceso de desarrollo: el diseño detallado y la programación. El objetivo de este trabajo es obtener, formalizar y validar soluciones reutilizables para la usabilidad en estas actividades. En este estudio se seleccionan tres funcionalidades de usabilidad identificadas como de alto impacto en el diseño: Abortar Operación, Retroalimentación de Progreso y Preferencias. Para la obtención de elementos reutilizables se utiliza un método inductivo. Se parte de la construcción de aplicaciones web particulares y se induce una solución general. Durante la construcción de las aplicaciones se mantiene la trazabilidad de los elementos relacionados con cada funcionalidad de usabilidad. Al finalizar se realiza un análisis de elementos comunes, y los hallazgos se formalizan como patrones de diseño orientados a la implementación y patrones de programación en cada uno de los lenguajes utilizados: PHP, VB .NET y Java. Las soluciones formalizadas como patrones se validan usando la metodología de estudio de casos. Desarrolladores independientes utilizan los patrones para la inclusión de las tres funcionalidades de usabilidad en dos nuevas aplicaciones web. Como resultado, los desarrolladores pueden usar con éxito las soluciones propuestas para dos de las funcionalidades: Abortar Operación y Preferencias. La funcionalidad Retroalimentación de Progreso no puede ser implementada completamente. Se concluye que es posible obtener elementos reutilizables para la implementación de cada funcionalidad de usabilidad. Estos elementos incluyen: escenarios de aplicación, que son la combinación de casuísticas que generan las funcionalidades de usabilidad, responsabilidades comunes necesarias para cubrir los escenarios, componentes comunes para cumplir con las responsabilidades, elementos de diseño asociados a los componentes y el código que implementa el diseño. Formalizar las soluciones como patrones resulta útil para comunicar los hallazgos a otros desarrolladores y los patrones se mejoran a través de su utilización en nuevos desarrollos. La implementación de funcionalidades de usabilidad presenta características que condicionan su reutilización, en particular, el nivel de acoplamiento de la funcionalidad de usabilidad con las funcionalidades de la aplicación, y la complejidad interna de la solución. ABSTRACT Usability is a critical quality attribute of highly interactive software systems. The humancomputer interaction field proposes recommendations for achieving an acceptable system usability level. The discipline of software engineering has established that some of these recommendations affect not only the user interface but also the core system functionality. This type of usability recommendations must be taken into account as of the early activities and throughout the software development process as in the case of attributes like security, ease of maintenance or performance. Software engineering has conducted studies and put forward proposals for tackling usability in the early development activities, particularly requirements elicitation and architecture design. These proposals have a high level of abstraction. This research addresses usability in later activities of the development process: detailed design and programming. The goal of this research is to discover, specify and validate reusable usability solutions for detailed design and programming. Abort Operation, Feedback and Preferences, three usability functionalities identified as having a high impact on design, are selected for the study. An inductive method, whereby a general solution is induced from particular web applications built for the purpose, is used to discover reusable elements. During the construction of the applications, the traceability of the elements related to each usability functionality is maintained. At the end of the process, the common and possibly reusable elements are analysed. The findings are specified as implementation-oriented design patterns and programming patterns for each of the languages used: PHP, VB .NET and Java. The solutions specified as patterns are validated using the case study methodology. Independent developers use the patterns in order to build the three usability functionalities into two new web applications. As a result, the developers successfully use the proposed solutions for two of the functionalities: Abort Operation and Preferences. The Progress Feedback functionality cannot be fully implemented. We conclude that it is possible to discover reusable elements for implementing each usability functionality. These elements include: application scenarios, which are combinations of cases that generate usability functionalities, common responsibilities to cover the scenarios, common components to fulfil the responsibilities, design elements associated with the components and code implementing the design. It is useful to specify solutions as patterns in order to communicate findings to other developers, and patterns improve through further use in other development projects. Reusability depends on the features of usability functionality implementation, particularly the level of coupling of the usability functionality with the application functionalities and the internal complexity of the solution.