994 resultados para Funciones tipo Eckart
Resumo:
El desarrollo económico y social, a veces excesivamente rápido, que se ha producido en las últimas décadas ha generado una serie de problemas medioambientales generalmente más acuciantes en el entorno de las grandes ciudades. Dentro de este contexto y debido a este desarrollo exponencial de las actividades humanas, la contaminación acústica se ha convertido en uno de los problemas de peor solución, tanto a nivel de reducción como de atenuación, por lo que el diseño de pantallas acústicas está siendo uno de los objetivos prioritarios en la lucha contra la contaminación sonora. La expresión más extendida para designar a las barreras acústicas es la de pantallas acústicas, entendiéndose por éstas, muros de espesor relativamente pequeño concebidos como barreras acústicas. Hasta la fecha los avances en el diseño de estas pantallas han sido notables y ya se cuentan por cientos los kilómetros de las mismas que han sido construidas e instaladas, sobre todo en la periferia de las grandes ciudades cerca de las llamadas vías de tráfico rápido. Estos avances se han centrado sobre todo en el diseño de materiales de gran poder de absorción de las ondas, como método principal de atenuación, o bien en la forma geométrica de la superficie expuesta al tráfico, formas que por medio de reflexiones son capaces de anular o mitigar parte de la energía transportada por las ondas sonoras. A la vista de estos resultados las actuales pantallas acústicas reducen el nivel sonoro por atenuación, pero no son capaces de anular la onda incidente. Por otro lado, los últimos estudios de la tecnología japonesa en estos temas es el análisis del problema de borde, ya que este fenómeno de difracción es uno de los causantes principales del nivel sonoro en el trasdós de la pantalla. Pese a que es imposible anular este efecto de borde los estudios se han encauzado a intentar obtener una forma de la sección de la pantalla en su parte superior que sea capaz de mitigar este efecto, bien por interferencia entre las ondas incidentes o bien por superposición de diversos fenómenos de difracciones. En este orden de cosas entra a escena el concepto de pantalla tubular, como una nueva pantalla perforada que anula ondas sonoras basándose en el efecto físico de los tubos de Kundt. Su funcionamiento es debido a la propiedad de las ondas sonoras de producir resonancias al transmitirse dentro de cavidades de diferentes secciones tipo. Este tipo de pantallas se olvida del concepto clásico de pantalla acústica y su forma de atenuar el sonido y pasa al cálculo de la atenuación por eliminación de frecuencias. Esta tesis ofrece una nueva visión de este tipo de pantallas tubulares, optimizando su funcionamiento en función de la longitud de las cavidades tubulares, que han de ser diseñadas no de forma rectilínea, sino según directrices de curvas conocidas. El método operativo consistirá en aplicar las propiedades morfológicas de estas curvas a la propagación de ondas dentro de cavidades curvilíneas, obteniendo una serie de funciones de onda transmitidas y otras anuladas, lo que permite evaluar el porcentaje de energía que es capaz de anular cada tipo de curva para un espesor prefijado de pantalla. Este planteamiento nos permite elaborar un método de diseño y optimización por consideraciones exclusivamente geométricas, en función de un número muy reducido de parámetros, entre los que destaca la frecuencia que se presenta con mayor asiduidad, que es la principal causante del nivel sonoro. Asimismo, el método está apoyado en gran manera en un soporte gráfico, lo que le hace de sencilla aplicación incluso entre técnicos no excesivamente acostumbrados a trabajar con ondas sonoras. Como resumen final, las aportaciones más relevantes que incorpora esta tesis son las siguientes: Desarrollo práctico de la teoría global de pantallas acústicas tubulares ; Aplicación de la geometría clásica, en el concepto de longitudes de curvas tipo, a las técnicas de ingeniería del medio ambiente lo que representa un avance cualitativo notable ya que hasta la fecha no se había planteado la interacción de dos disciplinas en apariencia tan dispares y de conceptos tan heterogéneos ; Desarrollo de un método secuencial que es capaz de engarzar el análisis acústico de un cierto flujo de tráfico vehicular con el análisis geométrico de curvas tipo y dotar así al futuro diseñador de pantallas acústicas de una poderosa herramienta que le permita variar la tipología y forma de la pantalla en función de parámetros que pueden variar de manera aleatoria.
Resumo:
El paquete raster proporciona un gran número de funciones para procesar datos geográficos de tipo raster. El diseño de este paquete, basado en clases S4, hace el análisis de estos datos más amigable al usuario. También ha ocasionado el desarrollo de paquetes más específicos para trabajar con datos raster en R. rasterVis proporciona un conjunto de métodos de visualización e interacción gráfica, desde gráficos de nivel y contorno, histogramas o matrices de dispersión, hasta gráficos apropiados para datos espacio-temporales. gdistance proporciona nuevas clases para cálculos basados en rutas y movimientos a través de espacios discretizados. Implementa métodos como la distancia de coste e introduce métodos recientemente desarrollados basados en caminos aleatorios. En la charla se explicará el diseño del paquete raster y se demostrará las posibilidades que ofrecen estos paquetes con ejemplos concretos
Resumo:
El cálculo del valor económico del arbolado urbano, en la mayoría de los métodos de tasación, se basa en las medidas dasométricas del arbolado, los precios de vivero para cada especie y las condiciones estéticas, de salud, adecuación y localización de cada árbol en el entorno urbano. En la ciudad de Santiago del Estero se han contabilizado 226 especies diferentes de árboles, así como un gran número de ejemplares que dificultan las labores de gestión, medición y tasación que requiere el arbolado urbano. En este trabajo se han empleado técnicas de análisis estadístico multivariante para determinar árboles tipo que representen y agrupen especies y características dasométricas. El método de clasificación supervisada permite obtener funciones discriminantes que agrupan los diferentes árboles de la ciudad en tres clases. En cada clase se selecciona la especie más frecuente en las plantaciones realizadas por la municipalidad. Para asignar un árbol tipo a cada uno de los grupos se ha empleado valores medios de los árboles muestreados. Dichos árboles tipo permiten resumir la diversidad del arbolado de Santiago del Estero.
Resumo:
Las propiedades N-autocontradicción y autocontradicción, han sido suficientemente estudiadas en los conjuntos borrosos ordinarios y en los conjuntos borrosos intuicionistas de Atanassov. En el presente artículo se inicia el estudio de las mencionadas propiedades, dentro del marco de los conjuntos borrosos de tipo 2 cuyos grados de pertenencia son funciones normales y convexas (L). En este sentido, aquí se extienden los conceptos de N-autocontradicción y autocontradicción al conjunto L, y se establecen algunos criterios para verificar tales propiedades.
Resumo:
La ventilación tiene como objetivo fundamental mantener la calidad del aire en el interior de los alo- jamientos animales. En efecto, determinadas pato- logías de tipo ambiental (neumonías de terneros, diarreas, mamitis) pueden controlarse consiguiendo una calidad adecuada del aire que los animales respiran, así como la higiene de las superficies del alojamiento, aunque esto último se sale de las pre- tensiones de este artículo.
Resumo:
Los conjuntos borrosos de tipo 2 (T2FSs) fueron introducidos por L.A. Zadeh en 1975 [65], como una extensión de los conjuntos borrosos de tipo 1 (FSs). Mientras que en estos últimos el grado de pertenencia de un elemento al conjunto viene determinado por un valor en el intervalo [0, 1], en el caso de los T2FSs el grado de pertenencia de un elemento es un conjunto borroso en [0,1], es decir, un T2FS queda determinado por una función de pertenencia μ : X → M, donde M = [0, 1][0,1] = Map([0, 1], [0, 1]), es el conjunto de las funciones de [0,1] en [0,1] (ver [39], [42], [43], [61]). Desde que los T2FSs fueron introducidos, se han generalizado a dicho conjunto (ver [39], [42], [43], [61], por ejemplo), a partir del “Principio de Extensión” de Zadeh [65] (ver Teorema 1.1), muchas de las definiciones, operaciones, propiedades y resultados obtenidos en los FSs. Sin embargo, como sucede en cualquier área de investigación, quedan muchas lagunas y problemas abiertos que suponen un reto para cualquiera que quiera hacer un estudio profundo en este campo. A este reto se ha dedicado el presente trabajo, logrando avances importantes en este sentido de “rellenar huecos” existentes en la teoría de los conjuntos borrosos de tipo 2, especialmente en las propiedades de autocontradicción y N-autocontradicción, y en las operaciones de negación, t-norma y t-conorma sobre los T2FSs. Cabe destacar que en [61] se justifica que las operaciones sobre los T2FSs (Map(X,M)) se pueden definir de forma natural a partir de las operaciones sobre M, verificando las mismas propiedades. Por tanto, por ser más fácil, en el presente trabajo se toma como objeto de estudio a M, y algunos de sus subconjuntos, en vez de Map(X,M). En cuanto a la operación de negación, en el marco de los conjuntos borrosos de tipo 2 (T2FSs), usualmente se emplea para representar la negación en M, una operación asociada a la negación estándar en [0,1]. Sin embargo, dicha operación no verifica los axiomas que, intuitivamente, debe verificar cualquier operación para ser considerada negación en el conjunto M. En este trabajo se presentan los axiomas de negación y negación fuerte en los T2FSs. También se define una operación asociada a cualquier negación suprayectiva en [0,1], incluyendo la negación estándar, y se estudia, junto con otras propiedades, si es negación y negación fuerte en L (conjunto de las funciones de M normales y convexas). Además, se comprueba en qué condiciones se cumplen las leyes de De Morgan para un extenso conjunto de pares de operaciones binarias en M. Por otra parte, las propiedades de N-autocontradicción y autocontradicción, han sido suficientemente estudiadas en los conjuntos borrosos de tipo 1 (FSs) y en los conjuntos borrosos intuicionistas de Atanassov (AIFSs). En el presente trabajo se inicia el estudio de las mencionadas propiedades, dentro del marco de los T2FSs cuyos grados de pertenencia están en L. En este sentido, aquí se extienden los conceptos de N-autocontradicción y autocontradicción al conjunto L, y se determinan algunos criterios para verificar tales propiedades. En cuanto a otras operaciones, Walker et al. ([61], [63]) definieron dos familias de operaciones binarias sobre M, y determinaron que, bajo ciertas condiciones, estas operaciones son t-normas (normas triangulares) o t-conormas sobre L. En este trabajo se introducen operaciones binarias sobre M, unas más generales y otras diferentes a las dadas por Walker et al., y se estudian varias propiedades de las mismas, con el objeto de deducir nuevas t-normas y t-conormas sobre L. ABSTRACT Type-2 fuzzy sets (T2FSs) were introduced by L.A. Zadeh in 1975 [65] as an extension of type-1 fuzzy sets (FSs). Whereas for FSs the degree of membership of an element of a set is determined by a value in the interval [0, 1] , the degree of membership of an element for T2FSs is a fuzzy set in [0,1], that is, a T2FS is determined by a membership function μ : X → M, where M = [0, 1][0,1] is the set of functions from [0,1] to [0,1] (see [39], [42], [43], [61]). Later, many definitions, operations, properties and results known on FSs, have been generalized to T2FSs (e.g. see [39], [42], [43], [61]) by employing Zadeh’s Extension Principle [65] (see Theorem 1.1). However, as in any area of research, there are still many open problems which represent a challenge for anyone who wants to make a deep study in this field. Then, we have been dedicated to such challenge, making significant progress in this direction to “fill gaps” (close open problems) in the theory of T2FSs, especially on the properties of self-contradiction and N-self-contradiction, and on the operations of negations, t-norms (triangular norms) and t-conorms on T2FSs. Walker and Walker justify in [61] that the operations on Map(X,M) can be defined naturally from the operations onMand have the same properties. Therefore, we will work onM(study subject), and some subsets of M, as all the results are easily and directly extensible to Map(X,M). About the operation of negation, usually has been employed in the framework of T2FSs, a operation associated to standard negation on [0,1], but such operation does not satisfy the negation axioms on M. In this work, we introduce the axioms that a function inMshould satisfy to qualify as a type-2 negation and strong type-2 negation. Also, we define a operation on M associated to any suprajective negation on [0,1], and analyse, among others properties, if such operation is negation or strong negation on L (all normal and convex functions of M). Besides, we study the De Morgan’s laws, with respect to some binary operations on M. On the other hand, The properties of self-contradiction and N-self-contradiction have been extensively studied on FSs and on the Atanassov’s intuitionistic fuzzy sets (AIFSs). Thereon, in this research we begin the study of the mentioned properties on the framework of T2FSs. In this sense, we give the definitions about self-contradiction and N-self-contradiction on L, and establish the criteria to verify these properties on L. Respect to the t-norms and t-conorms, Walker et al. ([61], [63]) defined two families of binary operations on M and found that, under some conditions, these operations are t-norms or t-conorms on L. In this work we introduce more general binary operations on M than those given by Walker et al. and study which are the minimum conditions necessary for these operations satisfy each of the axioms of the t-norm and t-conorm.
Resumo:
Walker et al. ([19], [20]) definieron dos familias de operaciones binarias sobre M (conjunto de las funciones de [0,1] en [0,1]), y determinaron que, bajo ciertas condiciones, estas operaciones son tnormas (normas triangulares) o t-conormas sobre L (subconjunto de las funciones normales y convexas de M). En este trabajo se introducen dos operaciones binarias sobre M, diferentes a las dadas por Walker et al., y se estudian varias propiedades de las mismas, con el objeto de deducir nuevas t-normas y t-conormas sobre L y sobre M.
Resumo:
La tesis doctoral "Contribución al estudio y clasificación de las funciones de implicación borrosas" constituye a la vez una revisión y un conjunto de aportaciones a la modelización de enunciados condicionales, o enunciados del tipo "Si P, entonces Q". Dentro del marco de la lógica borrosa, tradicionalmente, se considera que la mayor parte de las funciones de implicación, que modelizan los enunciados condicionales, deberían generalizar la implicación material booleana. En esta memoria se apoya el argumento de que la implicación material booleana no es siempre el modelo más adecuado para la modelización de los enunciados condicionales, por lo que se definen y estudian clases o grupos de funciones de implicación que se adecúen a las necesidades de cada caso de aplicación. Así pues, tras un capítulo introductorio, en el capítulo 2 se plantean clases de funciones de implicación que sirvan de apoyo en la definición de aplicaciones de carácter borroso más allá de las funciones de implicación borrosas derivadas de la implicación material booleana. Así se llega a la conclusión de que son necesarios, por lo menos, cuatro clases de funciones de implicación de las que se estudian sus propiedades. En el tercer capítulo se aborda el estudio de la verificación tanto de la regla del Modus Ponens como de la regla del Modus Tollens por parte de las funciones de implicación pertenecientes a cada una de las clases planteadas. Por último, en el capítulo 4 se presenta un estudio de los operadores citados como implicaciones borrosas en la literatura bajo el enfoque presentado en esta memoria, ampliándose estudios realizados por otros autores. ---ABSTRACT--- The Ph.D. Thesis "Contribution al estudio y clasificacion de las funciones de implication borrosas" is a revision and a set of contributions to the conditional statements or statements of the type "If P then Q" modelization. It has been usually considered in Fuzzy Logic, that implication functions that model conditional statements should generalize the boolean material implication. The present memory supports the argument that boolean material implication is not always the most appropiated model for conditional statements, so implication function groups or clusters are denned in order to fit in each application. Therefore, after an introductory chapter, in chapter 2 groups or clusters of implication functions are given in order to bear out fuzzy applications definitions further on from implication functions coming from boolean material implication. Then, it has been reached the conclusion that, at least, four types of implication functions are needed so their properties are studied.
Resumo:
La diabetes mellitus es un trastorno en la metabolización de los carbohidratos, caracterizado por la nula o insuficiente segregación de insulina (hormona producida por el páncreas), como resultado del mal funcionamiento de la parte endocrina del páncreas, o de una creciente resistencia del organismo a esta hormona. Esto implica, que tras el proceso digestivo, los alimentos que ingerimos se transforman en otros compuestos químicos más pequeños mediante los tejidos exocrinos. La ausencia o poca efectividad de esta hormona polipéptida, no permite metabolizar los carbohidratos ingeridos provocando dos consecuencias: Aumento de la concentración de glucosa en sangre, ya que las células no pueden metabolizarla; consumo de ácidos grasos mediante el hígado, liberando cuerpos cetónicos para aportar la energía a las células. Esta situación expone al enfermo crónico, a una concentración de glucosa en sangre muy elevada, denominado hiperglucemia, la cual puede producir a medio o largo múltiples problemas médicos: oftalmológicos, renales, cardiovasculares, cerebrovasculares, neurológicos… La diabetes representa un gran problema de salud pública y es la enfermedad más común en los países desarrollados por varios factores como la obesidad, la vida sedentaria, que facilitan la aparición de esta enfermedad. Mediante el presente proyecto trabajaremos con los datos de experimentación clínica de pacientes con diabetes de tipo 1, enfermedad autoinmune en la que son destruidas las células beta del páncreas (productoras de insulina) resultando necesaria la administración de insulina exógena. Dicho esto, el paciente con diabetes tipo 1 deberá seguir un tratamiento con insulina administrada por la vía subcutánea, adaptado a sus necesidades metabólicas y a sus hábitos de vida. Para abordar esta situación de regulación del control metabólico del enfermo, mediante una terapia de insulina, no serviremos del proyecto “Páncreas Endocrino Artificial” (PEA), el cual consta de una bomba de infusión de insulina, un sensor continuo de glucosa, y un algoritmo de control en lazo cerrado. El objetivo principal del PEA es aportar al paciente precisión, eficacia y seguridad en cuanto a la normalización del control glucémico y reducción del riesgo de hipoglucemias. El PEA se instala mediante vía subcutánea, por lo que, el retardo introducido por la acción de la insulina, el retardo de la medida de glucosa, así como los errores introducidos por los sensores continuos de glucosa cuando, se descalibran dificultando el empleo de un algoritmo de control. Llegados a este punto debemos modelar la glucosa del paciente mediante sistemas predictivos. Un modelo, es todo aquel elemento que nos permita predecir el comportamiento de un sistema mediante la introducción de variables de entrada. De este modo lo que conseguimos, es una predicción de los estados futuros en los que se puede encontrar la glucosa del paciente, sirviéndonos de variables de entrada de insulina, ingesta y glucosa ya conocidas, por ser las sucedidas con anterioridad en el tiempo. Cuando empleamos el predictor de glucosa, utilizando parámetros obtenidos en tiempo real, el controlador es capaz de indicar el nivel futuro de la glucosa para la toma de decisones del controlador CL. Los predictores que se están empleando actualmente en el PEA no están funcionando correctamente por la cantidad de información y variables que debe de manejar. Data Mining, también referenciado como Descubrimiento del Conocimiento en Bases de Datos (Knowledge Discovery in Databases o KDD), ha sido definida como el proceso de extracción no trivial de información implícita, previamente desconocida y potencialmente útil. Todo ello, sirviéndonos las siguientes fases del proceso de extracción del conocimiento: selección de datos, pre-procesado, transformación, minería de datos, interpretación de los resultados, evaluación y obtención del conocimiento. Con todo este proceso buscamos generar un único modelo insulina glucosa que se ajuste de forma individual a cada paciente y sea capaz, al mismo tiempo, de predecir los estados futuros glucosa con cálculos en tiempo real, a través de unos parámetros introducidos. Este trabajo busca extraer la información contenida en una base de datos de pacientes diabéticos tipo 1 obtenidos a partir de la experimentación clínica. Para ello emplearemos técnicas de Data Mining. Para la consecución del objetivo implícito a este proyecto hemos procedido a implementar una interfaz gráfica que nos guía a través del proceso del KDD (con información gráfica y estadística) de cada punto del proceso. En lo que respecta a la parte de la minería de datos, nos hemos servido de la denominada herramienta de WEKA, en la que a través de Java controlamos todas sus funciones, para implementarlas por medio del programa creado. Otorgando finalmente, una mayor potencialidad al proyecto con la posibilidad de implementar el servicio de los dispositivos Android por la potencial capacidad de portar el código. Mediante estos dispositivos y lo expuesto en el proyecto se podrían implementar o incluso crear nuevas aplicaciones novedosas y muy útiles para este campo. Como conclusión del proyecto, y tras un exhaustivo análisis de los resultados obtenidos, podemos apreciar como logramos obtener el modelo insulina-glucosa de cada paciente. ABSTRACT. The diabetes mellitus is a metabolic disorder, characterized by the low or none insulin production (a hormone produced by the pancreas), as a result of the malfunctioning of the endocrine pancreas part or by an increasing resistance of the organism to this hormone. This implies that, after the digestive process, the food we consume is transformed into smaller chemical compounds, through the exocrine tissues. The absence or limited effectiveness of this polypeptide hormone, does not allow to metabolize the ingested carbohydrates provoking two consequences: Increase of the glucose concentration in blood, as the cells are unable to metabolize it; fatty acid intake through the liver, releasing ketone bodies to provide energy to the cells. This situation exposes the chronic patient to high blood glucose levels, named hyperglycemia, which may cause in the medium or long term multiple medical problems: ophthalmological, renal, cardiovascular, cerebrum-vascular, neurological … The diabetes represents a great public health problem and is the most common disease in the developed countries, by several factors such as the obesity or sedentary life, which facilitate the appearance of this disease. Through this project we will work with clinical experimentation data of patients with diabetes of type 1, autoimmune disease in which beta cells of the pancreas (producers of insulin) are destroyed resulting necessary the exogenous insulin administration. That said, the patient with diabetes type 1 will have to follow a treatment with insulin, administered by the subcutaneous route, adapted to his metabolic needs and to his life habits. To deal with this situation of metabolic control regulation of the patient, through an insulin therapy, we shall be using the “Endocrine Artificial Pancreas " (PEA), which consists of a bomb of insulin infusion, a constant glucose sensor, and a control algorithm in closed bow. The principal aim of the PEA is providing the patient precision, efficiency and safety regarding the normalization of the glycemic control and hypoglycemia risk reduction". The PEA establishes through subcutaneous route, consequently, the delay introduced by the insulin action, the delay of the glucose measure, as well as the mistakes introduced by the constant glucose sensors when, decalibrate, impede the employment of an algorithm of control. At this stage we must shape the patient glucose levels through predictive systems. A model is all that element or set of elements which will allow us to predict the behavior of a system by introducing input variables. Thus what we obtain, is a prediction of the future stages in which it is possible to find the patient glucose level, being served of input insulin, ingestion and glucose variables already known, for being the ones happened previously in the time. When we use the glucose predictor, using obtained real time parameters, the controller is capable of indicating the future level of the glucose for the decision capture CL controller. The predictors that are being used nowadays in the PEA are not working correctly for the amount of information and variables that it need to handle. Data Mining, also indexed as Knowledge Discovery in Databases or KDD, has been defined as the not trivial extraction process of implicit information, previously unknown and potentially useful. All this, using the following phases of the knowledge extraction process: selection of information, pre- processing, transformation, data mining, results interpretation, evaluation and knowledge acquisition. With all this process we seek to generate the unique insulin glucose model that adjusts individually and in a personalized way for each patient form and being capable, at the same time, of predicting the future conditions with real time calculations, across few input parameters. This project of end of grade seeks to extract the information contained in a database of type 1 diabetics patients, obtained from clinical experimentation. For it, we will use technologies of Data Mining. For the attainment of the aim implicit to this project we have proceeded to implement a graphical interface that will guide us across the process of the KDD (with graphical and statistical information) of every point of the process. Regarding the data mining part, we have been served by a tool called WEKA's tool called, in which across Java, we control all of its functions to implement them by means of the created program. Finally granting a higher potential to the project with the possibility of implementing the service for Android devices, porting the code. Through these devices and what has been exposed in the project they might help or even create new and very useful applications for this field. As a conclusion of the project, and after an exhaustive analysis of the obtained results, we can show how we achieve to obtain the insulin–glucose model for each patient.
Resumo:
Esta investigación analiza los motivos por los que surgen diferentes pantallas digitales como soporte de publicidad exterior digital en el caso concreto de la Gran Vía madrileña, analizando también las funciones y efectos que desempeñan en ella. A partir de un mapa generado mediante un trabajo de campo, se ubican las pantallas digitales existentes en la conocida calle madrileña y se estudia su grado de concentración, clasificándolas en función de su tamaño, calidad, visibilidad y el tipo de redes publicitarias. Este mapa permite establecer el tipo de funciones que desempeñan y que surgen en busca de la revitalización de la zona y de dar una continuidad histórica a la ambición de asimilarla a los míticos espacios neoyorkinos de Times Square y Broadway. Además, se demuestra que dichas pantallas han conseguido audiovisualizar, dinamizar y hacer más interactivos este espacio, a la vez que mejoran su reputación y generan una imagen de marca-ciudad más positiva centrada en la innovación.
Resumo:
La teleformación, de manera paralela a Internet, ha tenido una rápida y constante evolución a lo largo de los últimos años. Al mismo tiempo, dicha modalidad formativa ha ido cobrando mucha relevancia en el ámbito de la formación, en particular, en la capacitación de las personas trabajadoras. Teniendo en cuenta las ventajas que presenta la teleformación, se hace necesario que se realicen avances y mejoras de la calidad en el desarrollo de los procesos incluidos en ella, como es el caso de la tutorización. Por estas razones esta investigación se plantea: ¿Qué funciones realizan los tutores y tutoras de e-learning durante las acciones formativas en las que participan?, y ¿cómo perciben esas funciones los estudiantes? Este trabajo investiga las formas de tutorización que ayudan a un mejor desempeño por parte del teletutor, promoviendo procesos de enseñanza-aprendizaje que contribuyan a disminuir el índice de abandonos de estudiantes. La metodología seguida emplea técnicas cuantitativas y cualitativas buscando en cada momento, el método que mejor dé respuesta a los objetivos planteados inicialmente. Para la realización de la misma se han tomado dos muestras. Una de 707 estudiantes de cursos online pertenecientes a un proyecto de formación continua de trabajadores de pequeña y mediana empresas, y autónomos, La segunda muestra la conforman 8 tutores que han participado en el mencionado proyecto. A través de esta investigación se han podido analizar y estudiar las dimensiones y funciones que han realizado los tutores durante las distintas acciones formativas llevadas a cabo y se ha llegado a conocer las percepciones que tienen los estudiantes sobre las distintas dimensiones o funciones que ha empleado cada tutor en las mismas. Se consiguió identificar y comprender las tareas y funciones puestas en práctica por los tutores durante las acciones formativas llevadas a cabo, y las diferencias que se produjeron en ellas en cada uno de los docentes. Así mismo los resultados han permitido organizar diversos sistemas de categorías en otros tantos marcos “teóricos”, representados a través de diagramas comprensivos, que nos ayudan a entender de manera más adecuada las relaciones entre categorías y dimensiones de cada uno de los tutores del estudio. Ha sido posible incluso llegar a establecer tipologías de tutores según las funciones y roles desarrollados, los recursos más utilizados en su labor de tutorización y los rasgos que caracterizan a los estudiantes que realizan este tipo de formación.
Resumo:
Esta investigación analiza los motivos de la implantación de pantallas digitales publicitarias en la urbe y estudia las funciones y los efectos que desempeñan en la ciudad como soporte de publicidad exterior outdoors digital, para lo cual se ha realizado una revisión bibliográfica con su correspondiente análisis de contenido. Los motivos de la implantación de estas pantallas digitales se centran tanto en los beneficios monetarios (Gómez y Puentes, 2011) y reputacionales a largo plazo para el anunciante (IAB, 2014), como en la mayor eficacia comunicativa de estas pantallas digitales a la hora de conectar con su público objetivo: el phoneur, un flâneur adormilado absorto en la pantalla de su smartphone (Luke, en Márquez, 2012) con el que las pantallas digitales buscan conectar más eficazmente (Lipovetsky, 2009) ofreciéndole una experiencia interactiva de la que podrá disfrutar gracias a su objeto de deseo más preciado, su teléfono móvil. Atendiendo al segundo objetivo de la investigación, cabe destacar que, ya sin haberse digitalizado, la publicidad exterior outdoors tiene en la ciudad una triple función estética (Olivares, 2009), cultural-simbólica (Baladrón, 2007) (Salcedo, 2011) y social (Pacheco, 2004) que, como es lógico, sigue desempeñando cuando se digitaliza. Igualmente, su uso descontrolado y masificado sigue ocasionando efectos contaminantes para el paisaje urbano, con todas las consecuencias que esto trae para el mismo (Olivares, 2009). Considerando esto, cabe afirmar que la presente investigación establece además aquellas funciones específicas que se derivan de la digitalización de este tipo de publicidad que se inserta en distintos soportes digitales y, más en concreto, en los diferentes tipos de pantallas digitales. Así pues, otorga a la ciudad un valor de marca añadido que gira en torno a la innovación y permite mejorar su imagen y reputación como ciudad (Vizcaíno-Laorga, 2007) (IAB, 2015) (Ortiz y Montemayor, 2015), a la vez que logra revitalizarla creando puntos de interés y espectáculos (Roberts, 2006) gracias a la interactividad y tiene como uno de sus mayores efectos la audiovisualización de la urbe (Muñíz, 2013), lo cual genera espacios cambiantes y mutables en pocos segundos (Silverstone y Hirsch, 1992) (Willis, 2009). Espacios en los que las pantallas, especialmente durante la noche, son las protagonistas de la arquitectura y de los espacios urbanos (Krajina, 2014), ya que estos pasan a un plano olvidado al adquirir todo el protagonismo esas pantallas digitales publicitarias que brillan en todo su esplendor (Venturi, 2006).
Resumo:
La responsabilidad que el profesional contable adquiere ante el cumplimiento de las diversas leyes que regulan el ejercicio de su profesión independiente, le exige un conocimiento adecuado e integral de estas, ya que de ello depende su calidad en la prestación de servicios, en su imagen y en la profesión misma. Dicho marco legal dentro del cual se desenvuelve el contador público, impacta de forma directa en las funciones y responsabilidades del mismo ya que al no cumplir ciertos aspectos legales podría ser objeto de sanciones. Es por esa razón que se decidió escribir acerca de esta temática, que comprende los aspectos principales en cuanto a funciones y responsabilidades legales del Profesional Contable, mediante esta investigación: “ANALISIS E INTERPRETACION DE ASPECTOS LEGALES QUE INCIDEN DIRECTAMENTE EN LAS FUNCIONES Y RESPONSABILIDADES DEL CONTADOR PUBLICO EN EL EJERCICIO DE SU PROFESION INDEPENDIENTE EN EL SALVADOR”. La investigación tiene como objetivos, elaborar un documento que contenga un análisis de la responsabilidad que el profesional contable adquiere frente a quienes requieren de sus servicios, así como proporcionar una herramienta de apoyo para todo aquel profesional o estudiante, que busque tener un mejor panorama del marco legal que regula sus actuaciones. La investigación que se realizó es de tipo “paradigma positivista”, a través del método hipotético deductivo, debido a que permite dar a conocer los resultados derivados de la realidad encontrada en la investigación. La investigación se a través de la aplicación de cincuenta y tres encuestas a despachos de Auditoría autorizados por el Consejo de Vigilancia de la Profesión de la contaduría Pública y Auditoria. El análisis realizado de cada artículo legal describe las funciones, la responsabilidad, las incidencias a las que conlleva el no cumplimiento y un breve comentario de cada situación. Los resultados de este análisis demuestran que un porcentaje considerable de profesionales encuestados concuerdan en que es de gran utilidad proporcionar un documento que recopile y analice el articulado legal que incide directamente en las funciones y responsabilidades del profesional contable. A través del análisis de la investigación realizada se elaboraron las respectivas conclusiones y recomendaciones.
Resumo:
Las proteínas amiloides son un grupo heterogéneo de proteínas diferentes en secuencia aminoacídica, pero similares en su estructura cuaternaria: fibras enriquecidas en láminas beta, con gran estabilidad, resistencia y capacidad de unión de colorantes específicos, como el rojo congo o la thioflavina T. Estas proteínas han estado tradicionalmente asociadas a patologías neurodegenerativas en humanos como el Alzheimer o el Parkinson. Sin embargo, los miembros dentro de esta familia están ampliamente distribuidas en la naturaleza, desde bacterias hasta humanos, e intervienen en un amplio rango de funciones biológicas, motivo por el que se han denominado “amiloides funcionales”. En bacterias, los amiloides funcionales son responsables de participar en funciones muy diversas como la interacción célula-célula, con superficies abióticas, y formación de biofilms. En Bacillus subtilis, la proteína amiloide TasA es el componente proteico mayoritario de la matriz extracelular del biofilm de este microorganismo y el principal elemento que constituye las fibras amiloides, mientras que la proteína auxiliar TapA, presente en mucha menor proporción, actúa favoreciendo el ensamblaje de las mismas. Estas actúan como un andamiaje proteico donde se disponen el resto de componentes de la matriz extracelular, lo que confiere a esta estructura una mayor estabilidad y, por consiguiente, proporcionan una mayor robustez al biofilm. En este este trabajo se pretende llevar a cabo el análisis de regiones o dominios tanto de TasA como de TapA importantes para la amiloidogénesis, así como para la funcionalidad de ambas proteínas. Para ello, el estudio se ha enfocado desde un punto de vista multidisciplinar, combinando pruebas clásicas de caracterización de amiloides con técnicas de biología molecular y diversas pruebas biofísicas. Los resultados obtenidos hasta la fecha han demostrado la existencia de pequeñas secuencias, dentro de las proteínas TasA o TapA con capacidad para polimerizar en la forma de fibras, lo que muestra su importancia en el proceso de fibrilación y en la funcionalidad de ambas proteínas. En el caso de la proteína TapA, las regiones analizadas ponen de manifiesto la importancia de su extremo amino-terminal tanto en la funcionalidad de la proteína como en su interacción con TasA.
Resumo:
Para la elaboración de este texto se tuvo presente la manera en que varios de autores hablaron sobre Cultura Organizacional, desde diferentes perspectivas académicas; principalmente cuando la definieron buscando una forma de explicarla, también las diferentes maneras en que la caracterizaron con ciertos aspectos que permitían categorizarla, del mismo modo también se expusieron las funciones que le atribuyeron dentro de la organización y las dinámicas internas, también se tuvo en cuenta los efectos que cualquier tipo de cultura puede traer a una organización según cada uno de ellos y finalmente, varias de las conclusiones son una recopilación de lo que la Cultura Organizacional implica dentro de otras áreas académicas según los textos de los expertos citados; seguidas de unas ideas propias que denotan la importancia de su relación con la Gerencia.