896 resultados para diseño de sistemas de cálculo


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Se explicará el uso de la herramienta de simulación de sistemas acústicos y electroacústicos EASE®, en el diseño de una sala cine con sonido multicanal en formato digital 7.1 y THX. Se comenzará con la definición del modelo arquitectónico y geométrico, la validación de modelo a partir de características acústicas, la elección y ubicación del sistema de refuerzo electroacústico, la ecualización y ajuste del sistema electroacústico, la obtención de la respuesta temporal y la auralización de la sala con el sistema de sonido funcionando. La utilización de este tipo de herramientas de simulación permite realizar modificaciones en el diseño con un coste de tiempo muy razonable.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El concepto de algoritmo es básico en informática, por lo que es crucial que los alumnos profundicen en él desde el inicio de su formación. Por tanto, contar con una herramienta que guíe a los estudiantes en su aprendizaje puede suponer una gran ayuda en su formación. La mayoría de los autores coinciden en que, para determinar la eficacia de una herramienta de visualización de algoritmos, es esencial cómo se utiliza. Así, los estudiantes que participan activamente en la visualización superan claramente a los que la contemplan de forma pasiva. Por ello, pensamos que uno de los mejores ejercicios para un alumno consiste en simular la ejecución del algoritmo que desea aprender mediante el uso de una herramienta de visualización, i. e. consiste en realizar una simulación visual de dicho algoritmo. La primera parte de esta tesis presenta los resultados de una profunda investigación sobre las características que debe reunir una herramienta de ayuda al aprendizaje de algoritmos y conceptos matemáticos para optimizar su efectividad: el conjunto de especificaciones eMathTeacher, además de un entorno de aprendizaje que integra herramientas que las cumplen: GRAPHs. Hemos estudiado cuáles son las cualidades esenciales para potenciar la eficacia de un sistema e-learning de este tipo. Esto nos ha llevado a la definición del concepto eMathTeacher, que se ha materializado en el conjunto de especificaciones eMathTeacher. Una herramienta e-learning cumple las especificaciones eMathTeacher si actúa como un profesor virtual de matemáticas, i. e. si es una herramienta de autoevaluación que ayuda a los alumnos a aprender de forma activa y autónoma conceptos o algoritmos matemáticos, corrigiendo sus errores y proporcionando pistas para encontrar la respuesta correcta, pero sin dársela explícitamente. En estas herramientas, la simulación del algoritmo no continúa hasta que el usuario introduce la respuesta correcta. Para poder reunir en un único entorno una colección de herramientas que cumplan las especificaciones eMathTeacher hemos creado GRAPHs, un entorno ampliable, basado en simulación visual, diseñado para el aprendizaje activo e independiente de los algoritmos de grafos y creado para que en él se integren simuladores de diferentes algoritmos. Además de las opciones de creación y edición del grafo y la visualización de los cambios producidos en él durante la simulación, el entorno incluye corrección paso a paso, animación del pseudocódigo del algoritmo, preguntas emergentes, manejo de las estructuras de datos del algoritmo y creación de un log de interacción en XML. Otro problema que nos planteamos en este trabajo, por su importancia en el proceso de aprendizaje, es el de la evaluación formativa. El uso de ciertos entornos e-learning genera gran cantidad de datos que deben ser interpretados para llegar a una evaluación que no se limite a un recuento de errores. Esto incluye el establecimiento de relaciones entre los datos disponibles y la generación de descripciones lingüísticas que informen al alumno sobre la evolución de su aprendizaje. Hasta ahora sólo un experto humano era capaz de hacer este tipo de evaluación. Nuestro objetivo ha sido crear un modelo computacional que simule el razonamiento del profesor y genere un informe sobre la evolución del aprendizaje que especifique el nivel de logro de cada uno de los objetivos definidos por el profesor. Como resultado del trabajo realizado, la segunda parte de esta tesis presenta el modelo granular lingüístico de la evaluación del aprendizaje, capaz de modelizar la evaluación y generar automáticamente informes de evaluación formativa. Este modelo es una particularización del modelo granular lingüístico de un fenómeno (GLMP), en cuyo desarrollo y formalización colaboramos, basado en la lógica borrosa y en la teoría computacional de las percepciones. Esta técnica, que utiliza sistemas de inferencia basados en reglas lingüísticas y es capaz de implementar criterios de evaluación complejos, se ha aplicado a dos casos: la evaluación, basada en criterios, de logs de interacción generados por GRAPHs y de cuestionarios de Moodle. Como consecuencia, se han implementado, probado y utilizado en el aula sistemas expertos que evalúan ambos tipos de ejercicios. Además de la calificación numérica, los sistemas generan informes de evaluación, en lenguaje natural, sobre los niveles de competencia alcanzados, usando sólo datos objetivos de respuestas correctas e incorrectas. Además, se han desarrollado dos aplicaciones capaces de ser configuradas para implementar los sistemas expertos mencionados. Una procesa los archivos producidos por GRAPHs y la otra, integrable en Moodle, evalúa basándose en los resultados de los cuestionarios. ABSTRACT The concept of algorithm is one of the core subjects in computer science. It is extremely important, then, for students to get a good grasp of this concept from the very start of their training. In this respect, having a tool that helps and shepherds students through the process of learning this concept can make a huge difference to their instruction. Much has been written about how helpful algorithm visualization tools can be. Most authors agree that the most important part of the learning process is how students use the visualization tool. Learners who are actively involved in visualization consistently outperform other learners who view the algorithms passively. Therefore we think that one of the best exercises to learn an algorithm is for the user to simulate the algorithm execution while using a visualization tool, thus performing a visual algorithm simulation. The first part of this thesis presents the eMathTeacher set of requirements together with an eMathTeacher-compliant tool called GRAPHs. For some years, we have been developing a theory about what the key features of an effective e-learning system for teaching mathematical concepts and algorithms are. This led to the definition of eMathTeacher concept, which has materialized in the eMathTeacher set of requirements. An e-learning tool is eMathTeacher compliant if it works as a virtual math trainer. In other words, it has to be an on-line self-assessment tool that helps students to actively and autonomously learn math concepts or algorithms, correcting their mistakes and providing them with clues to find the right answer. In an eMathTeacher-compliant tool, algorithm simulation does not continue until the user enters the correct answer. GRAPHs is an extendible environment designed for active and independent visual simulation-based learning of graph algorithms, set up to integrate tools to help the user simulate the execution of different algorithms. Apart from the options of creating and editing the graph, and visualizing the changes made to the graph during simulation, the environment also includes step-by-step correction, algorithm pseudo-code animation, pop-up questions, data structure handling and XML-based interaction log creation features. On the other hand, assessment is a key part of any learning process. Through the use of e-learning environments huge amounts of data can be output about this process. Nevertheless, this information has to be interpreted and represented in a practical way to arrive at a sound assessment that is not confined to merely counting mistakes. This includes establishing relationships between the available data and also providing instructive linguistic descriptions about learning evolution. Additionally, formative assessment should specify the level of attainment of the learning goals defined by the instructor. Till now, only human experts were capable of making such assessments. While facing this problem, our goal has been to create a computational model that simulates the instructor’s reasoning and generates an enlightening learning evolution report in natural language. The second part of this thesis presents the granular linguistic model of learning assessment to model the assessment of the learning process and implement the automated generation of a formative assessment report. The model is a particularization of the granular linguistic model of a phenomenon (GLMP) paradigm, based on fuzzy logic and the computational theory of perceptions, to the assessment phenomenon. This technique, useful for implementing complex assessment criteria using inference systems based on linguistic rules, has been applied to two particular cases: the assessment of the interaction logs generated by GRAPHs and the criterion-based assessment of Moodle quizzes. As a consequence, several expert systems to assess different algorithm simulations and Moodle quizzes have been implemented, tested and used in the classroom. Apart from the grade, the designed expert systems also generate natural language progress reports on the achieved proficiency level, based exclusively on the objective data gathered from correct and incorrect responses. In addition, two applications, capable of being configured to implement the expert systems, have been developed. One is geared up to process the files output by GRAPHs and the other one is a Moodle plug-in set up to perform the assessment based on the quizzes results.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Introducción a la utilización de la herramienta de descripción hardware de Xilinx ISE 14.3

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Los materiales lignocelulósicos residuales de las actividades agroindustriales pueden ser aprovechados como fuente de lignina, hemicelulosa y celulosa. El tratamiento químico del material lignocelulósico se debe enfrentar al hecho de que dicho material es bastante recalcitrante a tal ataque, fundamentalmente debido a la presencia del polímero lignina. Esto se puede lograr también utilizando hongos de la podredumbre blanca de la madera. Estos producen enzimas lignolíticas extracelulares fundamentalmente Lacasa, que oxida la lignina a CO2. Tambien oxida un amplio rango de sustratos ( fenoles, polifenoles, anilinas, aril-diaminas, fenoles metoxi-sustituídos, y otros), lo cual es una buena razón de su atracción para aplicaciones biotecnológicas. La enzima tiene potencial aplicación en procesos tales como en la delignificación de materiales lignocelulósicos y en el bioblanqueado de pulpas para papel, en el tratamiento de aguas residuales de plantas industriales, en la modificación de fibras y decoloración en industrias textiles y de colorantes, en el mejoramiento de alimentos para animales, en la detoxificación de polutantes y en bioremediación de suelos contaminados. También se la ha utilizado en Q.Orgánica para la oxidación de grupos funcionales, en la formación de enlaces carbono- nitrógeno y en la síntesis de productos naturales complejos. HIPOTESIS Los hongos de podredumbre blanca, y en condiciones óptimas de cultivo producen distintos tipos de enzimas oxidasas, siendo las lacasas las más adecuadas para explorarlas como catalizadores en los siguientes procesos:  Delignificación de residuos de la industria forestal con el fin de aprovechar tales desechos en la alimentación animal.  Decontaminación/remediación de suelos y/o efluentes industriales. Se realizarán los estudios para el diseño de bio-reactores que permitan responder a las dos cuestiones planteadas en la hipótesis. Para el proceso de delignificación de material lignocelulósico se proponen dos estrategias: 1- tratar el material con el micelio del hongo adecuando la provisión de nutrientes para un desarrollo sostenido y favorecer la liberación de la enzima. 2- Utilizar la enzima lacasa parcialmente purificada acoplada a un sistema mediador para oxidar los compuestos polifenólicos. Para el proceso de decontaminación/remediación de suelos y/o efluentes industriales se trabajará también en dos frentes: 3) por un lado, se ha descripto que existe una correlación positiva entre la actividad de algunas enzimas presentes en el suelo y la fertilidad. En este sentido se conoce que un sistema enzimático, tentativamente identificado como una lacasa de origen microbiano es responsable de la transformación de compuestos orgánicos en el suelo. La enzima protege al suelo de la acumulación de compuestos orgánicos peligrosos catalizando reacciones que involucran degradación, polimerización e incorporación a complejos del ácido húmico. Se utilizarán suelos incorporados con distintos polutantes( por ej. policlorofenoles ó cloroanilinas.) 4) Se trabajará con efluentes industriales contaminantes (alpechínes y/o el efluente líquido del proceso de desamargado de las aceitunas).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this work it was developed mathematical resolutions taking as parameter maximum intensity values for the interference analysis of electric and magnetic fields and was given two virtual computer system that supports families of CDMA and WCDMA technologies. The first family were developed computational resources to solve electric and magnetic field calculations and power densities in Radio Base stations , with the use of CDMA technology in the 800 MHz band , taking into account the permissible values referenced by the Commission International Protection on non-Ionizing Radiation . The first family is divided into two segments of calculation carried out in virtual operation. In the first segment to compute the interference field radiated by the base station with input information such as radio channel power; Gain antenna; Radio channel number; Operating frequency; Losses in the cable; Attenuation of direction; Minimum Distance; Reflections. Said computing system allows to quickly and without the need of implementing instruments for measurements, meet the following calculated values: Effective Radiated Power; Sector Power Density; Electric field in the sector; Magnetic field in the sector; Magnetic flux density; point of maximum permissible exposure of electric field and power density. The results are shown in charts for clarity of view of power density in the industry, as well as the coverage area definition. The computer module also includes folders specifications antennas, cables and towers used in cellular telephony, the following manufacturers: RFS World, Andrew, Karthein and BRASILSAT. Many are presented "links" network access "Internet" to supplement the cable specifications, antennas, etc. . In the second segment of the first family work with more variables , seeking to perform calculations quickly and safely assisting in obtaining results of radio signal loss produced by ERB . This module displays screens representing propagation systems denominated "A" and "B". By propagating "A" are obtained radio signal attenuation calculations in areas of urban models , dense urban , suburban , and rural open . In reflection calculations are present the reflection coefficients , the standing wave ratio , return loss , the reflected power ratio , as well as the loss of the signal by mismatch impedance. With the spread " B" seek radio signal losses in the survey line and not targeted , the effective area , the power density , the received power , the coverage radius , the conversion levels and the gain conversion systems radiant . The second family of virtual computing system consists of 7 modules of which 5 are geared towards the design of WCDMA and 2 technology for calculation of telephone traffic serving CDMA and WCDMA . It includes a portfolio of radiant systems used on the site. In the virtual operation of the module 1 is compute-: distance frequency reuse, channel capacity with noise and without noise, Doppler frequency, modulation rate and channel efficiency; Module 2 includes computes the cell area, thermal noise, noise power (dB), noise figure, signal to noise ratio, bit of power (dBm); with the module 3 reaches the calculation: breakpoint, processing gain (dB) loss in the space of BTS, noise power (w), chip period and frequency reuse factor. Module 4 scales effective radiated power, sectorization gain, voice activity and load effect. The module 5 performs the calculation processing gain (Hz / bps) bit time, bit energy (Ws). Module 6 deals with the telephone traffic and scales 1: traffic volume, occupancy intensity, average time of occupancy, traffic intensity, calls completed, congestion. Module 7 deals with two telephone traffic and allows calculating call completion and not completed in HMM. Tests were performed on the mobile network performance field for the calculation of data relating to: CINP , CPI , RSRP , RSRQ , EARFCN , Drop Call , Block Call , Pilot , Data Bler , RSCP , Short Call, Long Call and Data Call ; ECIO - Short Call and Long Call , Data Call Troughput . As survey were conducted surveys of electric and magnetic field in an ERB , trying to observe the degree of exposure to non-ionizing radiation they are exposed to the general public and occupational element. The results were compared to permissible values for health endorsed by the ICNIRP and the CENELEC .

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Los sistemas de riego por goteo normalmente mojan sólo una porción del área de suelo a lo cual se le llama: porcentaje de área humedecida. Este valor depende del volumen de agua aplicado, espaciamientos de puntos de emisión y tipo de suelo que se está regando. El porcentaje de área humedecida tiene influencia sobre los parámetros de diseño de un sistema de riego por goteo, tal porcentaje no se ha establecido para cultivos de espaciamientos mayores de 1.8m. Con el estado actual de conocimiento, un objetivo razonable como lo mencionan varios autores (11,13), es por lo menos mojar entre un tercio y un medio del área total correspondiente a una planta. Se utilizó un diseño estadístico completamente al azar en arreglo factorial 3x3 con repeticiones. El total de tratamientos fue de 9, constituidos por la combinación del volumen de agua aplicado (12 lts., 24 lts., y 48 lts.), y la textura (Arenoso- franco, Franco-Arcilloso y Franco). La prueba consistió en aplicar un caudal de 4 LPH en tres tipos (3h, 6h, y 12hh), en las texturas de estudio, que se evaluaron en cajas de madera, después de cada tiempo de aplicación se midió el diámetro del bulbo humedecido a intervalos de 5 cm de profundidad, hasta cubrir el bulbo humedecido. En este sentido, el presente trabajo tiene por objetivo la determinación del número de goteros por planta y volumen de agua aplicado que humedezca del 33% al 50% del área total del sistema de raíces. La determinación de tal porcentaje de humedecimiento contribuirá al desarrollo de la agricultura bajo riego en El Salvador. Entre los resultados obtenidos en este experimento se pueden mencionar la relación que existe entre el diámetro del bulbo humedecido (DC) y el volumen de agua aplicado (V), tal relación puede ser expresada matemáticamente mediante una ecuación de tipo exponencial para cada uno de los suelos analizados. Las ecuaciones que representan la relacion entre Dc y V, son: Arena-franca:Dc = 26.9 (V) °.27 Franca-arcillosa: Dc = 76.4 (V) °.27 Franca:Dc = 29.3 (V) °.38 En relación a lo anterior se concluye lo siguiente: 1.Que el diámetro del bulbo humedecido está íntimamente ligado con el tipo de suelo y el volumen de agua aplicado. 2.Una vez conocido el diámetro de bulbo húmedo y suponiendo un número determinado de goteros se puede estimar el porcentaje de área humedecido. 3.Los diámetros leídos en el campo para determinado suelo están influenciados por el contenido de humedad al momento de realizar la prueba.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La complejidad de los sistemas actuales de computación ha obligado a los diseñadores de herramientas CAD/CAE a acondicionar lenguajes de alto nivel, tipo C++, para la descripción y automatización de estructuras algorítmicas a sus correspondientes diseños a nivel físico. Los proyectos a realizar se encuadran dentro de una línea de trabajo consistente en estudiar la programación, funcionamiento de los lenguajes SystemC y SystemVerilog, sus herramientas asociadas y analizar cómo se adecuan a las restricciones temporales y físicas de los componentes (librerías, IP's, macro-celdas, etc) para su directa implementación. En una primera fase, y para este TFG, se estudiarán los componentes que conforman el framework elegido que es SystemC y su inclusión en herramientas de diseño arquitectural. Este conocimiento nos ayudará a entender el funcionamiento y capacidad de dicha herramienta y proceder a su correcto manejo. Analizaremos y estudiaremos unos de los lenguajes de alto nivel de los que hace uso dicha herramienta. Una vez entendido el contexto de aplicación, sus restricciones y sus elementos, diseñaremos una estructura hardware. Una vez que se tenga el diseño, se procederá a su implementación haciendo uso, si es necesario, de simuladores. El proyecto finalizará con una definición de un conjunto de pruebas con el fin de verificar y validar la usabilidad y viabilidad de nuestra estructura hardware propuesta.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Hoy en día estamos inundados de cientos de sistemas digitales que juegan un papel discreto pero agradecido en muchas de nuestras actividades diarias. No hace muchos años, no sabíamos lo que era un mando a distancia y, hoy en día, no sabemos vivir sin él. Muchos productos de consumo basados en sistemas digitales son ya artículos de casi primera necesidad. La revolución digital, basada en Ia microelectrónica, Ia informática y las telecomunicaciones, comenzó en los años setenta con Ia aparición del microprocesador. En los 80, los microprocesadores facilitaron Ia llegada de los ordenadores personales (PC, Personal Computer) en un momento en el que nadie podía sospechar el éxito que alcanzarían. En los 90, triunfó el PC multimedia y su conexión a red junto con el auge de Ia telefonía móvil de segunda generación. La llegada del siglo XXI ha consolidado Internet y ha puesto las bases para el despliegue de Ia tercera generación de móviles. Los siguientes pasos apuntan entornos inteligentes donde terminales multimedia inalámbricos se comunicarán de forma espontánea con dispositivos próximos y podrán acceder a cualquier red de comunicaciones. Este manual pretende repasar esta revolución estudiando, desde un punto de vista hardware, los sistemas digitales basados en microprocesadores de última generación.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El interés por los intangibles empezó a partir de la crisis reputacional de finales de siglo XX, que tuvo un impacto tremendo en Estados Unidos. Los casos de Enron, Tyco, Ahold, y Arthur Andersen pusieron de manifiesto la vulnerabilidad a los riesgos reputacionales. Fuera de Estados Unidos, el caso de la compañía Parmalat consiguió que los empresarios de todo el mundo se dieran cuenta por primera vez de que la reputación mal gestionada puede hacer desaparecer una empresa. Hoy sabemos que más del 80 % del valor total de una organización reside en sus recursos y activos intangibles y, por este motivo, estos activos se han convertido en el asunto de mayor relevancia en la agenda de los principales ejecutivos españoles. No solo porque la buena reputación atrae consumidores, capital, talento, facilita la internacionalización y permite alinear los intereses y voluntades de toda la organización para conseguir los objetivos de negocio, sino porque la gestión integrada e integral de los intangibles es la única ruta posible para alcanzar una diferenciación sostenible en el tiempo generadora de márgenes superiores y al mismo tiempo un capital de confianza con los grupos de interés que asegura conseguir y mantener las licencias para operar. La buena gestión de los intangibles asegura por tanto, y en último término, la excelencia empresarial.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A lo largo del tiempo las necesidades de las empresas se vuelven cada vez mayores, la competencia entre ellas busca herramientas y recursos tecnológicos como los sistemas contables computarizados, que proporcionen efectividad, rapidez y confiabilidad, tanto en los procedimientos como en el procesamiento de información, que faciliten la elaboración de reportes oportunos que sirvan para la toma de decisiones importantes en el crecimiento de la empresa. Lo anterior da paso al cuestionamiento del hecho que si los sistemas actuales son los suficientemente útiles para el desarrollo de sus actividades, para ello se realizó un estudio analítico descriptivo, en el cual se utilizó como herramienta de investigación un cuestionario con preguntas abiertas y cerradas, con el objetivo de demostrar la problemática en que vive la empresa y porque el sistema computarizado actual no cumple con las necesidades que estas presentan durante sus operaciones habituales. Se tomó una muestra de 19 empresas medianas dedicadas a la compra y venta de repuestos automotrices, las cuales indicaron que el 17% no satisface las necesidades de información. Considerando lo anterior, el desarrollo de este trabajo de investigación está dedicado al análisis de todas las áreas de la empresa y de todos los aspectos importantes como lo son: el establecimiento de procedimientos o esquematización de los flujos de actividades en todas sus divisiones, tomando en cuenta la participación de los usuarios tanto operativos como analíticos para establecimiento de necesidades concretas, incluyendo en estas análisis de factores económicos, operativos y organizacionales actuales, con el fin de corregir o mejorar dichos factores para que sean compatibles con el cambio de sistemas. Todos los anteriores son solo una parte de los aspectos a considera dentro del análisis previo para establecer los requerimientos ya sea para la compra, desarrollo o mejoramiento del sistema contable computarizado. El fin de la investigación concluyó en que los sistemas que actualmente se utilizan en las medianas empresas de este ramo, son sistemas computarizados que no han sido desarrollados, sino que pertenecen a programas comercializados en el mercado; estos mismos muestran tener una cierta satisfacción para los usuarios, pero que sin embargo se ven en la necesidad de otras herramientas para el procesamiento y presentación de la información. Es por ello que se recomienda que las empresas al desarrollar o adquirir un sistema contable computarizado, deben de incluir en este proceso el análisis de los procedimientos con los que actualmente cuenta; en muchas ocasiones se busca que las empresas se adecuen a los sistemas, cuando lo correcto es que los sistemas se adecuen las operaciones de estas, ya que existen procedimientos adecuados como óptimos para las actividades que generan y que son modificados o desechados con la adquisición de nuevos programas informáticos. Para ello se propone el conocimiento de los procedimientos a través de una herramienta (adecuable) que permite que los generadores y usuarios de la información viertan y aporten conocimientos idóneos para la determinación de requerimientos en la adquisición, desarrollo o mejoramiento de sistemas contables computarizados. Lo anterior se presenta de una forma consecutiva que procede con el conocimiento general de la empresa, el establecimiento de los distintos procedimientos y la valoración de estos, lo cual al final es valorado conjuntamente, aunado a esto se presenta el estudio de distintos factores como lo son técnicos, organizacionales, operacionales y económicos; estos últimos deben de ser considerados como parte fundamental de todo análisis. La bondad de este método es que puede ser diseñado y acoplado para los distintos tipos de empresas sin importar el tamaño de estas, dejando muestras claras de las aportaciones brindadas por cada una de las partes relacionadas y a su vez deja el rastro suficiente para observar el desarrollo en la toma de decisiones con respecto al desarrollo o adquisición de programas contables computarizados.