999 resultados para ANTLR, Framework .NET, ingegneria del software, FormulaG, interpreti, linguaggi formali, WPF
Resumo:
Contexto: La presente tesis doctoral se enmarca en la actividad de educción de los requisitos. La educción de requisitos es generalmente aceptada como una de las actividades más importantes dentro del proceso de Ingeniería de Requisitos, y tiene un impacto directo en la calidad del software. Es una actividad donde la comunicación entre los involucrados (analistas, clientes, usuarios) es primordial. La efectividad y eficacia del analista en la compresión de las necesidades de clientes y usuarios es un factor crítico para el éxito del desarrollo de software. La literatura se ha centrado principalmente en estudiar y comprender un conjunto específico de capacidades o habilidades personales que debe poseer el analista para realizar de forma efectiva la actividad de educción. Sin embargo, existen muy pocos trabajos que han estudiado dichas capacidades o habilidades empíricamente. Objetivo: La presente investigación tiene por objetivo estudiar el efecto de la experiencia, el conocimiento acerca del dominio y la titulación académica que poseen los analistas en la efectividad del proceso de educción de los requisitos, durante los primeros contactos del analista con el cliente. Método de Investigación: Hemos ejecutado 8 estudios empíricos entre cuasi-experimentos (4) y experimentos controlados (4). Un total de 110 sujetos experimentales han participado en los estudios, entre estudiantes de post-grado de la Escuela Técnica Superior de Ingenieros Informáticos de la Universidad Politécnica de Madrid y profesionales. La tarea experimental consistió en realizar sesiones de educción de requisitos sobre uno o más dominios de problemas (de carácter conocido y desconocido para los sujetos). Las sesiones de educción se realizaron empleando la entrevista abierta. Finalizada la entrevista, los sujetos reportaron por escrito toda la información adquirida. Resultados: Para dominios desconocidos, la experiencia (entrevistas, requisitos, desarrollo y profesional) del analista no influye en su efectividad. En dominios conocidos, la experiencia en entrevistas (r = 0.34, p-valor = 0.080) y la experiencia en requisitos (r = 0.22, p-valor = 0.279), ejercen un efecto positivo. Esto es, los analistas con más años de experiencia en entrevistas y/o requisitos tienden a alcanzar mejores efectividades. Por el contrario, la experiencia en desarrollo (r = -0.06, p-valor = 0.765) y la experiencia profesional (r = -0.35, p-valor = 0.077), tienden a ejercer un efecto nulo y negativo, respectivamente. En lo que respecta al conocimiento acerca del dominio del problema que poseen los analistas, ejerce un moderado efecto positivo (r=0.31), estadísticamente significativo (p-valor = 0.029) en la efectividad de la actividad de educción. Esto es, los analistas con conocimiento tienden a ser más efectivos en los dominios de problema conocidos. En lo que respecta a la titulación académica, por falta de diversidad en las titulaciones académicas de los sujetos experimentales no es posible alcanzar una conclusión. Hemos podido explorar el efecto de la titulación académica en sólo dos cuasi-experimentos, sin embargo, nuestros resultados arrojan efectos contradictorios (r = 0.694, p-valor = 0.51 y r = -0.266, p-valor = 0.383). Además de las variables estudiadas indicadas anteriormente, hemos confirmado la existencia de variables moderadoras que afectan a la actividad de educción, tales como el entrevistado o la formación. Nuestros datos experimentales confirman que el entrevistado es un factor clave en la actividad de educción. Estadísticamente ejerce una influencia significativa en la efectividad de los analistas (p-valor= 0.000). La diferencia entre entrevistar a uno u otro entrevistado, en unidades naturales, varía entre un 18% - 23% en efectividad. Por otro lado, la formación en requisitos aumenta considerablemente la efectividad de los analistas. Los sujetos que realizaron la educción de requisitos después de recibir una formación específica en requisitos tienden a ser entre un 12% y 20% más efectivos que aquellos que no la recibieron. El efecto es significativo (p-valor = 0.000). Finalmente, hemos observado tres hechos que podrían influir en los resultados de esta investigación. En primer lugar, la efectividad de los analistas es diferencial dependiendo del tipo de elemento del dominio. En dominios conocidos, los analistas con experiencia tienden a adquirir más conceptos que los analistas noveles. En los dominios desconocidos, son los procesos los que se adquieren de forma prominente. En segundo lugar, los analistas llegan a una especie de “techo de cristal” que no les permite adquirir más información. Es decir, el analista sólo reconoce (parte de) los elementos del dominio del problema mencionado. Este hecho se observa tanto en el dominio de problema desconocido como en el conocido, y parece estar relacionado con el modo en que los analistas exploran el dominio del problema. En tercer lugar, aunque los años de experiencia no parecen predecir cuán efectivo será un analista, sí parecen asegurar que un analista con cierta experiencia, en general, tendrá una efectividad mínima que será superior a la efectividad mínima de los analistas con menos experiencia. Conclusiones: Los resultados obtenidos muestran que en dominios desconocidos, la experiencia por sí misma no determina la efectividad de los analistas de requisitos. En dominios conocidos, la efectividad de los analistas se ve influenciada por su experiencia en entrevistas y requisitos, aunque sólo parcialmente. Otras variables influyen en la efectividad de los analistas, como podrían ser las habilidades débiles. El conocimiento del dominio del problema por parte del analista ejerce un efecto positivo en la efectividad de los analistas, e interacciona positivamente con la experiencia incrementando aún más la efectividad de los analistas. Si bien no fue posible obtener conclusiones sólidas respecto al efecto de la titulación académica, si parece claro que la formación específica en requisitos ejerce una importante influencia positiva en la efectividad de los analistas. Finalmente, el analista no es el único factor relevante en la actividad de educción. Los clientes/usuarios (entrevistados) también juegan un rol importante en el proceso de generación de información. ABSTRACT Context: This PhD dissertation addresses requirements elicitation activity. Requirements elicitation is generally acknowledged as one of the most important activities of the requirements process, having a direct impact in the software quality. It is an activity where the communication among stakeholders (analysts, customers, users) is paramount. The analyst’s ability to effectively understand customers/users’ needs represents a critical factor for the success of software development. The literature has focused on studying and comprehending a specific set of personal skills that the analyst must have to perform requirements elicitation effectively. However, few studies have explored those skills from an empirical viewpoint. Goal: This research aims to study the effects of experience, domain knowledge and academic qualifications on the analysts’ effectiveness when performing requirements elicitation, during the first stages of analyst-customer interaction. Research method: We have conducted eight empirical studies, quasi-experiments (four) and controlled experiments (four). 110 experimental subjects participated, including: graduate students with the Escuela Técnica Superior de Ingenieros Informáticos of the Universidad Politécnica de Madrid, as well as researchers and professionals. The experimental tasks consisted in elicitation sessions about one or several problem domains (ignorant and/or aware for the subjects). Elicitation sessions were conducted using unstructured interviews. After each interview, the subjects reported in written all collected information. Results: In ignorant domains, the analyst’s experience (interviews, requirements, development and professional) does not influence her effectiveness. In aware domains, interviewing experience (r = 0.34, p-value = 0.080) and requirements experience (r = 0.22, p-value = 0.279), make a positive effect, i.e.: the analysts with more years of interviewing/requirements experience tend to achieve higher effectiveness. On the other hand, development experience (r = -0.06, p-value = 0.765) and professional experience (r = -0.35, p-value = 0.077) tend to make a null and negative effect, respectively. On what regards the analyst’s problem domain knowledge, it makes a modest positive effect (r=0.31), statistically significant (p-value = 0.029) on the effectiveness of the elicitation activity, i.e.: the analysts with tend to be more effective in problem domains they are aware of. On what regards academic qualification, due to the lack of diversity in the subjects’ academic degrees, we cannot come to a conclusion. We have been able to explore the effect of academic qualifications in two experiments; however, our results show opposed effects (r = 0.694, p-value = 0.51 y r = -0.266, p-value = 0.383). Besides the variables mentioned above, we have confirmed the existence of moderator variables influencing the elicitation activity, such as the interviewee and the training. Our data confirm that the interviewee is a key factor in the elicitation activity; it makes statistically significant effect on analysts’ effectiveness (p-value = 0.000). Interviewing one or another interviewee represents a difference in effectiveness of 18% - 23%, in natural units. On the other hand, requirements training increases to a large extent the analysts’ effectiveness. Those subjects who performed requirements elicitation after specific training tend to be 12% - 20% more effective than those who did not receive training. The effect is statistically significant (p-value = 0.000). Finally, we have observed three phenomena that could have an influence on the results of this research. First, the analysts’ effectiveness differs depending on domain element types. In aware domains, experienced analysts tend to capture more concepts than novices. In ignorant domains, processes are identified more frequently. Second, analysts get to a “glass ceiling” that prevents them to acquire more information, i.e.: analysts only identify (part of) the elements of the problem domain. This fact can be observed in both the ignorant and aware domains. Third, experience years do not look like a good predictor of how effective an analyst will be; however, they seem to guarantee that an analyst with some experience years will have a higher minimum effectiveness than the minimum effectiveness of analysts with fewer experience years. Conclusions: Our results point out that experience alone does not explain analysts’ effectiveness in ignorant domains. In aware domains, analysts’ effectiveness is influenced the experience in interviews and requirements, albeit partially. Other variables influence analysts’ effectiveness, e.g.: soft skills. The analysts’ problem domain knowledge makes a positive effect in analysts’ effectiveness; it positively interacts with the experience, increasing even further analysts’ effectiveness. Although we could not obtain solid conclusions on the effect of the academic qualifications, it is plain clear that specific requirements training makes a rather positive effect on analysts’ effectiveness. Finally, the analyst is not the only relevant factor in the elicitation activity. The customers/users (interviewees) play also an important role in the information generation process.
Resumo:
El movimiento 15M se caracterizaba, entre otras cosas, por una fuerte crítica a los partidos políticos y el sistema actual de representación política. Sin embargo, el ciclo de movilización ha derivado en un proceso de institucionalización creciente y complejo en el que los activistas del movimiento han participado de manera relativamente visible y continuada en el surgimiento y el desarrollo de nuevos partidos (Partido X, Ganemos y Podemos). Este artículo analiza el papel desempeñado por las nuevas tecnologías en este proceso bajo la hipótesis de que la apropiación de herramientas digitales diseñadas para deliberar, interaccionar o generar formas diversas de participación política en los nuevos partidos reproduce valores y prácticas esenciales del movimiento, allanando con ello el camino para una identificación entre los activistas y los partidos. La mediación tecnológica ha modulado el paso del movimiento al partido al generar un entorno de deliberación horizontal, participación distribuida y estructura descentralizada que reduce las diferencias visibles entre ambos. El desarrollo de las herramientas digitales se ha visto acompañado a su vez de un cambio en los marcos de interpretación de los movimientos sociales con respecto a la tecnología como factor político. De esta forma, las nociones de representación o participación clásicas quedan redibujadas permitiendo una transición suave entre las plazas y los parlamentos. El artículo rastrea la construcción de marcos tecnófilos que, influidos por la presencia del software libre y el código abierto, ayudan a entender la organización de los nuevos partidos-movimiento y la transición entre las diversas formas de acción colectiva. Igualmente, se perfilan y describen algunas de estas herramientas y las funciones que han cumplido de cara a forjar unos modelos de organización originales en estos partidos-movimiento.
Resumo:
Este trabajo presenta el desarrollo de una aplicación destinada al análisis de secuencias de imágenes para la detección de movimiento en la escena. Se trata de un campo importante de la Visión Artificial, con múltiples aplicaciones entre las que se encuentra la videovigilancia con fines de seguridad, el control de tráfico, el movimiento de personas o el seguimiento y localización de objetos entre otras muchas. Para ello se utilizan métodos de análisis como son el de Lucas-Kanade y Gauss-Seidel, que obtienen el denominado flujo óptico. Este describe el movimiento que ha tenido lugar entre las imágenes y su fundamento estriba en la determinación de las variables espaciales y temporales en las imágenes, siendo precisamente la variable temporal la que introduce el concepto fundamental para el análisis del movimiento a partir de las imágenes captadas en diferentes instantes de tiempo dentro de la secuencia analizada. Para el desarrollo de la aplicación se han utilizado técnicas propias del tratamiento de la Visión Artificial, así como la metodología proporcionada por la Ingeniería del Software. Así, se ha realizado una especificación de requisitos, se ha elaborado y seguido un plan de proyecto y se ha realizado un análisis de alto nivel, que se materializa en el correspondiente diseño e implementación, junto con las pruebas de verificación y validación, obviamente adaptados en todos los casos a las dimensiones del proyecto, pero que establecen claramente los planteamientos básicos para el desarrollo de una aplicación a nivel empresarial. La aplicación planteada se enmarca perfectamente dentro del paradigma, hoy en día en pleno auge, conocido como el Internet de las Cosas (IoT). El IoT permite la intercomunicación entre dispositivos remotos, de forma que mediante la correspondiente comunicación a través de conexiones a Internet es posible obtener datos remotos para su posterior análisis, bien en nodos locales o en la nube, como concepto íntimamente relacionado con el IoT. Este es el caso de la aplicación que se presenta, de suerte que los métodos de procesamiento de las imágenes pueden aplicarse localmente o bien transmitir las mismas para su procesamiento en nodos remotos.
Resumo:
Comunicación presentada en las VII Jornadas de Ingeniería del Software y Bases de Datos (JISBD 2002), dentro del II Taller sobre Ingeniería del Software Orientada al Web (Web Engineering) WebE'2002, El Escorial, Madrid, 19 noviembre 2002.
Resumo:
Comunicación presentada en las VIII Jornadas de Ingeniería del Software y Bases de Datos, JISBD 2003, Alicante, 12-14 noviembre 2003.
Resumo:
El éxito en la búsqueda de conocimiento a partir de grandes cantidades de datos radica en la calidad de los mismos. Hasta ahora los aspectos de calidad de los datos se han enfocado principalmente a la limpieza de los datos: detección de duplicados, valores atípicos, perdidos, incompletos o conflictos en instancias, entre otros. En este trabajo se presenta un caso de estudio que nos ha permitido determinar ciertos aspectos de calidad que pueden mejorar la expectativa de éxito en el análisis evitando resultados erróneos, incorrectos o poco fiables. Este es un primer paso hacia la consideración de manera sistemática y estructurada de criterios de calidad específicos para minería de datos que ayude al minero de datos en sus objetivos.
Resumo:
Comunicación presentada en las XVI Jornadas de Ingeniería del Software y Bases de Datos, JISBD 2011, A Coruña, 5-7 septiembre 2011.
Resumo:
Los sistemas de búsqueda de respuestas (BR) se pueden considerar como potenciales sucesores de los buscadores tradicionales de información en la Web. Para que sean precisos deben adaptarse a dominios concretos mediante el uso de recursos semánticos adecuados. La adaptación no es una tarea trivial, ya que deben integrarse e incorporarse a sistemas de BR existentes varios recursos heterogéneos relacionados con un dominio restringido. Se presenta la herramienta Maraqa, cuya novedad radica en el uso de técnicas de ingeniería del software, como el desarrollo dirigido por modelos, para automatizar dicho proceso de adaptación a dominios restringidos. Se ha evaluado Maraqa mediante una serie de experimentos (sobre el dominio agrícola) que demuestran su viabilidad, mejorando en un 29,5% la precisión del sistema adaptado.
Resumo:
En los últimos años se han difundido, en la región productora de granos de la Provincia de Córdoba, la utilización de tecnologías de agricultura de precisión (monitores de rendimiento, GPS, sensores geofísicos) que permiten medir y en consecuencia, manejar diferenciadamente la variabilidad espacial intralote, tanto de los rendimientos como de propiedades del sitio (suelo, terreno, nutrientes). Los mapas de rendimiento y de suelo a escala de lote (intralote) proveen indicadores de riesgos asociados con la producción y constituyen herramientas claves para implementar el manejo sitio-específico en agricultura de precisión. Estos mapas deben ser realizados desde los datos que producen las nuevas maquinarias. La identificación de zonas homogéneas, surge como una necesidad para el manejo de la variabilidad espacial del rendimiento; éstas se interpretan como conjuntos de sitios con una misma combinación de factores limitantes de la producción y por tanto con una misma demanda para maximizar la producción. La delimitación de zonas homogéneas se realiza utilizando los datos georreferenciados de rendimiento y/o de sitio, pero el óptimo uso de la información espacial disponible, demanda nuevos desarrollos estadístico-computacionales. Las dependencias espaciales de los rendimientos y de las propiedades del sitio son actualmente abordadas con modelos geoestadísticos clásicos, con métodos multivariados y con modelos estadísticos contemporáneos como los modelos mixtos de covarianza espacial. Cuando los datos de suelo se obtienen por sitio en varios años, la zonificación podría depender también de la variabilidad temporal de las mediciones. La variabilidad temporal en las propiedades de sitio impacta en las zonificaciones y consecuentemente en las predicciones de rendimientos. Nuestro grupo de investigación en Estadística y Biometría de la Facultad de Ciencias Agropecuarias, Universidad Nacional de Córdoba, ha desarrollado algoritmos computacionales para el análisis de la variabilidad espacial de los rendimientos intralote, contemplando simultáneamente la correlación espacial y la variabilidad temporal. A través del software de desarrollo nacional InfoStat y su interfase con el software R, se han implementado diversas técnicas para el análisis exploratorio de datos georeferenciados y el análisis de la variabilidad espacial así como para la delimitación de zonas homogéneas y funciones para la predicción del rendimiento utilizando variables regionalizadas de sitio como predictoras. InfoStat es utilizado en ámbitos estatales y privados (INTA, Universidades, Semilleros y Empresas de gestión de la producción agrícola). Numerosos grupos de técnicos, docentes y/o investigadores demandan capacitación y asesoramiento en el uso de nuevas aplicaciones y análisis que se pueden realizar con este software. La posibilidad de publicar nueva documentación para apoyar el análisis estadístico de información proveniente de lotes en producción de cultivos de grano es importante para la región central y sur de la Provincia de Córdoba, donde están ya instaladas las capacidades para captura intensiva de datos desde nuevas maquinarias precisas. El objetivo de la presente propuesta es difundir, a través de la edición de un libro, con ejemplos ilustrativos del paso a paso del análisis estadístico para el estudio de variabilidad espacial del rendimiento intralote.
Resumo:
El objeto de estudio de este proyecto son los sistemas de calentamiento de agua mediante energía solar que funcionan termosifónicamente. En particular se tratará con dos diseños particulares generados por fabricantes de la Provincia de Córdoba y que han solicitado el asesoramiento del Grupo de Energía Solar (GES) para el mejoramiento de la performance térmica de dichos equipos. Se trata de dos sistemas que tienen materiales no tradicionales y se diferencian además por tener una distinta disposición del tanque de almacenamiento: uno es en forma vertical y el otro en forma horizontal. Basados en los resultados de un ensayo bajo norma internacional, donde se detectaron algunas puntos factibles de mejora, se propone en este proyecto el análisis en detalle de los equipos, para lo cual se les debe desarmar completos, para realizar un estudio analítico y experimental de los mismos con el objeto de hacer un planteo teórico-analítico del comportamiento de los mismos, con la implementación de propuestas de mejora y chequeo de los resultados. Se propone entonces como objetivo lograr un mejoramiento de la performance térmica de los citados equipos a partir de un estudio experimental y analítico. Asumiendo esta posibilidad de mejora, se plantea la hipótesis de que es posible representar el funcionamiento de estos equipos mediante modelos físico-matemáticos desarrollados a partir de ecuaciones y correlaciones conocidas y procesos a interpretar mediante resoluciones numéricas y softwares específicos de simulación. De esta manera, se plantea el despieze completo de los equipos para estudiar en detalle su estructura y conexiones internas y a partir de la geometría, dimensiones y propiedades termofísicas de materiales constructivos y fluidos de trabajo, realizar modelos físico-matemáticos que permitan realizar variaciones de propiedades y geometría y así buscar las mejores combinaciones que produzcan equipos más eficientes térmicamente. Los modelos físico-matemáticos serán codificados en lenguajes de alto nivel para poder luego de una validación de los modelos, correr simulaciones en un software de reconocimiento internacional que permite sumar dichos modelos mediante un protocolo de comunicación, haciendo que las poderosas prestaciones del software se puedan aplicar a nuestros modelos. Se complementará el estudio con un análisis exergético para identificar los puntos críticos en que se producen las pérdidas de oportunidad de aprovechar la energía disponible, para así analizar cómo solucionar los problemas en dichos puntos. Los materiales a utilizar serán los propios equipos provistos por los fabricantes, que serán modificados convenientemente para operarlos como prototipos Se espera obtener un conocimiento acabado de los procesos y principios de funcionamiento de los equipos, que permita plantear las mejoras, las cuales se implementarán en los prototipos, realizándose una medición mediante norma igual a la inicial para ver en que magnitud se logran las mejoras esperadas. Se pretende además que las mejoras a implementar, en la etapa de transferencia a las empresas involucradas, redunden no sólo en un beneficio técnico, sino que también los sea desde el punto de vista económico. Para ello se trabajará también sobre los procesos y métodos de fabricación para que los equipos mejorados no sean mas caros que los originales y de ser posible sean aún más económicos, todo esto apuntando a la difusión de la energía solar térmica y poner al alcance de todos estos equipos tan convenientes para la propagación de las energías limpias. El proyecto redundará también en un importante beneficio para el conocimiento de la comunidad científica en general, con el aporte de nuevos resultados en diseños novedosos y con nuevos materiales. Además, la institución se beneficiará con la formación que obtendrán los integrantes del proyecto, muchos de ellos en etapa de realización de sus estudios de posgrado y en una etapa importante de su vida como investigadores.
Resumo:
L'elaborato raccoglie le attività necessarie alla generazione di una ortofoto e di un Digital Surface Model a partire da una coppia di fotogrammi. L'area di interesse è la base italiana in Antartide Mario Zucchelli situata in prossimità della baia di Terranova. Dopo una prima parte in cui vengono descritti gli aspetti teorici della fotogrammetria, quali acquisizione delle immagini, orientamento interno ed esterno, stereo-restituzione e generazione dei prodotti finali si descrivono i procedimenti pratici per la generazione di una ortofoto, quindi una fotografia aerea che ha subito un processo di correzione geometrica e radiometrica e che può quindi essere utilizzata per dedurre informazioni quantitative di tipo metrico. Le operazioni svolte presso il laboratorio di Topografia sono state svolte mediante l'utilizzo del software di modellazione Agisoft Photoscan. Infine nelle conclusioni si sottolinea l'importanza della fotogrammetria come archivio storico e come unico strumento di indagine su fenomeni antropologici e naturali di lunga durata, non indagabili in altri modi.
Resumo:
Il presente elaborato propone un’analisi in regime dinamico mediante il software di simulazione TRNSYS di un impianto solare termico per la produzione di acqua calda sanitaria istallato in un condominio a Bologna. Le simulazioni rappresentano una particolare tipologia di esperimento numerico e possono fornire lo stesso tipo di informazioni sulle performance termiche dei comuni esperimenti fisici. Esse possono valutare gli effetti delle variabili di progetto sulle performance del sistema attraverso una serie di esperimenti, eseguiti tutti in identiche condizioni metereologiche e di carico. Le variabili di progetto esaminate in questo documento mediante simulazione sono l’inclinazione e orientamento del collettore, la superficie captante totale istallata, il volume di accumulo e la portata massima del circuito solare. Le analisi esposte sono un esempio dei risultati che un approccio simulativo può garantire; nel nostro caso, in particolare, le simulazioni hanno confermato la bontà dei criteri di dimensionamento degli impianti solari termici che è possibile incontrare in letteratura. Il presente elaborato si propone inoltre di discutere i benefici, ambientali ed economici, legati all’investimento proposto. L’analisi economica, in particolare, è stata eseguita a seconda dell’impianto tradizionale da affiancare, del diverso costo dell’impianto, di differenti valori di superficie captante e considerando o meno gli incentivi fiscali offerti: per questa valutazione è stato nuovamente necessario l’ausilio del software di simulazione.
Resumo:
Gli interventi di riqualificazione energetica di un edificio risultano necessari per rispondere alle leggi europee e nazionali che impongono misure sempre più stringenti per limitare le dispersioni termiche degli edifici e per ridurre i consumi energetici. L’utilizzo del software Edilclima ha permesso lo studio e l’analisi delle condizioni pre e post-interventi dell’edificio scolastico G. Marconi sito in Castelfranco Emilia (MO). Per mezzo del modello creato nel software, sono state determinate le dispersioni termiche dell’edificio, sulla base delle quali è stato possibile definire alcuni interventi di efficientamento energetico. Gli interventi considerati sono stati: isolamento delle pareti perimetrali verso l’esterno e verso il terreno, isolamento del sottotetto, sostituzione degli infissi. Gli interventi sono necessari per ottenere un edificio che presenti caratteristiche conformi alle leggi; hanno lo scopo di ridurre l’indice di Prestazione Energetica e i costi per il riscaldamento dell’edificio. Gli indici su cui si è valutata la convenienza degli interventi sono stati: il risparmio in termini di costo annuo per il riscaldamento e il tempo di ritorno dell’investimento (payback time). Sono stati presi in considerazione i casi di interventi singoli e di interventi combinati, il confronto tra essi, in questo caso, definisce gli interventi combinati come maggiormente convenienti rispetto ai parametri presi in considerazione per la valutazione della convenienza. Le valutazioni, inoltre, sono state effettuate in due diversi condizioni: impianto con accensione continua (sul modello delle valutazioni per la Certificazione Energetica) e impianto con accensione intermittente (sul modello delle valutazioni per la Diagnosi energetica). Le due condizioni di prova hanno messo in luce l’importanza della valutazione con impianto intermittente poiché questa rappresenta una condizione più realistica e fornisce una stima più attendibile della convenienza degli interventi.
Resumo:
Web-based distributed modelling architectures are gaining increasing recognition as potentially useful tools to build holistic environmental models, combining individual components in complex workflows. However, existing web-based modelling frameworks currently offer no support for managing uncertainty. On the other hand, the rich array of modelling frameworks and simulation tools which support uncertainty propagation in complex and chained models typically lack the benefits of web based solutions such as ready publication, discoverability and easy access. In this article we describe the developments within the UncertWeb project which are designed to provide uncertainty support in the context of the proposed ‘Model Web’. We give an overview of uncertainty in modelling, review uncertainty management in existing modelling frameworks and consider the semantic and interoperability issues raised by integrated modelling. We describe the scope and architecture required to support uncertainty management as developed in UncertWeb. This includes tools which support elicitation, aggregation/disaggregation, visualisation and uncertainty/sensitivity analysis. We conclude by highlighting areas that require further research and development in UncertWeb, such as model calibration and inference within complex environmental models.
Resumo:
Georgi Tuparov - In the paper basic problems related to implementation of topic “Development and publishing of web pages” are discussed. The topic is part of 8-th grade syllabus in IT for Bulgarian schools. A framework for comparison of software tools for implementation of learning objectives and outcomes is performed. The learning content and several groups of software tools are analysed, according to proposed comparison framework.