994 resultados para Collaborative Software


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les sociétés modernes dépendent de plus en plus sur les systèmes informatiques et ainsi, il y a de plus en plus de pression sur les équipes de développement pour produire des logiciels de bonne qualité. Plusieurs compagnies utilisent des modèles de qualité, des suites de programmes qui analysent et évaluent la qualité d'autres programmes, mais la construction de modèles de qualité est difficile parce qu'il existe plusieurs questions qui n'ont pas été répondues dans la littérature. Nous avons étudié les pratiques de modélisation de la qualité auprès d'une grande entreprise et avons identifié les trois dimensions où une recherche additionnelle est désirable : Le support de la subjectivité de la qualité, les techniques pour faire le suivi de la qualité lors de l'évolution des logiciels, et la composition de la qualité entre différents niveaux d'abstraction. Concernant la subjectivité, nous avons proposé l'utilisation de modèles bayésiens parce qu'ils sont capables de traiter des données ambiguës. Nous avons appliqué nos modèles au problème de la détection des défauts de conception. Dans une étude de deux logiciels libres, nous avons trouvé que notre approche est supérieure aux techniques décrites dans l'état de l'art, qui sont basées sur des règles. Pour supporter l'évolution des logiciels, nous avons considéré que les scores produits par un modèle de qualité sont des signaux qui peuvent être analysés en utilisant des techniques d'exploration de données pour identifier des patrons d'évolution de la qualité. Nous avons étudié comment les défauts de conception apparaissent et disparaissent des logiciels. Un logiciel est typiquement conçu comme une hiérarchie de composants, mais les modèles de qualité ne tiennent pas compte de cette organisation. Dans la dernière partie de la dissertation, nous présentons un modèle de qualité à deux niveaux. Ces modèles ont trois parties: un modèle au niveau du composant, un modèle qui évalue l'importance de chacun des composants, et un autre qui évalue la qualité d'un composé en combinant la qualité de ses composants. L'approche a été testée sur la prédiction de classes à fort changement à partir de la qualité des méthodes. Nous avons trouvé que nos modèles à deux niveaux permettent une meilleure identification des classes à fort changement. Pour terminer, nous avons appliqué nos modèles à deux niveaux pour l'évaluation de la navigabilité des sites web à partir de la qualité des pages. Nos modèles étaient capables de distinguer entre des sites de très bonne qualité et des sites choisis aléatoirement. Au cours de la dissertation, nous présentons non seulement des problèmes théoriques et leurs solutions, mais nous avons également mené des expériences pour démontrer les avantages et les limitations de nos solutions. Nos résultats indiquent qu'on peut espérer améliorer l'état de l'art dans les trois dimensions présentées. En particulier, notre travail sur la composition de la qualité et la modélisation de l'importance est le premier à cibler ce problème. Nous croyons que nos modèles à deux niveaux sont un point de départ intéressant pour des travaux de recherche plus approfondis.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les logiciels sont en constante évolution, nécessitant une maintenance et un développement continus. Ils subissent des changements tout au long de leur vie, que ce soit pendant l'ajout de nouvelles fonctionnalités ou la correction de bogues dans le code. Lorsque ces logiciels évoluent, leurs architectures ont tendance à se dégrader avec le temps et deviennent moins adaptables aux nouvelles spécifications des utilisateurs. Elles deviennent plus complexes et plus difficiles à maintenir. Dans certains cas, les développeurs préfèrent refaire la conception de ces architectures à partir du zéro plutôt que de prolonger la durée de leurs vies, ce qui engendre une augmentation importante des coûts de développement et de maintenance. Par conséquent, les développeurs doivent comprendre les facteurs qui conduisent à la dégradation des architectures, pour prendre des mesures proactives qui facilitent les futurs changements et ralentissent leur dégradation. La dégradation des architectures se produit lorsque des développeurs qui ne comprennent pas la conception originale du logiciel apportent des changements au logiciel. D'une part, faire des changements sans comprendre leurs impacts peut conduire à l'introduction de bogues et à la retraite prématurée du logiciel. D'autre part, les développeurs qui manquent de connaissances et–ou d'expérience dans la résolution d'un problème de conception peuvent introduire des défauts de conception. Ces défauts ont pour conséquence de rendre les logiciels plus difficiles à maintenir et évoluer. Par conséquent, les développeurs ont besoin de mécanismes pour comprendre l'impact d'un changement sur le reste du logiciel et d'outils pour détecter les défauts de conception afin de les corriger. Dans le cadre de cette thèse, nous proposons trois principales contributions. La première contribution concerne l'évaluation de la dégradation des architectures logicielles. Cette évaluation consiste à utiliser une technique d’appariement de diagrammes, tels que les diagrammes de classes, pour identifier les changements structurels entre plusieurs versions d'une architecture logicielle. Cette étape nécessite l'identification des renommages de classes. Par conséquent, la première étape de notre approche consiste à identifier les renommages de classes durant l'évolution de l'architecture logicielle. Ensuite, la deuxième étape consiste à faire l'appariement de plusieurs versions d'une architecture pour identifier ses parties stables et celles qui sont en dégradation. Nous proposons des algorithmes de bit-vecteur et de clustering pour analyser la correspondance entre plusieurs versions d'une architecture. La troisième étape consiste à mesurer la dégradation de l'architecture durant l'évolution du logiciel. Nous proposons un ensemble de m´etriques sur les parties stables du logiciel, pour évaluer cette dégradation. La deuxième contribution est liée à l'analyse de l'impact des changements dans un logiciel. Dans ce contexte, nous présentons une nouvelle métaphore inspirée de la séismologie pour identifier l'impact des changements. Notre approche considère un changement à une classe comme un tremblement de terre qui se propage dans le logiciel à travers une longue chaîne de classes intermédiaires. Notre approche combine l'analyse de dépendances structurelles des classes et l'analyse de leur historique (les relations de co-changement) afin de mesurer l'ampleur de la propagation du changement dans le logiciel, i.e., comment un changement se propage à partir de la classe modifiée è d'autres classes du logiciel. La troisième contribution concerne la détection des défauts de conception. Nous proposons une métaphore inspirée du système immunitaire naturel. Comme toute créature vivante, la conception de systèmes est exposée aux maladies, qui sont des défauts de conception. Les approches de détection sont des mécanismes de défense pour les conception des systèmes. Un système immunitaire naturel peut détecter des pathogènes similaires avec une bonne précision. Cette bonne précision a inspiré une famille d'algorithmes de classification, appelés systèmes immunitaires artificiels (AIS), que nous utilisions pour détecter les défauts de conception. Les différentes contributions ont été évaluées sur des logiciels libres orientés objets et les résultats obtenus nous permettent de formuler les conclusions suivantes: • Les métriques Tunnel Triplets Metric (TTM) et Common Triplets Metric (CTM), fournissent aux développeurs de bons indices sur la dégradation de l'architecture. La d´ecroissance de TTM indique que la conception originale de l'architecture s’est dégradée. La stabilité de TTM indique la stabilité de la conception originale, ce qui signifie que le système est adapté aux nouvelles spécifications des utilisateurs. • La séismologie est une métaphore intéressante pour l'analyse de l'impact des changements. En effet, les changements se propagent dans les systèmes comme les tremblements de terre. L'impact d'un changement est plus important autour de la classe qui change et diminue progressivement avec la distance à cette classe. Notre approche aide les développeurs à identifier l'impact d'un changement. • Le système immunitaire est une métaphore intéressante pour la détection des défauts de conception. Les résultats des expériences ont montré que la précision et le rappel de notre approche sont comparables ou supérieurs à ceux des approches existantes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Université de Montréal implemented an interprofessional education (IPE) curriculum on collaborative practice in a large cohort of students (>1,100) from 10 health sciences and psychosocial sciences training programs. It is made up of three one-credit undergraduate courses (CSS1900, CSS2900, CSS3900) spanning the first 3 years of training. The course content and activities aim for development of the six competency domains identified by the Canadian Interprofessional Health Collaborative. This paper describes the IPE curriculum and highlights the features contributing to its success and originality. Among main success key factors were: administrative cooperation among participating faculties, educators eager to develop innovative approaches, extensive use of clinical situations conducive to knowledge and skill application, strong logistic support, close cooperation with health care delivery organizations, and partnership between clinicians and patients. A distinguishing feature of this IPE curriculum is the concept of partnership in care between the patient and caregivers. Patients’ representatives were involved in course planning, and patients were trained to become patients-as-trainers (PT) and cofacilitate interprofessional discussion workshops. They give feed- back to students regarding integration and application of the patient partnership concept from a patient’s point of view. Lire l'article/Read the article : http://openurl.ingenta.com/content?genre=article&issn=0090-7421&volume=42&issue=4&spage=97E&epage=106E

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les logiciels sont en constante évolution, nécessitant une maintenance et un développement continus. Ils subissent des changements tout au long de leur vie, que ce soit pendant l'ajout de nouvelles fonctionnalités ou la correction de bogues. Lorsque les logiciels évoluent, leurs architectures ont tendance à se dégrader et deviennent moins adaptables aux nouvelles spécifications des utilisateurs. En effet, les architectures de ces logiciels deviennent plus complexes et plus difficiles à maintenir à cause des nombreuses dépendances entre les artefacts. Par conséquent, les développeurs doivent comprendre les dépendances entre les artefacts des logiciels pour prendre des mesures proactives qui facilitent les futurs changements et ralentissent la dégradation des architectures des logiciels. D'une part, le maintien d'un logiciel sans la compréhension des les dépendances entre ses artefacts peut conduire à l'introduction de défauts. D'autre part, lorsque les développeurs manquent de connaissances sur l'impact de leurs activités de maintenance, ils peuvent introduire des défauts de conception, qui ont un impact négatif sur l'évolution du logiciel. Ainsi, les développeurs ont besoin de mécanismes pour comprendre comment le changement d'un artefact impacte le reste du logiciel. Dans cette thèse, nous proposons trois contributions principales : La spécification de deux nouveaux patrons de changement et leurs utilisations pour fournir aux développeurs des informations utiles concernant les dépendances de co-changement. La spécification de la relation entre les patrons d'évolutions des artefacts et les fautes. La découverte de la relation entre les dépendances des anti-patrons et la prédisposition des différentes composantes d'un logiciel aux fautes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les systèmes logiciels sont devenus de plus en plus répondus et importants dans notre société. Ainsi, il y a un besoin constant de logiciels de haute qualité. Pour améliorer la qualité de logiciels, l’une des techniques les plus utilisées est le refactoring qui sert à améliorer la structure d'un programme tout en préservant son comportement externe. Le refactoring promet, s'il est appliqué convenablement, à améliorer la compréhensibilité, la maintenabilité et l'extensibilité du logiciel tout en améliorant la productivité des programmeurs. En général, le refactoring pourra s’appliquer au niveau de spécification, conception ou code. Cette thèse porte sur l'automatisation de processus de recommandation de refactoring, au niveau code, s’appliquant en deux étapes principales: 1) la détection des fragments de code qui devraient être améliorés (e.g., les défauts de conception), et 2) l'identification des solutions de refactoring à appliquer. Pour la première étape, nous traduisons des régularités qui peuvent être trouvés dans des exemples de défauts de conception. Nous utilisons un algorithme génétique pour générer automatiquement des règles de détection à partir des exemples de défauts. Pour la deuxième étape, nous introduisons une approche se basant sur une recherche heuristique. Le processus consiste à trouver la séquence optimale d'opérations de refactoring permettant d'améliorer la qualité du logiciel en minimisant le nombre de défauts tout en priorisant les instances les plus critiques. De plus, nous explorons d'autres objectifs à optimiser: le nombre de changements requis pour appliquer la solution de refactoring, la préservation de la sémantique, et la consistance avec l’historique de changements. Ainsi, réduire le nombre de changements permets de garder autant que possible avec la conception initiale. La préservation de la sémantique assure que le programme restructuré est sémantiquement cohérent. De plus, nous utilisons l'historique de changement pour suggérer de nouveaux refactorings dans des contextes similaires. En outre, nous introduisons une approche multi-objective pour améliorer les attributs de qualité du logiciel (la flexibilité, la maintenabilité, etc.), fixer les « mauvaises » pratiques de conception (défauts de conception), tout en introduisant les « bonnes » pratiques de conception (patrons de conception).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le débat public en aménagement du territoire constitue un exercice paradoxal. Bien qu’il fasse nominalement référence au territoire, ce débat public aborde cet objet de façon superficielle. Ce mémoire aborde cette problématique en explorant les utilisations de la notion de territoire formulées dans le cadre d’un exercice de consultation publique sur un projet de revitalisation à Montréal, soit le Programme particulier d’urbanisme du Quartier des spectacles – Pôle du Quartier latin, est étudié. L’analyse se décline en deux étapes. Le sens accordé à la position géographique du Quartier latin et ses répercussions sur les dynamiques d’aménagement à long terme (structurales) sont s’abord explorées. Ensuite, les discours des intervenants au débat public sont analysés à l’aide d’une loupe poststructuraliste. Nos résultats démontrent qu’une majorité de participants ne considèrent pas le territoire comme construction sociale. Toutefois, les intervenants qui adoptent le point de vue contraire ont tendance à adopter une position plus critique face au projet. Ce constat remet en question les fondements de l’intervention proposée par les autorités municipales et, plus largement, interroge la prise en compte du concept de territoire en contexte de planification collaborative et post-collaborative.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les logiciels sont de plus en plus complexes et leur développement est souvent fait par des équipes dispersées et changeantes. Par ailleurs, de nos jours, la majorité des logiciels sont recyclés au lieu d’être développés à partir de zéro. La tâche de compréhension, inhérente aux tâches de maintenance, consiste à analyser plusieurs dimensions du logiciel en parallèle. La dimension temps intervient à deux niveaux dans le logiciel : il change durant son évolution et durant son exécution. Ces changements prennent un sens particulier quand ils sont analysés avec d’autres dimensions du logiciel. L’analyse de données multidimensionnelles est un problème difficile à résoudre. Cependant, certaines méthodes permettent de contourner cette difficulté. Ainsi, les approches semi-automatiques, comme la visualisation du logiciel, permettent à l’usager d’intervenir durant l’analyse pour explorer et guider la recherche d’informations. Dans une première étape de la thèse, nous appliquons des techniques de visualisation pour mieux comprendre la dynamique des logiciels pendant l’évolution et l’exécution. Les changements dans le temps sont représentés par des heat maps. Ainsi, nous utilisons la même représentation graphique pour visualiser les changements pendant l’évolution et ceux pendant l’exécution. Une autre catégorie d’approches, qui permettent de comprendre certains aspects dynamiques du logiciel, concerne l’utilisation d’heuristiques. Dans une seconde étape de la thèse, nous nous intéressons à l’identification des phases pendant l’évolution ou pendant l’exécution en utilisant la même approche. Dans ce contexte, la prémisse est qu’il existe une cohérence inhérente dans les évènements, qui permet d’isoler des sous-ensembles comme des phases. Cette hypothèse de cohérence est ensuite définie spécifiquement pour les évènements de changements de code (évolution) ou de changements d’état (exécution). L’objectif de la thèse est d’étudier l’unification de ces deux dimensions du temps que sont l’évolution et l’exécution. Ceci s’inscrit dans notre volonté de rapprocher les deux domaines de recherche qui s’intéressent à une même catégorie de problèmes, mais selon deux perspectives différentes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette recherche quantitative, de type descriptif corrélationnel, a pour objectifs, d’une part, d’identifier les différents types de collaboration école-famille, les types d’implication parentale et les styles éducatifs des parents et, d’autre part, de déterminer leurs liens avec la réussite scolaire des élèves du primaire au Burkina Faso, notamment ceux en classe de Cours Moyen deuxième année (CM2) selon leur genre et zone de résidence. Afin d’atteindre ces objectifs, nous avons adopté une approche écosystémique qui a permis d’aborder à la fois les relations entre les parents et les enfants (microsystème) et celles avec l’école (mésosystème). Ceci, dans le but de mieux cerner les dynamiques relationnelles qui se déroulent entre ces différents milieux de vie de l’enfant et de déterminer leur influence sur ses résultats scolaires. À cet effet, des questionnaires évaluant la perception des participants sur les dimensions de la recherche, à savoir la collaboration école-famille, l’implication parentale et les styles éducatifs des parents, ont été passés à 615 parents d’élèves de CM2 provenant de six régions administratives du Burkina Faso, dont deux fortement urbanisées (régions du Centre et des Hauts-Bassins) et quatre principalement rurales (régions du Sahel, de l’Est, du Plateau Central et du Centre Est). Une douzaine d’écoles publiques réparties entre ces régions ont été retenues dans le cadre de la présente recherche. Les données ainsi recueillies ont été analysées avec un logiciel de traitement statistique (Statistical Package for the Social Sciences : SPSS) qui a permis de faire à la fois des analyses descriptives et orrélationnelles (test du khi-deux). Les résultats descriptifs révèlent la présence de différents types de collaboration école-famille (information, consultation, coordination et concertation), d’implication parentale (rôles, communications, bénévolat, soutien aux apprentissages à domicile, prises de décisions et collaboration avec la communauté) et de styles éducatifs (démocratique, autoritaire, permissif et négligent). Ensuite, les résultats corrélationnels montrent que les relations école-famille ne permettent la réussite scolaire des élèves que si les parents entretiennent des relations régulières et réciproques d’information, de consultation, de coordination et de concertation avec les maîtres de leurs enfants autour de sujets relatifs au rendement scolaire, au comportement, aux activités culturelles, etc. S’agissant de l’implication parentale, il ressort que celle-ci ne favorise la réussite scolaire que si les parents s’impliquent de façon continue ou permanente dans les rôles (achats de fournitures scolaires, d’habits, etc.), les communications avec l’école (au sujet du rendement scolaire, du comportement, etc.), les activités de bénévolat (nettoyage, apport d’agrégats, etc.), les apprentissages à domicile (devoirs, leçons, etc.) et les prises de décisions (association des parents, conseil d’établissement, etc.). Pour ce qui concerne la collaboration avec la communauté à travers l’usage des ressources communautaires (centres de lecture, bibliothèques,etc.), même une faible implication à ce niveau favorise la réussite scolaire. Enfin, en ce qui a trait aux styles éducatifs des parents, les résultats indiquent que les styles démocratiques et autoritaires sont ceux qui favorisent la réussite scolaire, mais avec une légère domination du style démocratique. En conclusion, nous constatons que la collaboration école-famille, l’implication parentale et le style éducatif démocratique favorisent tous la réussite scolaire à des niveaux différents. Mêmes faibles, des relations réciproques entre l’école et la famille sont susceptibles de favoriser la réussite scolaire des élèves du primaire dans le contexte burkinabé. Par contre, pour l’implication parentale, il faut généralement des engagements continus des parents. Le style démocratique se présente comme celui qui favorise le plus la réussite scolaire. Mais les zones de résidence (rurales) ont plus d’influence sur toutes ces variables que le genre. D’où l’importance de favoriser ou de promouvoir de véritables collaborations entre l’école et la famille en vue de permettre une plus grande réussite des élèves, surtout en zones rurales. Les actions de plaidoyer ou de lobbying devraient ainsi aller dans ce sens; elles peuvent être menées à la fois par les parents à travers leurs structures associatives, les institutions ou organismes oeuvrant dans le domaine de l’éducation, et par la communauté des chercheurs.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The study was motivated by the need to understand factors that guide the software exports and competitiveness, both positively and negatively. The influence of one factor or another upon the export competitiveness is to be understood in great depth, which is necessary to find out the industry’s sustainability. India is being emulated as an example for the success strategy in software development and exports. India’s software industry is hailed as one of the globally competitive software industry in the world. The major objectives are to model the growth pattern of exports and domestic sales of software and services of India and to find out the factors influencing the growth pattern of software industry in India. The thesis compare the growth pattern of software industry of India with respect to that of Ireland and Israel and to critically of various problems faced by software industry and export in India and to model the variables of competitiveness of emerging software producing nations

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This research was undertaken with an objective of studying software development project risk, risk management, project outcomes and their inter-relationship in the Indian context. Validated instruments were used to measure risk, risk management and project outcome in software development projects undertaken in India. A second order factor model was developed for risk with five first order factors. Risk management was also identified as a second order construct with four first order factors. These structures were validated using confirmatory factor analysis. Variation in risk across categories of select organization / project characteristics was studied through a series of one way ANOVA tests. Regression model was developed for each of the risk factors by linking it to risk management factors and project /organization characteristics. Similarly regression models were developed for the project outcome measures linking them to risk factors. Integrated models linking risk factors, risk management factors and project outcome measures were tested through structural equation modeling. Quality of the software developed was seen to have a positive relationship with risk management and negative relationship with risk. The other outcome variables, namely time overrun and cost over run, had strong positive relationship with risk. Risk management did not have direct effect on overrun variables. Risk was seen to be acting as an intervening variable between risk management and overrun variables.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The goal of this work was developing a query processing system using software agents. Open Agent Architecture framework is used for system development. The system supports queries in both Hindi and Malayalam; two prominent regional languages of India. Natural language processing techniques are used for meaning extraction from the plain query and information from database is given back to the user in his native language. The system architecture is designed in a structured way that it can be adapted to other regional languages of India. . This system can be effectively used in application areas like e-governance, agriculture, rural health, education, national resource planning, disaster management, information kiosks etc where people from all walks of life are involved.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In this study the relationship between Innovative HR practices and selected HR outcomes is investigated.The current study represents a unique attempt to study the effects of innovative HR practices,with job satisfaction,organisational commitment and organisational citizenship bahaviour considered as the consequent variables.Results have affirmed the role of intervening variables such as job satisfaction and organisational commitment in establishing the link between IHRP and OCB obliterating any direct relation between IHRP and organisational citizenship behaviour.This finding may enable researchers in the human resource management to develop more robust understandings of the positive effects of innnovative HR practices on HR outcomes.Thus the present study provides the obvious contribution of weaving up yet another linkage between the two complimentary disciplines of Human Resource Management and Organisational Behaviour.The present study also contributes to the understanding of OCB by exploring its antecedents and extending the intervening role of job satisfaction and organisational commitment.The findings indicate that a higher level of introduction/initiation and satisfaction of innovative HR practices produces high job satisfaction and organisational commitment which lead to OCB.The researcher drew upon the perception-attitude-behaviour model to further realise the expected relationship among innovative HR practices,job satisfaction,organisational commitment and organisational citizenship behaviour.Consequently,this study makes a contribution to the broader organisational citizenship behaviour literature by manifesting the extended relationship path from innovative HR practices to organisational citizenship behaviour,and demonstrating that innovative Hr practices at the organisational level has an effect on employee attitudes and behaviours as well.