999 resultados para Mesure du logiciel
Resumo:
De nos jours, les logiciels doivent continuellement évoluer et intégrer toujours plus de fonctionnalités pour ne pas devenir obsolètes. C'est pourquoi, la maintenance représente plus de 60% du coût d'un logiciel. Pour réduire les coûts de programmation, les fonctionnalités sont programmées plus rapidement, ce qui induit inévitablement une baisse de qualité. Comprendre l’évolution du logiciel est donc devenu nécessaire pour garantir un bon niveau de qualité et retarder le dépérissement du code. En analysant à la fois les données sur l’évolution du code contenues dans un système de gestion de versions et les données quantitatives que nous pouvons déduire du code, nous sommes en mesure de mieux comprendre l'évolution du logiciel. Cependant, la quantité de données générées par une telle analyse est trop importante pour être étudiées manuellement et les méthodes d’analyses automatiques sont peu précises. Dans ce mémoire, nous proposons d'analyser ces données avec une méthode semi automatique : la visualisation. Eyes Of Darwin, notre système de visualisation en 3D, utilise une métaphore avec des quartiers et des bâtiments d'une ville pour visualiser toute l'évolution du logiciel sur une seule vue. De plus, il intègre un système de réduction de l'occlusion qui transforme l'écran de l'utilisateur en une fenêtre ouverte sur la scène en 3D qu'il affiche. Pour finir, ce mémoire présente une étude exploratoire qui valide notre approche.
Resumo:
La situation du marché de l'emploi a subi ces dernières années, des changements de structure en profondeur. Le résultat est qu'au Québec, le taux réel d'inactivité révèle que près d'un adulte sur quatre est sans emploi. Parmi les personnes les plus touchées par ces changements on retrouve celles qui sont sans formation spécifique, sans diplôme ou bien sans expérience de travail. Pour rendre apte au travail cette mam d'oeuvre inactive, le Ministère de l'éducation a mis sur pied au milieu des années 90, une mesure d'aide à l'insertion appelée Services d'Intégration Socioprofessionnelle ou S.I.S. Dans le présent essai, nous avons cherché à évaluer le développement de l'employabilité de participants aux S.I.S. Selon les objectifs visés par le Service, on suppose que chaque personne aura acquis certaines attitudes et aptitudes au travail, susceptible de l'aider à retrouver du travail et de le conserver. Nous avons utilisé la structure de recherche test-retest sur le même échantillon. En effet, chaque participant s'est vu administrer le même questionnaire, au début et à la fin des S.I.S. Nous avons ainsi pu suivre l'évolution des facteurs en causes dans une insertion professionnelle. À cela s'ajoutent des données recueillies dans un journal de bord par l'évaluateur/animateur. Celles-ci sont reprises pour donner un sens dans l'analyse des résultats. La mesure utilisée est le questionnaire informatisé Copilote Insertion version 2.20. Celui-ci fut administré une première fois, à seize personnes présentes en amorce des S.LS. Pour la mesure post, nous avions plus que 8 personnes toujours disponibles et respectant le devis de recherche. Pour ces sujets, nous avons comparé chacun des vingt facteurs de Copilote, ainsi que l'évolution des stratégies d'insertion. Pour chacun d'eux, nous avons pu déterminer lesquels des facteurs d'employabilité évalué par le logiciel, démontraient une progression. Il a été démontré que l'ensemble des participants s'accordait beaucoup de difficulté à surmonter l'image de dépendance et d'incapacité, intériorisé avec l'expérience du chômage. Comme quoi, cette clientèle a à faire face à un certain nombre de deuil non résolu. À ce niveau, la structure des S.I.S semble permettre ce nécessaire recadrage de l'expérience chômage. Nous avons aussi observé que la composition du groupe n'a pas été réalisée en respectant le développement de l'employabilité de chacun des participants. Par conséquent, les plus enthousiasmes ont eu à subir l'inconfort de devoir faire face aux discours démotivant des personnes non-prêtes à s'insérer en emploi. La difficulté de sélectionner des personnes dont les besoins en matière de développement de l'employabilité ne seraient pas homogènes pourrait être surmontée si des activités individuelles personnalisées, sont présentées en alternance avec le travail de groupe. Autre constat réalisé est que malgré le temps passé à l'intérieur des SIS, des participants s'accordent plus de difficultés à la fin qu'au début, pour des facteurs d'employabilités. C'est le cas des facteurs du thème Communication de Copilote. La difficulté de mettre en branle une campagne visant la mise en marché de son potentiel de travail, cela vient confirmer que le participant, bien qu'il ait réalisé un bout du trajet le séparant du monde du travail, qu'il n'est pas parvenu à destination.
Resumo:
Les aléas du développement de la temporalité chez l'enfant passent souvent inaperçus, masqués par divers troubles psychopathologiques. Le temps constitue toutefois une dimension essentielle de l'adaptation scolaire, familiale ou sociale. En première partie, cet article retrace la psychogenèse de la temporalité et plus particulièrement le développement du temps notionnel et le développement des notions cinématiques. La seconde partie est consacrée à la présentation du questionnaire temporel pour l'enfant (QTE), étalonné sur un échantillon de 153 enfants de 6 à 13 ans. Cet instrument d'évaluation du temps notionnel offre au clinicien un outil de screening permettant d'identifier les difficultés temporelles chez les enfants.
Resumo:
Objectifs : Evaluer une méthode simple et rapide de mesure du volume atrial gauche. Matériels et méthodes : Cinquante patients ont été examinés avec un CT gaté pour mesure du score calcique. Trois méthodes ont été utilisées pour calculer le volume atrial gauche : 1) une méthode orthogonale avec mesure des surfaces/diamètres dans les plans axiaux/coronaux/sagittaux, 2) une méthode biplan inspirée de l'échocardiographie et 3) une méthode volumétrique. Les mesures ont été faites par le même observateur un mois plus tard et ont été répétées par trois autres observateurs. L'axe cardiaque a aussi été mesuré. La méthode Bland-Altmann et les corrélations de Spearman ont été utilisées. Résultats : La méthode volumétrique montre les variations intra/interobservateur les plus basses avec une variabilité de 6,1/7,4 ml, respectivement. Pour les mesures avec la méthode orthogonale (surfaces/diamètres), les variations intra/interobservateur sont 12,3/13,5 ml et 14,6/11,6 ml, respectivement. Pour la méthode biplan, les variations intra/interobservateur sont plus hautes : 23,9/19,8 ml. Comparée à la méthode de référence volumétrique, la méthode orthogonale avec les surfaces est mieux corrélée (R=0,959, p<0,001) que les autres méthodes. Il y a une faible influence de l'axe du coeur sur la méthode orthogonale avec les surfaces. Conclusion : La méthode volumétrique est le gold standard en terme de variabilité. Cependant elle est longue à metttre en oeuvre. La méthode orthogonale avec les surfaces est une alternative simple, sauf chez les patients obèses avec un coeur horizontalisé.
Resumo:
Ami, ou ennemi, le soleil ? Qui n'a jamais maudit un petit excès de bain de soleil sanctionné par une peau brûlée ? Mais en hiver, quand il se fait rare, l'huile de foie de morue est la panacée que prescrit la sagesse de nos grands-mères pour remplacer la vitamine D qu'en temps normal il nous aide à synthétiser. Pour pouvoir faire le point sur les dangers et les bénéfices du rayonnement solaire, il faut connaître son intensité et en particulier celle du rayonnement ultraviolet (UV) qui a une forte influence sur la santé.Durant ces dernières décades, une forte augmentation des cancers de la peau a été constatée dans les pays développés. La communauté médicale suppose que cette augmentation est liée à une plus forte exposition aux UV, qui serait elle-même due à des changements d'habitudes de la population (engouement pour les loisirs en plein air, pour les vacances sous les tropiques, popularité du bronzage, etc.) et éventuellement à un accroissement du rayonnement UV. [Auteurs]
Resumo:
Cet ouvrage non seulement présente, de façon rigoureuse, les concepts et méthodes statistiques, mais aussi utilise des exemples concrets pour illustrer chaque concept théorique nouvellement introduit. Il présente de façon méticuleuse les notions fondamentales de la théorie des probabilités et de la statistique: bref rappel de l'histoire de la statistique, la statistique descriptive, les distributions discrètes et continues, estimation, tests d'hypothèses, l'analyse de corrélation, l'analyse de régression linéaire simple et multiple, et le modèle d'analyse de variance. Au moyen des exemples et exercices, le lecteur est guidé tout au long de la réalisation du problème. En même temps, l'apprentissage de l'utilisation de Stata se fait progressivement au fil des chapitres. La dernière partie de l'ouvrage propose une introduction à l'utilisation de Stata. Les corrections des exercices figurent à la fin de l'ouvrage, permettant au lecteur de vérifier le niveau de compréhension atteint après chaque étape.