891 resultados para Qualité du logiciel
Resumo:
De nos jours, les logiciels doivent continuellement évoluer et intégrer toujours plus de fonctionnalités pour ne pas devenir obsolètes. C'est pourquoi, la maintenance représente plus de 60% du coût d'un logiciel. Pour réduire les coûts de programmation, les fonctionnalités sont programmées plus rapidement, ce qui induit inévitablement une baisse de qualité. Comprendre l’évolution du logiciel est donc devenu nécessaire pour garantir un bon niveau de qualité et retarder le dépérissement du code. En analysant à la fois les données sur l’évolution du code contenues dans un système de gestion de versions et les données quantitatives que nous pouvons déduire du code, nous sommes en mesure de mieux comprendre l'évolution du logiciel. Cependant, la quantité de données générées par une telle analyse est trop importante pour être étudiées manuellement et les méthodes d’analyses automatiques sont peu précises. Dans ce mémoire, nous proposons d'analyser ces données avec une méthode semi automatique : la visualisation. Eyes Of Darwin, notre système de visualisation en 3D, utilise une métaphore avec des quartiers et des bâtiments d'une ville pour visualiser toute l'évolution du logiciel sur une seule vue. De plus, il intègre un système de réduction de l'occlusion qui transforme l'écran de l'utilisateur en une fenêtre ouverte sur la scène en 3D qu'il affiche. Pour finir, ce mémoire présente une étude exploratoire qui valide notre approche.
Resumo:
Le développement du logiciel actuel doit faire face de plus en plus à la complexité de programmes gigantesques, élaborés et maintenus par de grandes équipes réparties dans divers lieux. Dans ses tâches régulières, chaque intervenant peut avoir à répondre à des questions variées en tirant des informations de sources diverses. Pour améliorer le rendement global du développement, nous proposons d'intégrer dans un IDE populaire (Eclipse) notre nouvel outil de visualisation (VERSO) qui calcule, organise, affiche et permet de naviguer dans les informations de façon cohérente, efficace et intuitive, afin de bénéficier du système visuel humain dans l'exploration de données variées. Nous proposons une structuration des informations selon trois axes : (1) le contexte (qualité, contrôle de version, bogues, etc.) détermine le type des informations ; (2) le niveau de granularité (ligne de code, méthode, classe, paquetage) dérive les informations au niveau de détails adéquat ; et (3) l'évolution extrait les informations de la version du logiciel désirée. Chaque vue du logiciel correspond à une coordonnée discrète selon ces trois axes, et nous portons une attention toute particulière à la cohérence en naviguant entre des vues adjacentes seulement, et ce, afin de diminuer la charge cognitive de recherches pour répondre aux questions des utilisateurs. Deux expériences valident l'intérêt de notre approche intégrée dans des tâches représentatives. Elles permettent de croire qu'un accès à diverses informations présentées de façon graphique et cohérente devrait grandement aider le développement du logiciel contemporain.
Resumo:
Alors que la didactique du français oral a pris un essor fulgurant au Québec depuis les années 1990, les recherches actuelles n'ont que trop peu effleuré les modalités d'évaluation de la qualité du français oral des futurs enseignants. En effet, ce thème incontournable dans le cadre de la formation des futurs maîtres souffre d'une méconnaissance des diverses modalités d'évaluation de sa qualité par les formateurs universitaires. Le lien entre formation des futurs enseignants et identification de leurs besoins et de leurs difficultés est indéniable. Dans ce contexte, nous avons interrogé les qualités métrologiques de deux grilles d'observation de l'oral : Gervais, Laurier et Paret (1994) ainsi que Préfontaine, Lebrun et Nachbauer (1998). Nous les avons soumises à 10 experts-évaluateurs qui oeuvrent en formation des maîtres et qui ont un lien avec l'évaluation de la qualité du français oral des futurs enseignants.
Resumo:
Le travail de nuit est associé avec plusieurs problèmes de santé. Le désalignement entre la phase circadienne et le cycle éveil-sommeil cause une désynchronie interne considérée comme la principale source de ces problèmes. L’ajustement circadien au travail de nuit est proposé comme contremesure. Normalement, l’ajustement circadien complet n’est pas recommandé puisqu’il engendre un désalignement circadien lors du retour à l’horaire de jour, causant des changements de phase répétés et la désynchronie interne. L’ajustement circadien partiel est alors proposé comme compromis afin de stabiliser les rythmes circadiens des travailleurs de nuit. Cependant, l’ampleur de l’ajustement circadien partiel nécessaire à l’amélioration du sommeil et de la vigilance demeure vague. Les ajustements partiels obtenus par délai ou avance de phase sont quantifiés non seulement par la phase du début de la sécrétion de mélatonine en lumière tamisée, mais également par le recoupement de l’épisode de sécrétion de mélatonine avec les périodes d’éveil et de sommeil. Les effets sur le sommeil et la vigilance d’un petit ajustement circadien partiel significatifs sont investigués dans une simulation de travail de nuit en laboratoire pour déterminer leurs implications cliniques. Les effets modestes suggèrent qu’un petit délai de phase peut réduire l’accumulation de la dette de sommeil, alors que l’avance de phase améliore subjectivement la vigilance et l’humeur nocturne. L’ampleur absolue du changement de phase est associée à une amélioration subjective de la vigilance et de l’humeur nocturne. Des études en milieux de travail permettraient de déterminer si ces stratégies sont applicables et bénéfiques aux travailleurs de nuit.
Resumo:
Mode of access: Internet.
Resumo:
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Objectif : Évaluer l’impact de l’exposition d’un biofilm de Streptococcus mutans (S. mutans) pendant une période de 28 jours sur la rugosité de surface de matériaux de restauration dentaire. Matériel et méthode : Les matériaux testés étaient : six résines composites (fluide, bulk-fill fluide, microparticules, nanoparticules, microhybride et nanohybride), un verre ionomère conventionnel, un verre ionomère modifié à la résine, de l’amalgame, du disilicate de lithium et de la porcelaine feldspathique renforcie de cristaux de nanoleucite. Cent soixante-dix-sept disques de 5 mm de diamètre par 2 mm d’épaisseur ont été fabriqués et polis selon une méthode standardisée. Des répliques ont été fabriquées puis réservées pour les mesures de rugosité. Les échantillons ont été stérilisés puis placés dans un milieu de culture pendant 28 jours, avec S. mutans pour les groupes tests et sans S. mutans pour leurs contrôles. Le milieu de culture a été renouvelé toutes les 48 heures. De nouvelles répliques des échantillons ont été fabriquées. Finalement, la rugosité de la surface avant et après l’exposition au biofilm a été évaluée sur les répliques à l’aide d’un profilomètre. Les analyses statistiques ont été effectuées à l’aide d’un modèle d’analyse de variance à deux facteurs. Résultats : Aucune différence statistiquement significative n’a été notée entre la rugosité initiale et finale des groupes tests et des groupes contrôles (p < 0,05). Conclusion : Dans les limites de cette étude in vitro, l’exposition à un biofilm de S. mutans pendant 28 jours n’a pas démontré avoir d’impact sur la rugosité des matériaux testés.
Resumo:
La situation du marché de l'emploi a subi ces dernières années, des changements de structure en profondeur. Le résultat est qu'au Québec, le taux réel d'inactivité révèle que près d'un adulte sur quatre est sans emploi. Parmi les personnes les plus touchées par ces changements on retrouve celles qui sont sans formation spécifique, sans diplôme ou bien sans expérience de travail. Pour rendre apte au travail cette mam d'oeuvre inactive, le Ministère de l'éducation a mis sur pied au milieu des années 90, une mesure d'aide à l'insertion appelée Services d'Intégration Socioprofessionnelle ou S.I.S. Dans le présent essai, nous avons cherché à évaluer le développement de l'employabilité de participants aux S.I.S. Selon les objectifs visés par le Service, on suppose que chaque personne aura acquis certaines attitudes et aptitudes au travail, susceptible de l'aider à retrouver du travail et de le conserver. Nous avons utilisé la structure de recherche test-retest sur le même échantillon. En effet, chaque participant s'est vu administrer le même questionnaire, au début et à la fin des S.I.S. Nous avons ainsi pu suivre l'évolution des facteurs en causes dans une insertion professionnelle. À cela s'ajoutent des données recueillies dans un journal de bord par l'évaluateur/animateur. Celles-ci sont reprises pour donner un sens dans l'analyse des résultats. La mesure utilisée est le questionnaire informatisé Copilote Insertion version 2.20. Celui-ci fut administré une première fois, à seize personnes présentes en amorce des S.LS. Pour la mesure post, nous avions plus que 8 personnes toujours disponibles et respectant le devis de recherche. Pour ces sujets, nous avons comparé chacun des vingt facteurs de Copilote, ainsi que l'évolution des stratégies d'insertion. Pour chacun d'eux, nous avons pu déterminer lesquels des facteurs d'employabilité évalué par le logiciel, démontraient une progression. Il a été démontré que l'ensemble des participants s'accordait beaucoup de difficulté à surmonter l'image de dépendance et d'incapacité, intériorisé avec l'expérience du chômage. Comme quoi, cette clientèle a à faire face à un certain nombre de deuil non résolu. À ce niveau, la structure des S.I.S semble permettre ce nécessaire recadrage de l'expérience chômage. Nous avons aussi observé que la composition du groupe n'a pas été réalisée en respectant le développement de l'employabilité de chacun des participants. Par conséquent, les plus enthousiasmes ont eu à subir l'inconfort de devoir faire face aux discours démotivant des personnes non-prêtes à s'insérer en emploi. La difficulté de sélectionner des personnes dont les besoins en matière de développement de l'employabilité ne seraient pas homogènes pourrait être surmontée si des activités individuelles personnalisées, sont présentées en alternance avec le travail de groupe. Autre constat réalisé est que malgré le temps passé à l'intérieur des SIS, des participants s'accordent plus de difficultés à la fin qu'au début, pour des facteurs d'employabilités. C'est le cas des facteurs du thème Communication de Copilote. La difficulté de mettre en branle une campagne visant la mise en marché de son potentiel de travail, cela vient confirmer que le participant, bien qu'il ait réalisé un bout du trajet le séparant du monde du travail, qu'il n'est pas parvenu à destination.
Resumo:
1-Inroduction générale (Extraits). L'IFREMER exerce de longue date des tâches de surveillance et de contrôle de la qualité du milieu marin et de ses ressources. Certaines de ces tâches le sont de façon très organisée et systématique, couvrant "en réseau" l'ensemble du littoral français. Le présent ouvrage dresse le bilan des résultats obtenus par trois de ces réseaux, en vue d'évaluer la qualité actuelle des eaux littorales, mission à laquelle ils sont dédiés : le Réseau National d'Observation de la Qualité du Milieu Marin (RNO), le réseau de surveillance du phytoplancton (REPHY) et le réseau de surveillance microbiologique (REMI ). Le RNO a été mis en place en 1974 par le Ministère de l'Environnement avec pour premier objectif l'évaluation des niveaux et des tendances des polluants et des paramètres généraux de la qualité du milieu marin. Mais cette activité ne peut se concevoir sans une surveillance des effets biologiques de la qualité du milieu. Ce deuxième objectif de surveillance vise à évaluer l'état de santé de la flore et de la faune marines par la mesure de la réponse de ces organismes à des perturbations de la qualité du milieu. Il a été introduit en 1987 dans les programmes du RNO. Toutefois, les résultats n'en sont encore que préliminaires et ne sont pas présentés ici. La création du REPHY a fait suite aux intoxications par les coquillages observées en 1983. Ce réseau fait le suivi des populations phytoplanctoniques, de leurs perturbations et de l'apparition d'espèces toxiques pour l'homme ou pour les animaux marins. Dès 1984, la majeure partie du littoral faisait l'objet de cette surveillance. Quant au REMI , il évalue les niveaux et les tendances de la contamination microbiologique du milieu et plus spécialement des zones de production conchylicole. Il résulte de la réorganisation opérée en 1989 des activités de contrôle de la salubrité des coquillages menées par l'IFREMER. Cette réorganisation a eu pour objectif de permettre une appréciation plus globale de la qualité microbiologique du milieu, tout en fournissant les éléments contribuant à la protection du consommateur. Les résultats de surveillance du mi lieu portent au total sur une vingtaine de paramètres qui définissent plusieurs types de qualité environnementale : qualité générale des masses d'eaux par la température, la salinité, les sels nutritifs (nitrate, phosphate ... ), la chlorophylle ; contamination du milieu par des métaux (mercure, cadmium, plomb ... ) et des composés organiques toxiques (PCB, pesticides ... ), mesurés dans certains organismes sentinelles (moule, huître ... ) ; fréquence d'apparition dans les masses d'eaux d'espèces phytoplanctoniques toxiques représentées ici par Dinophysis et Alexandrium, et risques de toxicité effective des coquillages ; contamination du milieu par les bactéries d'origine terrestre, représentées ici par les coliformes fécaux mesurés dans les moules et les huîtres. …
Resumo:
L’Ifremer coordonne, sur l’ensemble du littoral métropolitain, la mise en oeuvre de réseaux d’observation et de surveillance de la mer côtière. Ces outils de collecte de données sur l’état du milieu marin répondent à deux objectifs : · servir des besoins institutionnels en fournissant aux pouvoirs publics des informations répondant aux exigences de la Directive Cadre sur l’Eau (DCE), des conventions régionales marines (OSPAR et Barcelone) et de la réglementation sanitaire relative à la salubrité des coquillages des zones de pêche et de production conchylicoles ; · acquérir des séries de données nourrissant les programmes de recherche visant à mieux comprendre le fonctionnement des écosystèmes côtiers et à identifier les facteurs à l’origine des changements observés dans ces écosystèmes. Le dispositif comprend : le réseau d’observation et de surveillance du phytoplancton et des phycotoxines (REPHY) qui porte aussi sur l’hydrologie et les nutriments, le réseau d’observation de la contamination chimique (ROCCH), le réseau de contrôle microbiologique (REMI) et le réseau de surveillance benthique (REBENT). Ces réseaux sont mis en oeuvre par les Laboratoires Environnement Ressources (LER) qui opèrent également des observatoires de la ressource : l'observatoire national conchylicole (RESCO) qui évalue la survie, la croissance et la qualité des huîtres creuses élevées sur les trois façades maritimes françaises ; et le réseau de pathologie des mollusques (REPAMO). Pour approfondir les connaissances sur certaines zones particulières et enrichir le diagnostic de la qualité du milieu, plusieurs Laboratoires Environnement Ressources mettent aussi en oeuvre des réseaux régionaux : sur la côte d’Opale (SRN), sur le littoral normand (RHLN), dans le bassin d’Arcachon (ARCHYD) ainsi que dans les étangs languedociens et corses (RSL). Les prélèvements et les analyses sont effectués sous démarche qualité. Les analyses destinées à la surveillance sanitaire des coquillages sont réalisées par des laboratoires agréés. Les données obtenues sont validées et saisies par les laboratoires. Elles intègrent la base de données Quadrige² qui héberge le référentiel national des données de la surveillance des eaux littorales et forme une composante du Système national d’information sur l’eau (SIEau). Les bulletins régionaux annuels contiennent une synthèse et une analyse des données collectées par les réseaux pour les différentes régions côtières. Des représentations graphiques homogènes pour tout le littoral français, assorties de commentaires, donnent des indications sur les niveaux et les tendances des paramètres mesurés. Les stations d’observation et de surveillance figurant sur les cartes et les tableaux de ces bulletins régionaux s’inscrivent dans un schéma national. Une synthèse des résultats portant sur l’ensemble des côtes françaises métropolitaines complète les bulletins des différentes régions. Ces documents sont téléchargeables sur le site Internet de l’Ifremer : http://envlit.ifremer.fr/documents/bulletins/regionaux_de_la_surveillance, http://envlit.ifremer.fr/documents/bulletins/nationaux_de_la_surveillance. Les Laboratoires Environnement Ressources de l’Ifremer sont vos interlocuteurs privilégiés sur le littoral. Ils sont particulièrement ouverts à vos remarques et suggestions d’amélioration de ces bulletins.