292 resultados para Logiciel propriétaire


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les logiciels actuels sont de grandes tailles, complexes et critiques. Le besoin de qualité exige beaucoup de tests, ce qui consomme de grandes quantités de ressources durant le développement et la maintenance de ces systèmes. Différentes techniques permettent de réduire les coûts liés aux activités de test. Notre travail s’inscrit dans ce cadre, est a pour objectif d’orienter l’effort de test vers les composants logiciels les plus à risque à l’aide de certains attributs du code source. À travers plusieurs démarches empiriques menées sur de grands logiciels open source, développés avec la technologie orientée objet, nous avons identifié et étudié les métriques qui caractérisent l’effort de test unitaire sous certains angles. Nous avons aussi étudié les liens entre cet effort de test et les métriques des classes logicielles en incluant les indicateurs de qualité. Les indicateurs de qualité sont une métrique synthétique, que nous avons introduite dans nos travaux antérieurs, qui capture le flux de contrôle ainsi que différentes caractéristiques du logiciel. Nous avons exploré plusieurs techniques permettant d’orienter l’effort de test vers des composants à risque à partir de ces attributs de code source, en utilisant des algorithmes d’apprentissage automatique. En regroupant les métriques logicielles en familles, nous avons proposé une approche basée sur l’analyse du risque des classes logicielles. Les résultats que nous avons obtenus montrent les liens entre l’effort de test unitaire et les attributs de code source incluant les indicateurs de qualité, et suggèrent la possibilité d’orienter l’effort de test à l’aide des métriques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'immigrant arabo-musulman chargé, à Montréal, Québec, Sherbrooke ou ailleurs, de responsabilités revêt le plus souvent le costume occidental et sur son lieu de travail adopte les attitudes, les gestes, les façons de voir et de parler du système de vie nord-américain. Il mange dans les restaurants à midi et parle parfois de hockey et de la série télévisée "Lance et compte" avec ses collègues. Le soir, en famille, il revêt fréquemment l'habit traditionnel et quitte, avec le vêtement du jour, la langue française souvent liée au travail pour parler celle de sa culture d'origine. Il mange du couscous et des briks. On observe avec cet exemple un cas concret d acculturation. Cependant, les arrivants dans une nouvelle culture, les Arabo—Musulmans au Québec par exemple, ne sont pas tous caractérisés par des comportements biculturels, résultats d'un processus d'ajustement entre deux cultures, la culture québécoise d'une part, et la culture arabo—musulmane d'autre part. Ainsi, on peut observer des immigrants dont le comportement public et privé tire ses principes et ses valeurs de l'unique culture d'origine. Cela atteint parfois un niveau de "fanatisme culturel"; on parle dans ce cas de contre-acculturation. Ceux-ci refusent la dépendance et tentent de réaliser le retour aux sources dans la culture d'origine à travers la langue de communication, les fêtes traditionnelles, le style de consommation, les produits consommés, etc. Ce comportement en est un d'opposition à l'acculturation. Par exemple, certaines immigrantes ont manifesté leur refus à l’'occidentalisation par le port de tchador, voile opaque masquant le visage, signe de la femme musulmane recluse, réservée à l'égard de son époux propriétaire exclusif et jaloux. On peut observer par ailleurs des immigrants arabo-musulmans dont le comportement social et de consommation ressemble de très près et se confond même avec celui des Québécois. On parle dans ce cas d'assimilation. Ainsi, n'a-t-on pas vu un certain Mohamed qui après un certain temps au Québec a changé de nom pour devenir Mike, un jeune qui parle le français avec un bon accent québécois, un fanatique du baseball et du hockey. En décidant de rester au Québec, Mohamed a rompu tout attachement avec son pays d'origine. Comme un nord-américain typique, il va magasiner toutes les fins de semaine, accompagné de sa femme québécoise, à la conquête des spéciaux de la semaine et rentre chez-lui très content d'avoir fait de bons achats. Il vide alors une ou deux caisses de bière à la santé de la belle vie que lui offre le Québec. Le comportement de consommation de l’émigrant dépend de sa situation, qu'il soit contre-acculturé, acculturé ou assimilé. Cette position varie dans la nouvelle culture selon son niveau d’acculturation. Dans ce mémoire, nous nous proposons d'étudier le comportement de consommation de 107 immigrants arabo-musulmans au Québec.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'analyse de la situation financière de l'entreprise sert à la prise de décision pour les parties intéressées à l'intérieur de l'entreprise, soit le gestionnaire et parfois le propriétaire et les autres qui se trouvent à l'extérieur, tels l'investisseur, le ministère du revenu, le banquier et le consultant. Dépendamment de l'utilisateur, l'information disponible n'est pas la même. L'investisseur, le banquier et le ministère du revenu doivent analyser l'entreprise à partir des données comptables publiées. Mais, les états financiers cachent parfois certaines réalités, tel un exercice financier ne représentant pas la saisonnalité des activités. De même les stocks de fin d'exercice ne représentent pas nécessairement le niveau du stock moyen. Les échéances de paiement surviennent peut-être au début plutôt qu'uniformément au cours de l'exercice. La signature de contrats importants pourra avoir des répercussions qu'au cours de l'exercice suivant. L'information interne seule peut répondre à ces questions. De plus, le résultat net publié dans les états financiers renferme certaines lacunes dont l'analyste doit tenir compte : 1- L'amortissement et l'évaluation des comptes-clients comportent une bonne part de subjectivité; 2- L'existence de plusieurs méthodes d'évaluation des stocks amène des problèmes de comparabilité, surtout lorsque ces postes ont une relative importance; 3- La dépréciation monétaire non prise en compte dans les états financiers diminue la comparabilité d'un exercice à l'autre et n'assure pas la préservation du patrimoine. Ainsi, les dividendes peuvent être versés au-delà de ce qu'il serait prudent de verser pour assurer la capacité de fonctionnement; 4- En période de prospérité, l'entreprise tentera de minimiser son bénéfice comptable afin de diminuer sa charge fiscale alors qu'en période de déficit, elle tentera de maximiser son bénéfice comptable pour rassurer les propriétaires et les prêteurs; 5- L'inflation accentue les difficultés de comparaison. Il faudra donc tenir compte de l'inflation pour apprécier l'évolution réelle du résultat; 6- La comparaison avec plusieurs entreprises est quelque peu biaisée dû au choix des pratiques comptables exercées sur plusieurs postes. Les critères de comparaison devront donc être le moins possible dépendants de choix de pratiques comptables. Malgré l'existence de ces déformations comptables, les états financiers demeurent une source importante d'informations. Mais les forces et les faiblesses de l'entreprise s'en trouvent plus ou moins cachées. Comme le gestionnaire et le consultant ont accès aux données non publiées par l'entreprise, les résultats des activités et les données sur la qualité de la gestion interne peuvent donc être plus détaillés, et plus proches de la réalité. L'information publique, ne permet que de détecter les grandes lignes de la situation financière de l'entreprise. Les ouvrages en finance ne traitent que très peu de ces facteurs internes et du lien entre l'information interne et l'information externe. Le but de notre étude a été de créer un modèle de diagnostic de la situation financière, dans un premier temps, issu de la théorie et reposant sur les données externes et internes à l'entreprise. Dans un deuxième temps, nous avons construit un modèle plus complet qui tienne compte des interrelations des postes des états financiers et de l'interprétation faite par les praticiens, et dont la théorie ne fait pas état. L'intégration des connaissances des praticiens au modèle théorique initial et l'utilisation des données internes à l'entreprise, devraient permettre de porter un diagnostic plus éclairé de la situation financière de l'entreprise.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis les dernières années, on assiste à une croissance du taux de chômage. Le nombre de chercheurs d'emploi ne cesse d'augmenter et beaucoup d'entre eux sont confrontés à de longues périodes sans emploi. D'après un récent rapport publié par le Développement des ressources humaines Canada, le taux de chômage a affiché une moyenne de 12.2% au Québec en 1994. Le nombre de chercheurs d'emploi augmente considérablement et ceux-ci proviennent de différents domaines d'activités d'emploi. Plusieurs de ces personnes ont besoin de support pour réintégrer le marché du travail. Des organismes d'aide à l'employabilité permettent à cette clientèle d'identifier des objectifs pour faciliter leur insertion. Afin de bien répondre aux besoins des chercheurs d'emploi par des moyens rapides et utiles, un logiciel a été conçu par Dominique Clavier, chercheur et clinicien Français. Ce logiciel s'appelle le Copilote insertion. Il permet aux usagers d'avoir un diagnostic complet des difficultés à trouver un emploi. Ce diagnostic donne aussi des recommandations conformes à la situation de la personne. Étant donné que cet outil a été d'abord conçu pour les Européens, on peut s'attendre que les énoncés formulés dans le Copilote présentent des difficultés pour les québécois. L'objet de cet essai est de ressortir les problèmes de compréhension pour ensuite faire l'adaptation culturelle du Copilote insertion. Dans le premier chapitre de cet ouvrage, nous nous attarderons à définir les enjeux du travail et la notion de l'employabilité. Nous aborderons par la suite deux modèles qui traitent des stratégies d'insertion : celui de Dominique Clavier auteur du logiciel Copilote insertion et celui de Jacques Limoges auteur du Trèfle chanceux. Il sera question par la suite de l'intégration de ces deux approches et de l'adaptation culturelle de ce logiciel. Le deuxième chapitre présentera la méthodologie qui indiquera la conduite de l'expérimentation auprès d'un échantillon de chercheurs d'emploi québécois. Un dernier chapitre permettra, suite à l'analyse des données, de présenter les résultats et de proposer des correctifs pour la refonte des énoncés du Copilote insertion.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

D’abord, nous présentons les principes physiques nous permettant de modéliser et comprendre le phénomène de propagation linéaire des impulsions lumineuses dans un milieu homogène, dans les guides d’ondes planaires et enfin dans les fibres optiques microstructurées. Ensuite, nous faisons une analyse mathématique rigoureuse des équations linéaires de propagation et posons le problème comme celui de la recherche de valeurs propres d’opérateurs auto-adjoints dans un espace de Hilbert. On verra que ces résultats théoriques s’appliquent aux équations simulées dans le logiciel Comsol Multiphysics. Enfin, nous recensons et proposons différentes façons de prédire les valeurs de dispersion chromatique et d’atténuation dans les fibres microstructurées à coeur suspendu en utilisant les notions et équations discutés dans les deux premiers chapitres. Le choix de la géométrie, du matériau et de la longueur d’onde de la lumière transmise sont parmi les variables étudiées numériquement. Nous ferons également un exemple détaillé d’utilisation du logiciel Comsol Multiphysics pour construire un modèle de fibre optique microstructurée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La caractérisation détaillée de vastes territoires pose un défi de taille et est souvent limitée par les ressources disponibles et le temps. Les travaux de cette maîtrise s’incorporent au projet ParaChute qui porte sur le développement d’une Méthode québécoise d’Évaluation du Danger des Chutes de Pierres (MEDCP) le long d’infrastructures linéaires. Pour optimiser l’utilisation des ressources et du temps, une méthode partiellement automatisée facilitant la planification des travaux de terrain a été développée. Elle se base principalement sur la modélisation des trajectoires de chutes de pierres 3D pour mieux cibler les falaises naturelles potentiellement problématiques. Des outils d’automatisation ont été développés afin de permettre la réalisation des modélisations sur de vastes territoires. Les secteurs où l’infrastructure a le plus de potentiel d’être atteinte par d’éventuelles chutes de pierres sont identifiés à partir des portions de l’infrastructure les plus traversées par les trajectoires simulées. La méthode a été appliquée le long du chemin de fer de la compagnie ArcelorMittal Infrastructures Canada. Le secteur couvert par l’étude débute à une dizaine de kilomètres au nord de Port-Cartier (Québec) et s’étend sur 260 km jusqu’au nord des monts Groulx. La topographie obtenue de levés LiDAR aéroportés est utilisée afin de modéliser les trajectoires en 3D à l’aide du logiciel Rockyfor3D. Dans ce mémoire, une approche facilitant la caractérisation des chutes de pierres le long d’un tracé linéaire est présentée. Des études de trajectoires préliminaires sont réalisées avant les travaux sur le terrain. Les informations tirées de ces modélisations permettent de cibler les secteurs potentiellement problématiques et d’éliminer ceux qui ne sont pas susceptibles de générer des chutes de pierres avec le potentiel d’atteindre les éléments à risque le long de l’infrastructure linéaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Afin d’améliorer nos pratiques agricoles dans le contexte d’une agriculture durable, plusieurs agents de lutte biologique (ALB) ont été développés, testés et sont maintenant utilisés dans le monde pour combattre les pertes de rendements causées par les maladies. Blumeria graminis f. sp. hordei ( Bgh) est l’agent pathogène responsable du blanc de l’orge et peut réduire les rendements de cette culture jusqu’à 40%. Un champignon épiphyte, Pseudozyma flocculosa, a été découvert et identifié en 1987 en association étroite avec le blanc du trèfle. Les chercheurs ont alors remarqué que ce champignon exhibait une forte activité antagoniste contre le blanc en détruisant les structures de l’agent pathogène. Suite à d’autres travaux, il est apparu que ce comportement antagoniste était dirigé contre tous les membres des Erysiphales et semblait lié à la synthèse d’un glycolipide antifongique soit la flocculosine. Toutefois, on n’est toujours pas parvenus à associer l’efficacité de l’ALB avec la production de ce glycolipide. Ces observations suggèrent que d’autres facteurs seraient impliqués lorsque les deux protagonistes, l’ALB et le blanc, sont en contact. L’objectif principal de ce projet était donc de chercher d’autres mécanismes moléculaires pouvant expliquer l’interaction P. flocculosa-blanc et orge, en faisant une analyse transcriptomique complète des trois protagonistes en même temps. L’interaction tripartite a été échantillonnée à différents temps suivant l’inoculation de P. flocculosa sur des feuilles d’orge présentant déjà une intensité de blanc d’environ 50%. Les échantillons de feuilles prélevés ont ensuite été utilisés pour l’extraction de l’ARN qui ont été ensuite transformés en ADNc pour la préparation des librairies. Cinq répliquats ont été effectués pour chaque temps et le tout a été séquencé à l’aide de séquençage par synthèse Illumina HiSeq. Les séquences obtenues (reads) ont ensuite été analysées à l’aide du logiciel CLC Genomics Workbench. Brièvement, les séquences obtenues ont été cartographiées sur les trois génomes de référence. Suite à la cartographie, les analyses d’expression ont été conduites et les gènes exprimés de façon différentielle ont été recherchés. Cette étape a été conduite en portant une attention particulière aux gènes codant pour un groupe de protéines appelées CSEP pour “candidate secreted effector proteins” qui seraient possiblement impliquées dans l’interaction tripartite. Parmi les protéines exprimées de façon différentielle en présence du blanc ou en absence de ce dernier, nous avons pu constater que certaines CSEP étaient fortement exprimées en présence du blanc. Ces résultats sont prometteurs et nous offrent une piste certaine pour l’élucidation des mécanismes impliqués dans cette interaction tripartite.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le logiciel SysML (Système Mastery Learning) est le prototype d'un logiciel pour enseignants qui désirent implanter le Mastery Learning dans leurs cours. Appartenant à la famille des APO (Applications Pédagogiques de l'Ordinateur), ce logiciel de GPAQ (Génie Pédagogique Assisté par Ordinateur) vient répondre à des besoins d'encadrement et d'assistance formulés par les enseignants qui utilisent le Mastery Learning. Ce projet de recherche et de développement visait à produire un logiciel pour assister et encadrer les enseignants dans le processus de planification et de conception d'une stratégie instrumentée d'évaluation formative. Le but de SysML est de réduire la perte de temps lors de la conception des instruments et à rendre ces instruments de meilleure qualité. Le logiciel SysML a été développé suite à une analyse du problème et des besoins des enseignants et est basé sur des modèles pédagogiques éprouvés. Le logiciel est programmé dans l'environnement HyperCard sur ordinateur Macintosh . SysML a été expérimenté par une conseillère pédagogique et trois enseignants du réseau collégial. Les commentaires des expérimentateurs, recueillis lors des entrevues, sont positifs et nous indiquent qu'un tel logiciel serait bienvenu dans le monde de l'éducation. Par ailleurs, SysML ne serait pas limité aux utilisateurs du Mastery Learning mais serait ouvert aux enseignants qui veulent organiser, planifier un cours et une stratégie d'évaluation. L'essentiel du projet de recherche a été la production du logiciel. Tout le travail de recherche est dans le logiciel, ce document n'est que le rapport accompagnateur. On peut avoir une démonstration du fonctionnement du logiciel en s'adressant à l'auteur.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En 1983, un « nouveau » type de logiciels que nous avons appelé « idéateur » est apparu sur le marché de la micro-informatique. Ces logiciels combinent les facilités du traitement de textes avec l'utilisation particulière du « chaînage » de texte. Ce chaînage permet entre autre les manipulations suivantes du texte; classer, mettre en ordre prioritaire, sous-catégoriser des ensembles, lancer les items au hasard, effacer, déplacer ou copier un ou des items, etc. (Pour plus de détails, voir le chapitre 1.2 et les annexes 1 à 3). Après une étude pour situer le cadre de notre recherche (voir le chapitre II) et la traduction du logiciel MaxThink, nous avons introduit cet idéateur dans une classe de français correctif, de niveau collégial. Nous avons choisis ces sujets parce ces étudiant-e-s se servaient déjà de l'ordinateur à l'intérieur des cours et qu'ils (elles) avaient intérêt (pensions-nous) à utiliser l’idéateur pour améliorer leur français. Tous ces sujets ont eu à suivre le cours sur la manipulation de MaxThink. Un design expérimental de catégorie « semi-contrôlée » a été mis en place pour isoler l'influence des trois instruments servant à la composition ; l'idéateur (MaxThink), un traitement de texte traditionnel (Editexte) et le crayon/papier. Le pré-test et le post-test consistant à composer sur un thème déterminé était à chaque fois précédé d'un brainstorming afin de générer une liste d'idées". Par la suite, les textes ont été soumis à trois juges qui ont eu à coter la cohérence globale individuelle pré-test/post-test et la cohérence de groupe au pré-test ainsi qu'au post-test. Deux analyses statistiques non-paramétriques utiles pour un nombre restreint de sujets (trois sous-groupes de quatre sujets) ont été utilisées: analyse de variance (formule KRUSKAL-WALLIS) et analyse des probabilités d'occurrence des distributions (formule HODGES-LEHMANN). En conclusion, nos recommandations tiennent compte de l'analyse statistique des résultats et des commentaires des étudiant-e-s.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Comme en témoignent les publications et les préoccupations des acteurs éducatifs, la réussite scolaire est un enjeu social. Les facteurs individuels, familiaux, scolaires et sociaux de la réussite scolaire ont été abondamment étudiés. Toutefois, la recension des écrits permet de constater d’une part, qu’il y a encore peu d’écrits de manière générale sur les élèves qui réussissent à l’école en particulier les écrits sur leur expérience scolaire; d’autre part, il existe relativement peu d’écrits sur la réussite scolaire en milieu défavorisé en relation avec les activités et les discours des bons élèves du secondaire. Cette recherche vise à comprendre la réussite scolaire en milieu socioéconomique défavorisé par la description des actions et des discours des élèves qui réussissent en classe de 3e secondaire en contexte haïtien. L’ethnométhodologie, courant sociologique qui vise la compréhension des actions quotidiennes des individus et de leurs discours offre un autre regard dans l’étude du phénomène de la réussite scolaire. En effet, l’expérience scolaire au quotidien des élèves performants reste peu connue. Sur le plan méthodologique, cette recherche empirique menée dans un collège secondaire privé catholique au Nord-Ouest d’Haïti privilégie une approche exploratoire. Il s’agit d’une recherche qualitative qui repose sur des observations directes des élèves à l’école et en dehors de l’école, sur des entretiens semi-dirigés avec un échantillon de douze élèves inscrits en classe de 3e secondaire et sur leurs journaux individuels tenus lors de la collecte des données. L’analyse inductive générale des données et le logiciel NVivo 9.0 ont été retenus pour la stratégie d’analyse des données. Selon les données analysées, la réussite scolaire se construit seul et avec les autres. Les résultats mettent en évidence des liens entre les ressources externes utilisées par les participants, leurs attitudes et leurs processus mentaux et la réussite scolaire. La recherche permet d’identifier cinq facteurs de la réussite scolaire. Une vue d’ensemble des résultats est proposée et représente le modèle théorique de la réussite scolaire des élèves haïtiens étudiés. Par la suite, des apports généraux et des implications pratiques sont énoncés ; des questionnements et une hypothèse interprétative sont soulevés et des pistes pour d’autres recherches sont suggérées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

An extended formulation of a polyhedron P is a linear description of a polyhedron Q together with a linear map π such that π(Q)=P. These objects are of fundamental importance in polyhedral combinatorics and optimization theory, and the subject of a number of studies. Yannakakis’ factorization theorem (Yannakakis in J Comput Syst Sci 43(3):441–466, 1991) provides a surprising connection between extended formulations and communication complexity, showing that the smallest size of an extended formulation of $$P$$P equals the nonnegative rank of its slack matrix S. Moreover, Yannakakis also shows that the nonnegative rank of S is at most 2c, where c is the complexity of any deterministic protocol computing S. In this paper, we show that the latter result can be strengthened when we allow protocols to be randomized. In particular, we prove that the base-2 logarithm of the nonnegative rank of any nonnegative matrix equals the minimum complexity of a randomized communication protocol computing the matrix in expectation. Using Yannakakis’ factorization theorem, this implies that the base-2 logarithm of the smallest size of an extended formulation of a polytope P equals the minimum complexity of a randomized communication protocol computing the slack matrix of P in expectation. We show that allowing randomization in the protocol can be crucial for obtaining small extended formulations. Specifically, we prove that for the spanning tree and perfect matching polytopes, small variance in the protocol forces large size in the extended formulation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We develop a framework for proving approximation limits of polynomial size linear programs (LPs) from lower bounds on the nonnegative ranks of suitably defined matrices. This framework yields unconditional impossibility results that are applicable to any LP as opposed to only programs generated by hierarchies. Using our framework, we prove that O(n1/2-ε)-approximations for CLIQUE require LPs of size 2nΩ(ε). This lower bound applies to LPs using a certain encoding of CLIQUE as a linear optimization problem. Moreover, we establish a similar result for approximations of semidefinite programs by LPs. Our main technical ingredient is a quantitative improvement of Razborov's [38] rectangle corruption lemma for the high error regime, which gives strong lower bounds on the nonnegative rank of shifts of the unique disjointness matrix.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this paper we extend recent results of Fiorini et al. on the extension complexity of the cut polytope and related polyhedra. We first describe a lifting argument to show exponential extension complexity for a number of NP-complete problems including subset-sum and three dimensional matching. We then obtain a relationship between the extension complexity of the cut polytope of a graph and that of its graph minors. Using this we are able to show exponential extension complexity for the cut polytope of a large number of graphs, including those used in quantum information and suspensions of cubic planar graphs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Une structure en béton armé est sujette à différents types de sollicitations. Les tremblements de terre font partie des événements exceptionnels qui induisent des sollicitations extrêmes aux ouvrages. Pour faire face à cette problématique, les codes de calcul des ponts routiers font appel à une approche basée sur des niveaux de performance qui sont rattachés à des états limites. Actuellement, les états limites d'une pile de ponts en béton armé (BA) confinée à l'aide de polymères renforcés de fibres de carbone (PRFC) proposés dans la littérature ne prennent pas en compte le confinement lié au chemisage de PRFC en combinaison avec celui des spirales d'acier. Ce projet de recherche était la suite du volet de contrôle non destructif d'une étude réalisée en 2012 qui comprenait un volet expérimental [Carvalho, 2012] et un volet numérique [Jean, 2012]. L'objectif principal était de compléter l'étude du comportement des poteaux en BA renforcés de PRFC soumis à un chargement cyclique avec les données acoustiques recueillies par St-Martin [2014]. Plus précisément, les objectifs spécifiques étaient de déterminer les états limites reliés aux niveaux de performance et de caractériser la signature acoustique de chaque état limite (p. ex. fissuration du béton, plastification de l'acier et rupture du PRFC). Une méthodologie d'analyse acoustique basée sur l'état de l'art de Behnia et al. [2014] a été utilisée pour quantifier la gravité, localiser et caractériser le type de dommages. Dans un premier temps, les données acoustiques provenant de poutres de 550 mm x 150 mm x 150 mm ont permis de caractériser la signature acoustique des états limites. Puis, des cinq spécimens d'essai construits en 2012, les données acoustiques de trois spécimens, soient des poteaux circulaires d'un diamètre de 305 mm et d'une hauteur de 2000 mm ont été utilisée pour déterminer les états limites. Lors de ces essais, les données acoustiques ont été recueillies avec 14 capteurs de résonances qui étaient reliés à un système multicanal et au logiciel AEwin SAMOS 5.23 de Physical Acoustics Corporation (PAC) [PAC, 2005] par St-Martin [2014]. Une analyse de la distribution des paramètres acoustiques (nbr. de comptes et énergie absolue) combiné à la localisation des événements et le regroupement statistique, communément appelé clustering, ont permis de déterminer les états limites et même, des signes précurseurs à l'atteinte de ces états limites (p. ex. l'initiation et la propagation des fissures, l'éclatement de l'enrobage, la fissuration parallèle aux fibres et l'éclatement du PRFC) qui sont rattachés aux niveaux de performances des poteaux conventionnels et confinés de PRFC. Cette étude a permis de caractériser la séquence d'endommagement d'un poteau en BA renforcé de PRFC tout en démontrant l'utilité de l'écoute acoustique pour évaluer l'endommagement interne des poteaux en temps réel. Ainsi, une meilleure connaissance des états limites est primordiale pour intégrer les PRFC dans la conception et la réhabilitation des ouvrages.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le logiciel est devenu omniprésent dans nos vies de sorte qu'on le retrouve dans plusieurs domaines de la vie courante. Cependant cette omniprésence, n'est pas sans conséquences. Les bogues de logiciel peuvent causer de vrais désastres, économiques, écologiques voire sanitaires. Vu la forte omniprésente du logiciel dans nos vies, le fonctionnement de nos sociétés dépend fortement de sa qualité. La programmation par contrat a pour but de produire des logiciels fiables, c'est-à-dire corrects et robustes. En effet, ce paradigme de programmation vise à introduire des assertions qui sont des spécifications de services. Ces spécifications représentent une forme de contrat. Les contrats définissent les responsabilités entre le client et le fournisseur. Le respect des contrats permet de garantir que le logiciel ne fait ni plus ni moins que ce que l'on attend de lui qu'il fasse. Le test unitaire est un test qui permet de s'assurer du bon fonctionnement d'une partie précise d'un logiciel. C'est un test dont la vérification se fait en exécutant une petite unité de code. En somme, un test unitaire est un code qui exécute de manière indirecte le code d'une classe pour vérifier que le code fonctionne bien. L'outil Génération de Squelettes des Contrats de classes et des tests unitaires (GACTUS) permet la génération automatique de squelettes de contrats de classes et celles des classes des tests unitaires d'un projet Java. La génération automatique du code source permet d'obtenir un code uniforme. GACTUS est un plug-in pour l'environnement de développement Eclipse écrit en Java. L'objectif principal de GACTUS est de faciliter la réalisation de logiciel de qualité grâce à la génération automatique des squelettes de contrats de classe et celui des tests unitaires et aussi d'accroître la productivité des développeurs. Pour faciliter son utilisation, GACTUS dispose d'une interface graphique permettant de guider l'utilisateur.