41 resultados para Tournées de véhicules avec fenêtres de temps


Relevância:

30.00% 30.00%

Publicador:

Resumo:

La recherche porte sur les changements que le journalisme a subis au fil du temps, et particulièrement sur les mutations de toutes sortes que connaît le journalisme sportif entre 1955 et 2006. Elle a pour objectif la mise en évidence des ressemblances et des dissemblances des pages sportives des deux époques étudiées et s'inscrit ainsi dans la lignée des recherches sur les changements paradigmatiques du journalisme, dont les théories ont été proposées par Colette Brin, Jean Charron et Jean de Bonville (1996, 2002, 2004). Le corpus est constitué des pages sportives du quotidien québécois La Presse de 1955 et de 2006. La date des deux journaux a été choisie en fonction d'un événement de référence, le match final de la Coupe Stanley, respectivement le 15 mars 1955 et le 20 juin 2006. Les méthodes retenues, une analyse de contenu et une analyse de textes, visent essentiellement à permettre l'atteinte de notre objectif principal, à savoir une étude comparative des pages sportives de 1955 et de 2006. Trois hypothèses ont été posées. La première, postulant l'existence de différences marquées entre 1955 et 2006, a été confirmée, puisque de nombreuses dissemblances ont été observées, particulièrement en ce qui a trait à l'aspect visuel des deux journaux et à la nature impressionniste du langage. La seconde hypothèse, liée à l'existence présumée d'une relation différente ente le journaliste et le lecteur, a également été largement confirmée. La troisième hypothèse, selon laquelle certains éléments caractéristiques du journalisme de communication allaient jaillir de l'analyse interprétative, a été partiellement confirmée. Les mises en garde de plusieurs chercheurs ainsi que les limites d'une telle recherche ne nous permettent pas d'affirmer l'existence effective du journalisme de communication, mais plutôt de faire ressortir certains points qui montrent que le journalisme contemporain semble aller dans la direction de la communication plutôt que celle de l'information.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les objectifs de ce mémoire sont d'établir si la qualité de la relation enseignant-élève est associée un an plus tard à l'évolution des difficultés de comportement et de la performance scolaire d'élèves du primaire et de déterminer le rôle modérateur de la présence/absence de trouble de comportement sur cette association. L'échantillon inclut 168 élèves suivis à l'école primaire pour troubles de comportement ainsi que 209 élèves ordinaires. Tous ces élèves ont été évalués à l'entrée dans l'étude puis 12 mois plus tard à l'aide des échelles de conflit et de proximité du"Student-teacher relationship scales" (Pianta, 2001) complétées par l'enseignant, de l'échelle de difficultés de comportements extériorisés d'Achenbach et Rescorla (2001) complétée par les parents et d'une échelle de performance scolaire (DuPaul et al., 1991) complétée par l'enseignant. Tous les modèles de régression testés se sont avérés significatifs. La variable conflit s'est avérée plus particulièrement impliquée dans la variance de la variable"comportements extériorisés" aux deux temps de mesure. Ces résultats suggèrent de porter attention à la relation enseignant-élève, notamment au conflit, pour l'évolution des difficultés de comportement chez les élèves.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Vers la fin des années 1990 et au début des années 2000, l’idée que l’ARN puisse interagir directement avec de petits métabolites pour contrôler l’expression de certains gènes devient de plus en plus acceptée. Des recherches menées à cette époque ont permis la découverte de plusieurs structures d’ARN hautement conservées nommées riborégulateurs. La structure de ces ARN leur permet de reconnaître spécifiquement un ligand. La reconnaissance du ligand entraîne ensuite un changement de conformation dans l’ARN responsable du contrôle de l’expression génétique. Le but de cette thèse est d’étudier la structure et les changements de conformation du riborégulateur associé au gène add liant l’adénine chez Vibrio vulnificus. Ce riborégulateur étant relativement simple, les informations recueillies lors de cette étude pourront servir à comprendre le fonctionnement de riborégulateurs plus complexes. Dans l’introduction, la découverte des riborégulateurs sera décrite en plus des caractéristiques particulières et de l’importance de ces ARN. Par la suite, quelques exemples démontrant l’importance des structures d’ARN seront abordés. Ensuite, les techniques de fluorescence utilisées pour étudier les structures d’ARN au cours de cette thèse seront présentées. Enfin, les recherches effectuées sur les riborégulateurs adénine seront détaillées afin d’aider le lecteur à bien comprendre le type de riborégulateur au centre de cette thèse. Le chapitre 1 traite du repliement de l’aptamère suite à la liaison avec l’adénine. Dans ce chapitre, il est démontré que l’aptamère peut adopter trois conformations. Une modification de la séquence de l’aptamère de type sauvage a permis d’isoler ces trois conformations. Il a ensuite été possible d’identifier les caractéristiques propres à chacun des états. Le chapitre 2 s’intéresse à une région précise du riborégulateur adénine. Dans ce chapitre, la conformation du cœur de l’aptamère est étudiée plus en profondeur. Il y est possible de constater que le repliement du cœur de l’aptamère influence l’interaction boucle-boucle en présence de magnésium et de ligand. De plus, la présence de ligand, en concentration suffisante, permet le repliement du cœur et favorise le rapprochement des tiges P2 et P3 dans un aptamère muté pour empêcher la formation de l’interaction boucle-boucle. Il semble donc que le repliement du cœur de l’aptamère influence la structure globale de l’aptamère. Finalement, les travaux présentés dans les chapitres 1 et 2 seront mis en contexte avec la littérature scientifique disponible. Cette discussion tentera de réconcilier certaines observations contradictoires. Il sera ensuite question de l’impact que les travaux présentés dans cette thèse peuvent avoir dans le domaine de l’ARN. Enfin, quelques études à réaliser en continuité avec ces travaux seront proposées.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L'imagerie par tomographie optique diffuse requiert de modéliser la propagation de la lumière dans un tissu biologique pour une configuration optique et géométrique donnée. On appelle cela le problème direct. Une nouvelle approche basée sur la méthode des différences finies pour modéliser numériquement via l'équation de la diffusion (ED) la propagation de la lumière dans le domaine temporel dans un milieu inhomogène 3D avec frontières irrégulières est développée pour le cas de l'imagerie intrinsèque, c'est-à-dire l'imagerie des paramètres optiques d'absorption et de diffusion d'un tissu. Les éléments finis, lourds en calculs, car utilisant des maillages non structurés, sont généralement préférés, car les différences finies ne permettent pas de prendre en compte simplement des frontières irrégulières. L'utilisation de la méthode de blocking-off ainsi que d'un filtre de Sobel en 3D peuvent en principe permettre de surmonter ces difficultés et d'obtenir des équations rapides à résoudre numériquement avec les différences finies. Un algorithme est développé dans le présent ouvrage pour implanter cette approche et l'appliquer dans divers cas puis de la valider en comparant les résultats obtenus à ceux de simulations Monte-Carlo qui servent de référence. L'objectif ultime du projet est de pouvoir imager en trois dimensions un petit animal, c'est pourquoi le modèle de propagation est au coeur de l'algorithme de reconstruction d'images. L'obtention d'images requière la résolution d'un problème inverse de grandes dimensions et l'algorithme est basé sur une fonction objective que l'on minimise de façon itérative à l'aide d'une méthode basée sur le gradient. La fonction objective mesure l'écart entre les mesures expérimentales faites sur le sujet et les prédictions de celles-ci obtenues du modèle de propagation. Une des difficultés dans ce type d'algorithme est l'obtention du gradient. Ceci est fait à l'aide de variables auxiliaire (ou adjointes). Le but est de développer et de combiner des méthodes qui permettent à l'algorithme de converger le plus rapidement possible pour obtenir les propriétés optiques les plus fidèles possible à la réalité capable d'exploiter la dépendance temporelle des mesures résolues en temps, qui fournissent plus d'informations tout autre type de mesure en TOD. Des résultats illustrant la reconstruction d'un milieu complexe comme une souris sont présentés pour démontrer le potentiel de notre approche.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les autorités gouvernementales canadiennes se sont données, depuis plus de 30 ans, une procédure pour évaluer les conséquences que les politiques, les plans ou les programmes fédéraux et provinciaux peuvent engendrer sur l’environnement. Si, avec le temps, l’évaluation a couvert une plus large définition de l’environnement pour intégrer les dimensions sociale et économique, la procédure d’évaluation environnementale stratégique est-elle pour autant adéquate? Y a-t-il un outil ou une méthode efficace qui pourrait améliorer son rendement? S’il est aujourd’hui accepté qu’un promoteur gouvernemental recherche l’acceptabilité sociale tout en mesurant les effets positifs et négatifs de son projet, ne pourrait-il pas adopter une méthodologie plus holistique et plus simple que la démarche d’identification et d’évaluation des impacts? C’est l’hypothèse qui sous-tend cet essai. L’objectif général de cet essai est de mener une réflexion sur l’utilisation de l’approche systémique dans l’élaboration de l’évaluation environnementale stratégique. En premier lieu, l’approche systémique sera étudiée de manière approfondie afin d’en faire ressortir ses bienfaits en matière de gestion de l’environnement. En second lieu, l’analyse de l’évaluation environnementale canadienne, américaine et européenne permettra de déceler les failles et les réussites dans la mise en place des plans, politiques et programmes. Finalement, une étude de cas sera utilisée pour valider l’hypothèse de travail. L’analyse révèle que l’utilisation de l’approche systémique dans le processus d’évaluation environnementale des plans, des politiques et des programmes est un outil judicieux et holistique hors pair. Non seulement cette méthode permet de tenir compte de toutes les préoccupations des parties prenantes, elle permet aussi de mieux cibler la problématique associée, d’adapter des mesures d’atténuation performantes et de mettre en oeuvre un programme de suivi efficace. Ces résultats démontrent le bénéfice d’utiliser une telle démarche dans ce processus rigoureux qu’est l’évaluation environnementale stratégique. En somme, l’utilisation de l’approche systémique dans l’élaboration de l’évaluation environnementale stratégique permettrait de mieux encadrer toutes les démarches visant à déceler les impacts positifs et négatifs sur l’environnement. Cet outil permettrait de satisfaire la volonté du gouvernement fédéral et des ministres promoteurs de promouvoir le développement de la société dans une perspective de développement durable.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Abstract: Highway bridges have great values in a country because in case of any natural disaster they may serve as lines to save people’s lives. Being vulnerable under significant seismic loads, different methods can be considered to design resistant highway bridges and rehabilitate the existing ones. In this study, base isolation has been considered as one efficient method in this regards which in some cases reduces significantly the seismic load effects on the structure. By reducing the ductility demand on the structure without a notable increase of strength, the structure is designed to remain elastic under seismic loads. The problem associated with the isolated bridges, especially with elastomeric bearings, can be their excessive displacements under service and seismic loads. This can defy the purpose of using elastomeric bearings for small to medium span typical bridges where expansion joints and clearances may result in significant increase of initial and maintenance cost. Thus, supplementing the structure with dampers with some stiffness can serve as a solution which in turn, however, may increase the structure base shear. The main objective of this thesis is to provide a simplified method for the evaluation of optimal parameters for dampers in isolated bridges. Firstly, performing a parametric study, some directions are given for the use of simple isolation devices such as elastomeric bearings to rehabilitate existing bridges with high importance. Parameters like geometry of the bridge, code provisions and the type of soil on which the structure is constructed have been introduced to a typical two span bridge. It is concluded that the stiffness of the substructure, soil type and special provisions in the code can determine the employment of base isolation for retrofitting of bridges. Secondly, based on the elastic response coefficient of isolated bridges, a simplified design method of dampers for seismically isolated regular highway bridges has been presented in this study. By setting objectives for reduction of displacement and base shear variation, the required stiffness and damping of a hysteretic damper can be determined. By modelling a typical two span bridge, numerical analyses have followed to verify the effectiveness of the method. The method has been used to identify equivalent linear parameters and subsequently, nonlinear parameters of hysteretic damper for various designated scenarios of displacement and base shear requirements. Comparison of the results of the nonlinear numerical model without damper and with damper has shown that the method is sufficiently accurate. Finally, an innovative and simple hysteretic steel damper was designed. Five specimens were fabricated from two steel grades and were tested accompanying a real scale elastomeric isolator in the structural laboratory of the Université de Sherbrooke. The test procedure was to characterize the specimens by cyclic displacement controlled tests and subsequently to test them by real-time dynamic substructuring (RTDS) method. The test results were then used to establish a numerical model of the system which went through nonlinear time history analyses under several earthquakes. The outcome of the experimental and numerical showed an acceptable conformity with the simplified method.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cet essai a pour but d'élaborer un matériel didactique permettant l'apprentissage des premières habiletés numériques chez l'enfant vivant avec une déficience intellectuelle moyenne (DIM). La recension des écrits théoriques et expérimentaux effectuée par Brouillette (1994) sur l'acquisition des premières habiletés numériques chez des enfants vivant avec une déficience intellectuelle moyenne servira de base référentielle à la production de cet essai. En effet, nous nous servons du même cadre théorique basé sur le behaviorisme paradigmatique de Staats (1963, 1968, 1971, 1975) et nous utilisons les conclusions tirées des différents écrits de cette recension pour guider la création du matériel pédagogique. Nous désirons bâtir un matériel qui vise à faciliter l'apprentissage des premières habiletés numériques afin de favoriser l'intégration des domaines reliés à la gestion du temps, la gestion de l'argent et l'utilisation des nombres dans la vie quotidienne. Ces domaines, selon Ouellet (1993), permettent une meilleure intégration sociale des personnes DIM en favorisant le développement de l'autonomie fonctionnelle. Cet essai devra répondre à la question suivante : Quelles sont les activités pédagogiques appropriées à l'apprentissage des premières habiletés numériques pour un enfant vivant avec une déficience intellectuelle moyenne? Trois composantes dirigeront la préparation de cet outil pédagogique : la recension des écrits de Brouillette (1994), les programmes d'études adaptés du ministère de l'Éducation (1992) et l'expérience professionnelle de l’auteure.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette étude vise à établir des liens entre la situation de plafonnement de carrière et l'incongruence vocationnelle. De façon plus spécifique, il s'agit de vérifier, au moyen d'une étude, la relation entre la situation de plafonnement de carrière, largement étudiée jusqu'à présent par plusieurs auteurs et la congruence des intérêts. Ces auteurs s'interrogent sur la question des ressources humaines (tels par exemple Tremblay, Cardinal, Lamoureux, Hoyt, Charest) de laquelle, nous tenterons d'établir la congruence des intérêts professionnels en lien avec la typologie de Holland. Holland prévoit (6) six types: Réaliste (R), Investigateur (I), Artistique (A), Social (S), Entreprenant (E), et Conventionnel (C). Ces types peuvent être octroyés sur deux plans distinctifs. Il est en effet possible de définir le patron typologique sur les plans environnemental et individuel. C'est à partir de ces deux patrons typologiques, constitués de trois lettres, qu'on établira la correspondance entre les données provenant de l'individu et de l'environnement. C'est donc à partir de celles-ci que l'on peut calculer le niveau de congruence, en appliquant l'indice de lachan qui constitue une mesure de congruence. Deux instruments de mesure inclus dans une batterie d'inventaires seront donc proposés à soixante travailleurs de la Ville de Montréal. Il s'agit premièrement d'une grille d'évaluation élaborée à partir de critères spécifiques issus d'enquêtes différentes liées au plafonnement de carrière. L'instrument de mesure comporte sept échelles : le temps et l'âge, des informations relatives au travail, le positionnement par rapport aux collègues de travail, l'impact du changement sur l'individu, les rémunérations et • conditions salariales, la formation, les intérêts et loisirs reliées à la profession. Le plafonnement de carrière tel que nous le percevons, constitue un concept complexe nécessitant une vision systémique ; c'est-à-dire que le problème doit être considéré dans son ensemble, à savoir l'individu et son environnement. La deuxième étape consiste en la passation de l'inventaire des préférences professionnelles, abrégé (I.P.P.A.). Pour chacune des personnes évaluées, un patron typologique de l'environnement professionnel sera établi à partir du Codes Holland pour C. C. D. P. Les résultats obtenus par l'intermédiaire de l'I.P.P A. et transférés en types par l'intermédiaire du Guide : Codes Holland pour C.C.D.P., seront soumis à l'indice de lachan qui évalue la congruence entre deux séries de données. Le score du niveau de congruence sera par la suite confronté au score obtenu par l'intermédiaire de la grille/questionnaire par une simple corrélation. De cette façon, nous pourrons établir les liens et ainsi vérifier l'hypothèse de recherche. Cette recherche se propose donc d'identifier des plateaux de carrière à l'aide de la grille/questionnaire, pour ensuite vérifier s'il existe véritablement des liens entre la situation de plafonnement de carrière et la congruence d'intérêts. Cette démarche tend à confirmer l'hypothèse suivante : l'incongruence entre les intérêts individuels et ceux du milieu est responsable du plafonnement de carrière. En ce sens, elle entraîne entre autres une démotivation de l'individu à s'impliquer dans son travail, à mettre ses connaissances à jour. La présence du plafonnement de carrière peut décourager l'organisation et l'entourage immédiat de travail à justifier un accroissement des responsabilités ou toutes autres mobilités. Cette situation peut entraîner un malaise important tant chez l'employé que dans l'environnement de travail. La méthodologie proposée permet d'envisager la problématique sous différents angles, • étant donné que le plafonnement de carrière est à la fois la cause et l'effet d'un ensemble de facteurs difficilement mesurables.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les termes et les conditions de notre sécurité à tous, de nos rapports sociaux, politiques, économiques et de notre développement doivent être repensés et le temps nous semble compté. Les problèmes qui nous assaillent de toutes parts apparaissent parfois tellement définitifs qu'il ne faut pas s'étonner de voir notre société effectuer un repli narcissique. La tentation est grande, pour celui qui en a les moyens, de couper le contact et de bâtir, ailleurs, potager biologique et microcosme humanisé. Il pourrait d'ailleurs en émerger un modèle de société, à la mesure de l'homme, qui, ultimement, pourrait transformer l'ensemble des rapports humains, sociaux et politiques. Cette utopie, nous devons y travailler, et elle semble devoir passer dès maintenant par le potager biologique et le microcosme humanisé. Mais le problème global, planétaire, demeure entier. D'où l'importance inestimable, aussi, du mouvement pour la paix. Son étendue à travers le monde autorise peut-être à entretenir l'espoir que, pour paraphraser Albert Jacquard, à l'hominisation succédera l’humanisation. Cet espoir est peut-être encore plus fondé depuis que le thème de la paix a gagné les classes et les salles de cours d'un façon explicite et importante. L'enseignement relatif à la paix occupe une place importante au sein des efforts globaux de paix. Cet exposé porte sur les "études sur la paix". Par "études sur la paix", il faut entendre un ensemble de cours collégiaux et universitaires, parfois accompagnés d'activités ou de recherches, visant à explorer académiquement des connaissances, des habiletés et des valeurs pertinentes au problème global de la paix. Il s'agit d'un ensemble de cours spécifiques, mais ceux-ci s'inscrivent aussi dans une démarche globale qui peut pratiquement être assimilée à un "mouvement". La définition qui précède n'est, en fait, qu'exploratoire. L'objet, essentiel de ce mémoire est, justement, de décrire le plus adéquatement possible ce phénomène, ce qui n'est pas du tout évident à première vue. [...]

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le sujet abordé dans cette étude est celui des réactions de la société québécoise face à l'alcoolisme, ou plus précisément, face à la consommation abusive des boissons éthyliques avec les conséquences qui en découlent. Puisque l'alcoolisme existe ici comme ailleurs, et que chaque société de par la spécificité de son organisation sociale et de sa culture développe sa propre façon de voir ce problème et d'y faire face, nous nous sommes demandé quelles étaient les caractéristiques de la réponse québécoise à travers l'histoire. Il nous est apparu en tout premier lieu que la société québécoise avait réagi de façon plus tolérante que ses consoeurs nord-américaines au problème de la consommation abusive de l'alcool. À preuve, l'insuccès au Québec des mouvements de prohibition du 19e siècle qui embrasèrent toute l'Amérique du Nord. Ce trait particulier nous a incité à entreprendre une étude globale des réactions canadiennes-françaises au problème de l'alcoolisme. En remontant trois siècles d'histoire, nous nous sommes aperçu que, de façon intermittente, le problème de l'alcoolisme refaisait surface au sein de la société canadienne-française. Il nous est donc apparu que d'époque en époque la prise en charge du problème par les élites, et les moyens entrepris par les autorités pour s'attaquer au problème, traçaient assez fidèlement un portrait caractéristique de l'évolution de cette société à travers les diverses étapes de son histoire. La façon particulière de traiter du problème de l'alcoolisme, est-elle due au caractère distinct de cette société? Ou tout simplement, est-elle uniquement le résultat d'une appartenance religieuse différente? Ou faut-il chercher plutôt une explication d'ordre socio-économique? Ou encore, n'est-elle pas plus généralement le fruit d'une différence culturelle? Pour pousser plus à fond notre questionnement mais aussi, apporter des réponses à nos interrogations, nous avons cerné les différents intervenants impliqués dans le processus de résolution du problème de l'alcoolisme au Québec. Nous en concluons qu'il existe trois principaux types d'élites produisant le discours sur l'alcoolisme, soit: 1) le clergé catholique, 2) les hommes politiques et 3) le monde médical et scientifique. Il est important aussi de distinguer les mouvements sociaux qui développent leur propre discours à côté du discours élitaire. Le discours élitaire reflète l'organisation du pouvoir à diverses époques de notre histoire; clergé, État, communauté scientifique cherchent à imposer des solutions suivant des logiques qui leur sont propres. Pendant ce temps, les mouvements sociaux (mouvements de tempérance du 19e siècle, Lacordaire, Alcooliques Anonymes), font appel à la participation de la population impliquée. En principe les réponses viendraient cette fois de la base plutôt que de la tête du corps social. Mais ici aussi la logique de chaque mouvement est à la fois très distincte et très révélatrice de la spécificité d'une époque particulière dans l'évolution de l'organisation sociale et de la culture québécoise. Une fois ces intervenants bien identifiés, nous nous sommes attardé à étudier les différentes formes de discours véhiculées par ces intervenants, histoire de mieux comprendre leurs agissements en regard de l'idéologie sous-jacente au discours. Notre but: par le biais de l'histoire des idéologies faire progresser notre connaissance du phénomène de l'alcoolisme au Québec en cherchant à en spécifier les grandes caractéristiques. Pour atteindre notre but, nous avons conçu une problématique pouvant servir à l'analyse des réactions canadiennes-françaises face au problème de l'alcoolisme. Nous chercherons premièrement, à travers l'histoire de la société canadienne-française, les moments où la question de l'alcoolisme a pris une importance inhabituelle afin d'établir le phénomène de récurrence. Nous nous intéressons à voir, chaque fois que ce problème prend de l'importance, quels sont les acteurs, quel est le type de discours, quel est le degré d'implication de la population en général. Nous nous intéressons aussi à voir s'il y a développement ou changement à ce sujet. Chaque fois que le problème refait surface, reprend-on des éléments du discours de la dernière grande vague d'intérêt en les développant ou recommence-t-on à rendre compte du phénomène suivant une toute nouvelle logique? Pour mener à bien notre entreprise, nous avons divisé notre travail en cinq chapitres, chacun abordant une ou plusieurs formes de discours et un ou plusieurs types d'interventions. Nous avons choisi de commencer notre étude en 1660, parce qu'à cette date le phénomène de l'alcoolisme en colonie, particulièrement chez les tribus amérindiennes, se fait plutôt virulent, provoquant, de fait, un cri d'alarme de l'évêque auprès des autorités civiles. Et, nous terminerons cette étude en démontrant, l'impuissance de la médecine et de la science, au début des années 1980, à bien saisir le problème. [...]

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les techniques d'imagerie développées pour la surveillance embarquée des structures ont maintenant des applications dans d'autres domaines. Par exemple, le domaine de l'écran tactile est en pleine expansion et de nouvelles technologies commencent à apparaître pour des applications spécifiques. Au niveau médical, des surfaces tactiles pouvant fournir des données sur la répartition du poids et la posture seraient une avancée pour le diagnostique des patients et la recherche. L'écran tactile est une technologie utilisée dans un nombre croissant d'appareils. Les écrans tactiles capacitifs et résistifs dominent le marché, mais ils sont connus pour être difficiles à fabriquer, facilement cassables et coûteux pour les grandes dimensions. Par conséquent, de nouvelles technologies sont encore explorées pour les écrans tactiles de grandes tailles et robustes. Les technologies candidates comprennent des approches basées sur les ondes. Parmi eux, des ondes guidées sont de plus en plus utilisés dans la surveillance des structures (SHM) pour de nombreuses applications liées à la caractérisation des propriétés des matériaux. Les techniques d'imagerie utilisées en SHM telles que Embedded Ultrasonic Structural Radar (EUSR) et Excitelet sont fiables, mais elles ont souvent besoin d'être couplées avec du traitement d'image pour donner de bons résultats. Dans le domaine du NDT (essais non destructifs), les ondes guidées permettent d'analyser les structures sans les détériorer. Dans ces applications, les algorithmes d'imagerie doivent pouvoir fonctionner en temps réel. Pour l'écran tactile, une technique d'imagerie de la pression en temps réel doit être développée afin d'être efficace et performante. Il faut obtenir la position et l'amplitude de la pression appliquée en un ou plusieurs points sur une surface. C'est ici que les algorithmes et l'expertise par rapport aux ondes guidées seront mises de l'avant tout pensant à l'optimisation des calculs afin d'obtenir une image en temps réel. Pour la méthodologie, différents algorithmes d'imagerie sont utilisés pour obtenir des images de déformation d'un matériau et leurs performances sont comparées en termes de temps de calcul et de précision. Ensuite, plusieurs techniques de traitement d'images ont été implantées pour comparer le temps de calcul en regard de la précision dans les images. Pour l'écran tactile, un prototype est conçu avec un programme optimisé et les algorithmes offrant les meilleures performances pour un temps de calcul réduit. Pour la sélection des composantes électroniques, ce sont la vitesse d'exécution et la définition d'image voulues qui permettent d'établir le nombre d'opérations par seconde nécessaire.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dans le cadre du présent travail, nous examinons les présentations de sensibilisation effectuées à l’ASTROLab, par l’entremise d’une enquête terrain. Nous étudions ces présentations sous divers angles qui s’entrecroisent : les stratégies de communication existantes (tant de vulgarisation que de persuasion ou de communication environnementale), les processus de l’impact persuasif et de la modification comportementale et les caractéristiques du comportement modifiable. Les questions auxquelles nous tentons de répondre avec cette étude concernent les stratégies de vulgarisation scientifique utilisées à l’ASTROLab contribuant efficacement à la modification comportementale ainsi que la corrélation entre la promotion de l’information et l’action. L’observation des groupes ainsi que deux sondages, en deux temps, ont permis de ressortir des résultats qualitatifs et quantitatifs. Nous avons constaté que la principale stratégie de vulgarisation scientifique efficace pour la modification comportementale est celle qui repose sur les caractéristiques du comportement modifiable. L’exemplification semble aussi avoir porté fruit, mais de façon moins évidente. Le visuel et la clarté des termes ainsi que la crédibilité et l’humour ont participé à la compréhension et à la persuasion, tout comme la stratégie de l’appel à l’émotion, qui a aussi contribué à l’attention. Bien sûr, la persuasion, et par ricochet la rétention de l’information, est en grande partie responsable de la modification comportementale. La rétention a été consolidée grâce au visuel, à l’exemplarité et au récit, ainsi qu’un peu grâce à l’appel à l’émotion et à la comparaison. L’humour y a également joué un rôle, en aidant à conserver l’attention. Nos résultats démontrent que seulement 32 % des participantes et participants en sont à l’étape de l’action et qu’environ 90 % des gens étudiés affirment avoir transmis l’information acquise. Ce constat porte à croire que l’étape de la promotion de l’information n’est pas nécessairement précédée d’actions tangibles, mais minimalement d’intention d’action. À partir de l’étude menée, nous formulons cinq recommandations à l’intention des vulgarisateurs afin de pallier les facteurs limitants. Un des principaux facteurs limitants à l’action a été l’impuissance des participantes et participants. Nous constatons aussi que, dans le processus de l’impact persuasif, l’étape de la rétention est celle qui a le plus posé problème. Nos recherches théoriques n’étaient pas précisément tournées vers les stratégies de rétention de l’information, à part pour les méthodes comme le visuel, l’expérience ou l’humour. Il serait pertinent de refaire une étude qui permettrait d’approfondir les assises théoriques reliées à la mémorisation d’information, afin de diriger autrement la méthodologie ou l’analyse des résultats, et d’en arriver à des recommandations utiles à ce sujet.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette thèse traite de la modélisation numérique de la réponse vibro-acoustique de structures sandwiches-composites avec matériaux viscoélastiques intégrés soumises à différents types d’excitations mécaniques et acoustiques. Dans une première phase, nous avons utilisé une approche de synthèse modale pour calculer les principaux indicateurs vibro-acoustiques de la structure : la vitesse quadratique, la puissance rayonnée, la perte par transmission…Ensuite, l’intégrale de Rayleigh a été exploitée pour calculer la puissance rayonnée de chaque structure. L’obstacle majeur que nous avons alors surmonté, était de gérer efficacement la dépendance en fréquence des propriétés de la couche viscoélastique dans l’approche de synthèse modale. Dans une second phase, en partant du champ vibratoire calculé dans la première étape, nous avons développé une méthode hybride FEM-TMM (méthode des éléments finis – méthode de matrices de transfert) pour prédire avec précision et en un temps de calcul acceptable, et jusqu’en hautes fréquences, les principaux paramètres de conception vibro-acoustique de ces structures, notamment l’amortissement équivalent et les nombres d’ondes suivant les deux directions spatiales x et y de propagation de l’onde acoustique. Les validations numériques que nous avons effectuées, montrent bien la robustesse de l'algorithme que nous avons développé. Ce dernier reste toutefois limité à des structures planes. Dans une troisième phase de ce travail, une étude paramétrique sur l’effet de l’emplacement et de la forme de la couche viscoélastique a été réalisée. Cette étude a été faite en se servant de la méthode hybride FEM-TMM pour calculer la réponse acoustique (puissance transmise et perte par transmission).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le laboratoire DOMUS développe des applications pour assister les personnes en perte d'autonomie et les personnes avec des troubles cognitifs. Chaque application est ou a déjà été le sujet de plusieurs études d'utilisabilité qui permettent de les améliorer. Ces études prennent beaucoup de temps à mettre en place, car l'on rencontre souvent des problèmes de logistique (format et sensibilité des données, chercheurs répartis sur une grande aire géographique). C'est pourquoi un outil appelé GEDOPAL a été développé. Il permet de partager entre chercheurs de différents centres les données créées et utilisées lors de la mise en place des études d'utilisabilité. La conception et la réalisation de cet outil ont nécessité une réflexion en amont sur la nature et la sensibilité de ces données. Cette réflexion est l'objet du Chapitre 3. Ces études prennent aussi beaucoup de temps lors de l'analyse des résultats. De plus, certaines données créées lors de ces études, telles que les traces d'utilisation ont des volumétries trop importantes pour être analysées manuellement. C'est pourquoi nous avons créé un processus permettant d'analyser ces traces d'utilisation pour y détecter les erreurs utilisateurs dans l'espoir de les relier à des problèmes d'utilisabilité. Ce processus se compose de deux parties : la première est une analyse formelle de l'application, qui sera présentée au Chapitre 4, et la seconde l'application d'un outil d'apprentissage automatique aux traces d'utilisation pour y détecter les erreurs utilisateurs. Cet outil est présenté au Chapitre 5.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Résumé : Une dysrégulation de la lipolyse des tissus adipeux peut conduire à une surexposition des tissus non-adipeux aux acides gras non-estérifiés (AGNE), qui peut mener à un certain degré de lipotoxicité dans ces tissus. La lipotoxicité constitue, par ailleurs, l’une des causes majeures du développement de la résistance à l’insuline et du diabète de type 2. En plus de ses fonctions glucorégulatrices, l’insuline a pour fonction d’inhiber la lipolyse et donc de diminuer les niveaux d’AGNE en circulation, prévenant ainsi la lipotoxicité. Il n’y a pas d’étalon d’or pour mesurer la sensibilité de la lipolyse à l’insuline. Le clamp euglycémique hyperinsulinémique constitue la méthode étalon d’or pour évaluer la sensibilité du glucose à l’insuline mais il est aussi utilisé pour mesurer la suppression de la lipolyse par l’insuline. Par contre, cette méthode est couteuse et laborieuse, et ne peut pas s’appliquer à de grandes populations. Il existe aussi des indices pour estimer la fonction antilipolytique de l’insuline dérivés de l’hyperglycémie provoquée par voie orale (HGPO), un test moins dispendieux et plus simple à effectuer à grande échelle. Cette étude vise donc à : 1) Étudier la relation entre les indices de suppressibilité des AGNE par l’insuline dérivés du clamp et ceux dérivés de l’HGPO; et 2) Déterminer laquelle de ces mesures corrèle le mieux avec les facteurs connus comme étant reliés à la dysfonction adipeuse : paramètres anthropométriques et indices de dysfonction métabolique. Les résultats montrent que dans le groupe de sujets étudiés (n=29 femmes, 15 témoins saines et 14 femmes avec résistance à l’insuline car atteintes du syndrome des ovaires polykystiques), certains indices de sensibilité à l’insuline pour la lipolyse dérivés de l’HGPO corrèlent bien avec ceux dérivés du clamp euglycémique hyperinsulinémique. Parmi ces indices, celui qui corrèle le mieux avec les indices du clamp et les paramètres anthropométriques et de dysfonction adipeuse est le T50[indice inférieur AGNE] (temps nécessaire pour diminuer de 50% le taux de base – à jeun – des AGNE). Nos résultats suggèrent donc que l’HGPO, facile à réaliser, peut être utilisée pour évaluer la sensibilité de la lipolyse à l’insuline. Nous pensons que la lipo-résistance à l’insuline peut être facilement quantifiée en clinique humaine.