987 resultados para valeur diagnostique


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire présente la conception, le contrôle et la validation expérimentale d’une boussole haptique servant à diriger les utilisateurs aux prises avec une déficience visuelle, et ce, dans tous les environnements. La revue de littérature décrit le besoin pour un guidage haptique et permet de mettre en perspective cette technologie dans le marché actuel. La boussole proposée utilise le principe de couples asymétriques. Son design est basé sur une architecture de moteur à entraînement direct et un contrôle en boucle ouverte étalonné au préalable. Cette conception permet d’atteindre une vaste plage de fréquences pour la rétroaction haptique. Les propriétés mécaniques de l’assemblage sont évaluées. Puis, l’étalonnage des couples permet d’assurer que le contrôle en boucle ouverte produit des couples avec une précision suffisante. Un premier test avec des utilisateurs a permis d’identifier que les paramètres de fréquence entre 5 et 15 Hz combinés avec des couples au-delà de 40 mNm permettent d’atteindre une efficacité intéressante pour la tâche. L’expérience suivante démontre qu’utiliser une rétroaction haptique proportionnelle à l’erreur d’orientation améliore significativement les performances. Le concept est ensuite éprouvé avec dix-neuf sujets qui doivent se diriger sur un parcours avec l’aide seule de cette boussole haptique. Les résultats montrent que tous les sujets ont réussi à rencontrer tous les objectifs de la route, tout en maintenant des déviations latérales relativement faibles (0:39 m en moyenne). Les performances obtenues et les impressions des utilisateurs sont prometteuses et plaident en faveur de ce dispositif. Pour terminer, un modèle simplifié du comportement d’un individu pour la tâche d’orientation est développé et démontre l’importance de la personnalisation de l’appareil. Ce modèle est ensuite utilisé pour mettre en valeur la stratégie d’horizon défilant pour le placement de la cible intermédiaire actuelle dans un parcours sur une longue distance.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Après une période où la valeur des quotas laitiers a été en forte croissance au Québec, un plafond à cette valeur a été fixé à compter de 2007. Ce plafond a eu pour effet de limiter l’offre de quota sur le marché et la croissance de la taille des entreprises laitières québécoises. Cette situation soulève un questionnement sur l’efficience économique, le blocage de la croissance des entreprises les empêchant de bénéficier d’économies de taille, si bien entendu il en existe. En conséquence, cette étude s’intéresse aux économies de taille en production laitière en Amérique du Nord. Les économies de taille des entreprises ont été mesurées à l’aide d’une régression linéaire multiple à partir de certains indicateurs de coût monétaire et non monétaire. Cette analyse comprend quatre strates de taille formées à partir d’un échantillon non aléatoire de 847 entreprises du Québec, de l’État de New York et de la Californie, ainsi qu’à partir d’un groupe d’entreprises efficientes (groupe de tête). Les résultats démontrent l’existence d’économies de taille principalement au niveau des coûts fixes et plus particulièrement des coûts fixes non monétaires. Ils révèlent aussi que les deux indicateurs où l’effet des économies de taille est le plus important sont le coût du travail non rémunéré et l’amortissement. Par ailleurs, lorsque la taille d’une entreprise augmente, les économies de taille supplémentaires réalisées deviennent de moins en moins importantes. Enfin, les résultats indiquent qu’il existe des déséconomies de taille au niveau des coûts d’alimentation. Les résultats obtenus au niveau du groupe de tête vont dans le même sens. Ils confirment également qu’il est possible pour les grandes entreprises efficientes de réaliser des économies de taille pour la plupart des indicateurs de coût. Toutefois, les économies additionnelles que ces entreprises peuvent réaliser sont moins importantes que celles obtenues par les petites entreprises efficientes. Mots clés : Agriculture, production laitière, Amérique du Nord, économies de taille, efficience économique, régression linéaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le contexte de ce projet de recherche est celui de la stabilité des barrages-poids et aborde le besoin d’évaluation de la résistance de l’interface béton-rocher. Puisqu’il est techniquement difficile d’évaluer si l’interface est liée ou non, la cohésion réelle et sa contribution à la résistance au cisaillement sont souvent négligées et ce sujet précis est peu abordé dans la littérature. Un lien direct peut être fait entre cette non-considération et des travaux de stabilisation réalisés sur des ouvrages hydrauliques. Cette étude a comme objectif la caractérisation de la cohésion réelle dans le but de déterminer s’il est sécuritaire d’incorporer sa contribution dans l’évaluation de stabilité des barrages-poids. Pour ce faire, il est nécessaire d’évaluer les comportements en traction et en cisaillement de l’interface et d’analyser comment ils sont affectés par des paramètres importants telle la rugosité de l’interface. Cette caractérisation est faite à l’aide d’un programme expérimental sur 66 répliques d’interfaces béton-rocher en mortier. La rugosité est évaluée à l’aide d’un profilomètre laser et du paramètre Z2. Les répliques ont fait l’objet d’essais de traction directe, de traction par pression de fluide et de cisaillement direct. L’influence de la rugosité d’interface et de la résistance à la compression uniaxiale (UCS) des matériaux sur les résistances à la traction et au cisaillement est évaluée grâce à l’analyse des variances (ANOVA). Des essais supplémentaires ont permis d’approfondir la compréhension du mécanisme de rupture en cisaillement. Les résultats indiquent une résistance à la traction moyenne de l’interface liée de 0,62 MPa et une cohésion (en cisaillement) moyenne de 3,1 MPa. L’ANOVA montre une augmentation significative de la résistance à la traction avec la rugosité et une augmentation significative de la résistance au cisaillement au pic avec la rugosité, l’UCS et la contrainte normale. Il a aussi été observé que le pas d’échantillonnage a un impact important sur la valeur de Z2. Les résultats suggèrent qu’une valeur minimale de cohésion de 100 à 200 kPa pourrait être utilisée dans la mesure où il peut être démontré que l’interface est liée. Cette condition pourrait d’ailleurs constituer un sujet de recherche s’inscrivant dans la continuité des travaux réalisés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le bois subit une demande croissante comme matériau de construction dans les bâtiments de grandes dimensions. Ses qualités de matériau renouvelable et esthétique le rendent attrayant pour les architectes. Lorsque comparé à des produits fonctionnellement équivalents, il apparait que le bois permet de réduire la consommation d’énergie non-renouvelable. Sa transformation nécessite une quantité d’énergie inférieure que l’acier et le béton. Par ailleurs, par son origine biologique, une structure en bois permet de stocker du carbone biogénique pour la durée de vie du bâtiment. Maintenant permis jusqu’à six étages de hauteur au Canada, les bâtiments de grande taille en bois relèvent des défis de conception. Lors du dimensionnement des structures, les zones des connecteurs sont souvent les points critiques. Effectivement, les contraintes y sont maximales. Les structures peuvent alors apparaitre massives et diminuer l’innovation architecturale. De nouvelles stratégies doivent donc être développées afin d’améliorer la résistance mécanique dans les zones de connecteurs. Différents travaux ont récemment porté sur la création ou l’amélioration de types d’assemblage. Dans cette étude, l’accent est mis sur le renforcement du bois utilisé dans la région de connexion. L’imprégnation a été choisie comme solution de renfort puisque la littérature démontre qu’il est possible d’augmenter la dureté du bois avec cette technique. L’utilisation de cette stratégie de renfort sur l’épinette noire (Picea Mariana (Mill.) BSP) pour une application structurale est l’élément de nouveauté dans cette recherche. À défaut d’effectuer une imprégnation jusqu’au coeur des pièces, l’essence peu perméable de bois employée favorise la création d’une mince couche en surface traitée sans avoir à utiliser une quantité importante de produits chimiques. L’agent d’imprégnation est composé de 1,6 hexanediol diacrylate, de triméthylopropane tricacrylate et d’un oligomère de polyester acrylate. Une deuxième formulation contenant des nanoparticules de SiO2 a permis de vérifier l’effet des nanoparticules sur l’augmentation de la résistance mécanique du bois. Ainsi, dans ce projet, un procédé d’imprégnation vide-pression a servi à modifier un nouveau matériau à base de bois permettant des assemblages plus résistants mécaniquement. Le test de portance locale à l’enfoncement parallèle au fil d’un connecteur de type tige a été réalisé afin de déterminer l’apport du traitement sur le bois utilisé comme élément de connexion. L’effet d’échelle a été observé par la réalisation du test avec trois diamètres de boulons différents (9,525 mm, 12,700 mm et 15,875 mm). En outre, le test a été effectué selon un chargement perpendiculaire au fil pour le boulon de moyen diamètre (12,700 mm). La corrélation d’images numériques a été utilisée comme outil d’analyse de la répartition des contraintes dans le bois. Les résultats ont démontré une portance du bois plus élevée suite au traitement. Par ailleurs, l’efficacité est croissante lorsque le diamètre du boulon diminue. C’est un produit avec une valeur caractéristique de la portance locale parallèle au fil de 79% supérieure qui a été créé dans le cas du test avec le boulon de 9,525 mm. La raideur du bois a subi une augmentation avoisinant les 30%. Suite au traitement, la présence d’une rupture par fissuration est moins fréquente. Les contraintes se distribuent plus largement autour de la région de connexion. Le traitement n’a pas produit d’effet significatif sur la résistance mécanique de l’assemblage dans le cas d’un enfoncement du boulon perpendiculairement au fil du bois. De même, l’effet des nanoparticules en solution n’est pas ressorti significatif. Malgré une pénétration très faible du liquide à l’intérieur du bois, la couche densifiée en surface créée suite au traitement est suffisante pour produire un nouveau matériau plus résistant dans les zones de connexion. Le renfort du bois dans la région des connecteurs doit influencer le dimensionnement des structures de grande taille. Avec des éléments de connexion renforcés, il sera possible d’allonger les portées des poutres, multipliant ainsi les possibilités architecturales. Le renfort pourra aussi permettre de réduire les sections des poutres et d’utiliser une quantité moindre de bois dans un bâtiment. Cela engendrera des coûts de transport et des coûts reliés au temps d’assemblage réduits. De plus, un connecteur plus résistant permettra d’être utilisé en moins grande quantité dans un assemblage. Les coûts d’approvisionnement en éléments métalliques et le temps de pose sur le site pourront être revus à la baisse. Les avantages d’un nouveau matériau à base de bois plus performant utilisé dans les connexions permettront de promouvoir le bois dans les constructions de grande taille et de réduire l’impact environnemental des bâtiments.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé : La capacité de décider parmi plusieurs possibilités d'actions, grâce à l'information sensorielle disponible, est essentielle à un organisme interagissant avec un environnement complexe. Les modèles actuels de sélection d'une action soutiennent que le cerveau traite continuellement l'information sensorielle afin de planifier plusieurs possibilités d'action en parallèle. Dans cette perspective, ces représentations motrices, associées à chaque possibilité d'action, sont en constante compétition entre elles. Afin qu'une alternative puisse être sélectionnée pour le mouvement, une valeur de pondération, intégrant une multitude de facteurs, doit être associée à chacun des plans moteurs afin de venir moduler la compétition. Plusieurs études se sont intéressées aux différents facteurs modulant la sélection de l'action, tels que la disposition de l'environnement, le coût des actions, le niveau de récompense, etc. Par contre, il semble qu'aucune étude n'ait rapporté ce qu'il advient lorsque la valeur de pondération de chacune des actions possibles est identique. Dans ce contexte, quel est l'élément permettant de venir moduler la sélection de l'action? De ce fait, l'objectif principal de mon projet de maitrise est d'investiguer le facteur permettant au cerveau de sélectionner une action lorsque tous les facteurs rapportés dans la littérature sont contrôlés. De récentes données ont montré que les oscillations corticales lentes dans la bande delta peuvent servir d'instrument de sélection attentionnelle en modulant l'amplitude de la réponse neuronale. Ainsi, les stimuli arrivant dans le cortex pendant une phase en delta de forte excitabilité sont amplifiés, tandis que ceux arrivant lors d'une phase en delta de faible excitabilité sont atténués. Ceci dit, il est possible que la phase en delta dans laquelle se trouve le cerveau au moment d'effectuer la sélection d'une action puisse influencer la décision. Utilisant une tâche de sélection de main, cette étude teste l'hypothèse que la sélection de la main est associée à la phase en delta des ensembles neuronaux codant le mouvement de chacune des mains, lorsque tous les facteurs connus influençant la décision sont contrôlés. L'électroencéphalographie (EEG) fut utilisée afin d'enregistrer les signaux corticaux pendant que les participants effectuaient une tâche de sélection de main dans laquelle ils devaient, à chaque essai, atteindre une cible visuelle aussi rapidement que possible en utilisant la main de leur choix. La tâche fut conçue de façon à ce que les facteurs spatiaux et biomécaniques soient contrôlés. Ceci fut réalisé enidentifiant premièrement, sur une base individuelle, l'emplacement de la cible pour laquelle les mains droite et gauche avaient une probabilité équivalente d'être choisies (point d'égalité subjective, PSE). Ensuite, dans l'expérience principale, les participants effectuaient plusieurs mouvements d'atteinte vers des cibles positionnées près et loin du PSE, toujours avec la main de leur choix. L'utilisation de cinq cibles très près du PSE a permis de collecter de nombreux essais dans lesquels la main droite et la main gauche furent sélectionnées en réponse à un même stimulus visuel. Ceci a ainsi permis d'analyser les signaux des deux cortex dans des conditions d'utilisation de la main droite et gauche, tout en contrôlant pour les autres facteurs pouvant moduler la sélection de la main. Les résultats de cette recherche révèlent que l'hémisphère cortical se trouvant dans la phase la plus excitable en delta (près du pic négatif), lors de l'apparition du stimulus, est associé à la fois à la main qui sera sélectionnée ainsi qu'au temps de réaction. Ces résultats montrent que l'excitabilité corticale momentanée (phase du signal) pourrait agir comme un facteur modulant la sélection d'une action. Dans cette optique, ces données élargissent considérablement les modèles actuels en montrant que la sélection d'une action est en partie déterminée par l'état du cerveau au moment d'effectuer un choix, d'une manière qui est indépendante de toutes les variables de décision connues.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les services écologiques sont essentiels au maintien de la vie humaine sur terre, puisqu’entre autres, ils participent à la production d’oxygène, de nourriture et de matériaux divers, régulent les cycles de l’eau et des nutriments et contribuent au bien-être humain ; ces services nous sont fournis depuis toujours, gratuitement et continuellement. Toutefois, les activités humaines compromettent de plus en plus ces services écologiques en déréglant les processus écologiques qui en sont à l’origine. Dans les paysages agricoles, les perturbations anthropiques sont connues pour affecter grandement la biodiversité et les services écologiques. L’intensification agricole ainsi que la perte et la fragmentation des habitats naturels menacent notamment les services de pollinisation, lesquels permettent la production de fruits et de graines, pour la reproduction des plantes et la consommation humaine. Cet essai évalue la perspective du service de pollinisation dans le cas précis du café en Mésoamérique. Le premier objectif de cet essai est de déterminer les enjeux écologiques, économiques et sociaux auxquels sont liés les pollinisateurs et la production durable et rentable de café. Le deuxième objectif de cet essai est d’identifier les mécanismes expliquant comment certains facteurs clés de la biodiversité et de l’aménagement peuvent augmenter les rendements du café à travers sa pollinisation par les abeilles. Le troisième objectif de cet essai est de proposer des mesures d’aménagement qui permettent d’intégrer davantage les pollinisateurs aux exploitations de café. Le quatrième et dernier objectif consiste à développer et prioriser des stratégies locales et régionales, qui puissent concilier l’application de ces mesures d’aménagement avec les réalités économiques et sociales. La revue de la littérature a permis de constater qu’en Mésoamérique, ce sont à la fois les populations d’abeilles sauvages et domestiques qui assurent la pollinisation du café. Ces insectes sont sensibles à la perturbation de leurs habitats, bien que certains soient plus tolérants que d’autres. De fait, l’aménagement local et l’aménagement régional peuvent soit bénéficier, soit nuire à la biodiversité d’abeilles et au service de pollinisation du café. Au niveau local, les systèmes agroforestiers de café, malgré de plus faibles rendements en comparaison à des monocultures intensives, sont plus résilients et maintiennent un service de pollinisation de qualité. Ils doivent donc être encouragés pour ne pas accentuer la dépendance des exploitations agricoles à des intrants externes (engrais, pesticides, herbicides, main d’œuvre supplémentaire ou mécanisation de l’agriculture) qui deviennent nécessaires pour compenser la perte des services écologiques et maintenir de hauts rendements. Au niveau régional, la forêt est essentielle au maintien de communautés de pollinisateurs abondants et riches en espèces. À l’échelle du paysage, des efforts doivent donc être investis pour préserver des habitats naturels de qualité et limiter l’isolement des exploitations de café. Cela est particulièrement vrai dans les paysages tropicaux où, contrairement aux paysages tempérés, il reste une proportion importante d’habitats naturels encore préservés. Ces habitats naturels et les terres destinées à d’autres usages (agriculture, élevage, etc.) forment une mosaïque complexe, si bien que l’aménagement du territoire soulève des enjeux majeurs aux niveaux politiques et institutionnels. Des efforts diversifiés sont donc nécessaires pour développer des solutions efficaces qui bénéficient durablement aux petits producteurs de café. Pour cela, il est essentiel que tous les membres de la chaîne de valeur du café soient des parties prenantes actives dans ces efforts. De l’échelle locale à l’échelle régionale, les producteurs, les coopératives, les gouvernements et les consommateurs ont tous une influence sur l’aménagement des paysages agricoles de café et sur les modes de vie ruraux. Bien que le rôle des insectes pollinisateurs dans l’augmentation des rendements soit reconnu, leur conservation requiert de meilleurs prix pour le café quand il est cultivé de façon respectueuse de la biodiversité, ainsi que des subventions directes pour préserver les forêts aux abords des exploitations et empêcher leur conversion en terres agricoles. À condition d’être ciblée et concertée, l’application de ces stratégies d’aménagement devrait permettre de maintenir le service de pollinisation du café en Mésoamérique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’eau est un enjeu majeur en environnement autant d’un point de vue de sa qualité que de sa quantité. Cependant, des pénuries d’eau douce se font de plus en plus sentir à travers le monde. Par ailleurs, les États-Unis n’en sont pas exemptés. En effet, l’ouest du pays constate que les réserves diminuent constamment. Dans le passé, une compagnie californienne s’était déjà tournée vers le Canada afin d’en acheter une certaine quantité en vrac dans le dessein d’en assurer son approvisionnement. Le Québec, étant un voisin des Américains, ne peut se permettre d’écarter la question de l’exportation d’eau en vrac, d’autant plus qu’il est évident qu’une activité de cette envergure crée des impacts sur l’environnement et la société. C’est pourquoi cet essai a pour objectif d’identifier si la vente de l’eau douce en vrac du Québec vers les États-Unis implique des conséquences pour les citoyens québécois. Une analyse multicritère a été réalisée afin d’atteindre l’objectif principal de cet l’essai. Cette dernière consiste en l’évaluation des différents aspects de l’exportation d’eau douce selon une optique sociale. Ainsi, neuf critères ont été créés. Ils sont répartis en quatre catégories, soit sociale, économique, législative et les relations internationales. Suite aux résultats obtenus lors de l’évaluation des critères, il est possible d’affirmer que la vente de l’eau québécoise aurait des incidences sur la population. Cette analyse nous permet de conclure que, d’un côté, les citoyens accordent une grande valeur à la ressource et qu’ils seraient plutôt d’accord à exporter l’eau. Néanmoins, d’un autre côté, les critères concernant la relation de pouvoir entre le pays amont et celui aval ainsi que les conséquences qu’implique l’Accord de libre-échange nord-américain viennent causer des répercussions négatives pour les citoyens. Les principales conséquences négatives concernent davantage le milieu international. Par contre, le Québec a peu ou pas d’influence à ce niveau, c’est pourquoi l’ensemble des recommandations effectuées porte sur des dispositions que la province pourrait envisager à l’interne afin de limiter les incidences sur sa population et son environnement. L’accent est donc mis sur des mesures permettant de mieux gérer la ressource et de la consommer de manière responsable. Ainsi, il est recommandé de mettre en place une gestion intégrée de l’eau par bassin versant, de fixer une quantité maximale pour l’exportation, d’installer des compteurs d’eau, de revoir la facturation de l’eau et, finalement, communiquer l’information aux citoyens dans l’optique de les renseigner, mais aussi de les impliquer dans la protection de l’eau au Québec.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En l’absence de mesure précise et unique de l’efficience pour les joueurs de hockey, la présente étude a pour objectifs d’évaluer l’efficience des joueurs dans la Ligue Nationale de Hockey (LNH) et de montrer comment celle-ci peut affecter la décision de racheter le contrat d’un joueur. Pour ce faire, les statistiques individuelles des joueurs de la LNH pour les saisons 2007-2008 à 2010-2011 sont utilisées. Pour estimer l’efficience, la méthode de l’enveloppement de données (DEA) avec bootstrap est utilisée. Les inputs incluent le salaire et le nombre de minutes de jeu, alors que les outputs incluent la contribution défensive et offensive de chaque joueur. Pour estimer l’association entre l’efficience individuelle et la probabilité d’un rachat de contrat, une régression logistique est utilisée. L’analyse des données montre que parmi 3 159 observations, l’efficience moyenne est de 0,635. L’efficience moyenne est similaire pour toutes les positions et toutes les saisons. Un lien positif et fort est trouvé entre le nombre de points au classement général d’une équipe et l’efficience moyenne des joueurs qui la compose (coefficient de corrélation=0,43, valeur-p<0,01). Les joueurs avec une efficience plus élevée ont une probabilité plus faible de voir leur contrat racheté (rapport des chances=0,01, valeur-p<0,01). La présente étude conclut donc que la plupart des joueurs de hockey dans la LNH ont un degré d’inefficience non négligeable, qu’une efficience plus élevée est associée à une meilleure performance au niveau de l’équipe et que les joueurs efficients ont une probabilité plus faible de voir leur contrat racheté.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La compréhension et la modélisation de l’interaction de l’onde électromagnétique avec la neige sont très importantes pour l’application des technologies radars à des domaines tels que l’hydrologie et la climatologie. En plus de dépendre des propriétés de la neige, le signal radar mesuré dépendra aussi des caractéristiques du capteur et du sol. La compréhension et la quantification des différents processus de diffusion du signal dans un couvert nival s’effectuent à travers les théories de diffusions de l’onde électromagnétique. La neige, dans certaines conditions, peut être considérée comme un milieu dense lorsque les particules de glace qui la composent y occupent une fraction volumique considérable. Dans un tel milieu, les processus de diffusion par les particules ne se font plus de façon indépendante, mais de façon cohérente. L’approximation quasi-cristalline pour les milieux denses est une des théories élaborées afin de prendre en compte ces processus de diffusions cohérents. Son apport a été démontré dans de nombreuses études pour des fréquences > 10 GHz où l’épaisseur optique de la neige est importante et où la diffusion de volume est prédominante. Par contre, les capteurs satellitaires radar présentement disponibles utilisent les bandes L (1-2GHz), C (4-8GHz) et X (8-12GHz), à des fréquences principalement en deçà des 10 GHz. L’objectif de la présente étude est d’évaluer l’apport du modèle de diffusion issu de l’approximation quasi-cristalline pour les milieux denses (QCA/DMRT) dans la modélisation de couverts de neige sèches en bandes C et X. L’approche utilisée consiste à comparer la modélisation de couverts de neige sèches sous QCA/DMRT à la modélisation indépendante sous l’approximation de Rayleigh. La zone d’étude consiste en deux sites localisés sur des milieux agricoles, près de Lévis au Québec. Au total 9 champs sont échantillonnés sur les deux sites afin d’effectuer la modélisation. Dans un premier temps, une analyse comparative des paramètres du transfert radiatif entre les deux modèles de diffusion a été effectuée. Pour des paramètres de cohésion inférieurs à 0,15 à des fractions volumiques entre 0,1 et 0,3, le modèle QCA/DMRT présentait des différences par rapport à Rayleigh. Un coefficient de cohésion optimal a ensuite été déterminé pour la modélisation d’un couvert nival en bandes C et X. L’optimisation de ce paramètre a permis de conclure qu’un paramètre de cohésion de 0,1 était optimal pour notre jeu de données. Cette très faible valeur de paramètre de cohésion entraîne une augmentation des coefficients de diffusion et d’extinction pour QCA/DMRT ainsi que des différences avec les paramètres de Rayleigh. Puis, une analyse de l’influence des caractéristiques du couvert nival sur les différentes contributions du signal est réalisée pour les 2 bandes C et X. En bande C, le modèle de Rayleigh permettait de considérer la neige comme étant transparente au signal à des angles d’incidence inférieurs à 35°. Vu l’augmentation de l’extinction du signal sous QCA/DMRT, le signal en provenance du sol est atténué d’au moins 5% sur l’ensemble des angles d’incidence, à de faibles fractions volumiques et fortes tailles de grains de neige, nous empêchant ainsi de considérer la transparence de la neige au signal micro-onde sous QCA/DMRT en bande C. En bande X, l’augmentation significative des coefficients de diffusion par rapport à la bande C, ne nous permet plus d’ignorer l’extinction du signal. La part occupée par la rétrodiffusion de volume peut dans certaines conditions, devenir la part prépondérante dans la rétrodiffusion totale. Pour terminer, les résultats de la modélisation de couverts de neige sous QCA/DMRT sont validés à l’aide de données RADARSAT-2 et TerraSAR-X. Les deux modèles présentaient des rétrodiffusions totales semblables qui concordaient bien avec les données RADARSAT-2 et TerraSAR-X. Pour RADARSAT-2, le RMSE du modèle QCA/DMRT est de 2,52 dB en HH et 2,92 dB en VV et pour Rayleigh il est de 2,64 dB en HH et 3,01 dB en VV. Pour ce qui est de TerraSAR-X, le RMSE du modèle QCA/DMRT allait de 1,88 dB en HH à 2,32 dB en VV et de 2,20 dB en HH à 2,71 dB en VV pour Rayleigh. Les valeurs de rétrodiffusion totales des deux modèles sont assez similaires. Par contre, les principales différences entre les deux modèles sont bien évidentes dans la répartition des différentes contributions de cette rétrodiffusion totale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les services rendus par la nature sont ébranlés par les activités économiques humaines, ce qui invite l’économie à changer de paradigme. L’économie circulaire dont découle la symbiose industrielle, comporte des espoirs de transition. Dans le cadre de l’essai, c’est la symbiose qui dévoilera ses propres pistes de mutation, par son modèle d’affaires. Celui-ci permet de détecter et de créer de la valeur dans les entreprises. Il existe plusieurs angles pour dévoiler le modèle d’affaires, mais c’est la perspective du système d’activité qui est sélectionnée. L’objectif principal de l’essai est d’explorer cette perspective, en l’appliquant sur une symbiose industrielle québécoise, soit celle du Centre local de développement de Brome-Missisquoi. Cette perspective est systémique et s’avère pertinente dans le contexte d’une symbiose. Puisque le modèle d’affaires permet de constater comment s’organise la symbiose pour créer de la valeur, le premier sous objectif est d’analyser celle-ci. En découle une étude comparative soulevant ses facteurs de succès et d’entrave. Les expériences de symbioses sont multiples et différenciées, mais certaines constantes peuvent être dégagées. Puisque son développement prend du temps, la mobilisation des acteurs comporte des défis. L’analyse de la rentabilité de la symbiose et de sa gouvernance peut outiller les intervenants pour faciliter son déploiement. Les retombées de la symbiose industrielle de Brome-Missisquoi sont positives. Afin de maintenir l’intérêt des participants et d’impulser la symbiose vers la pérennité, des recommandations sont formulées. Il est recommandé d’augmenter la diversité de ses parties prenantes de la symbiose, encadré par une réflexion stratégique co construite. La résilience de la symbiose en sera renforcie. Il importe de revenir sur la vision des membres et de développer leur compréhension du concept. Enfin, il est recommandé d’améliorer l’ancrage de la symbiose sur son territoire, en se greffant aux organisations déjà existantes, mais actuellement absentes du membariat. Des témoignages soulèvent des changements de pratiques notables chez certaines parties prenantes, ce qui semble indiquer que les symbioses industrielles favorisent le changement de paradigme.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire a pour objet de décrire l’opération de la grâce dans la pensée de Jankélévitch. Pour y parvenir, notre exposé prendra la forme d’un itinéraire éthique. Nous montrerons d’abord que l’homme peut vouloir de deux manières différentes. Il peut se préférer lui-même, se placer comme finalité de son action ou bien, à l’inverse, choisir l’autre comme point focal. Cette deuxième option ne va pas de soi et nécessite un effort de liberté. Dans un deuxième temps, nous expliquerons que ces deux manières de vouloir impliquent la conscience. Se préférer module la conscience tout comme préférer son prochain. Or, la conscience est animée d’une dynamique propre. L’éthique devra chercher à allier la manière de vouloir à celle-ci. Un bon vouloir en phase avec l’évolution de la conscience mène à l’innocence, le stade ultime de la conscience, aussi appelée l’état de grâce. Cet état de grâce est un point culminant, difficile à atteindre et qui commande un important effort de liberté. Il rend possible l’opération de la grâce, objet de notre troisième chapitre. L’opération de la grâce est un moment de conversion qui place l’homme au-dessus de sa nature biologique et le fait coïncider avec un mouvement métempirique. Lorsque cela se produit, l’agent touche au sommet de la vie morale jankélévitchienne, il devient créateur de valeur, générateur de la morale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif de cet essai est d’analyser l’applicabilité de différentes mesures réglementaires pour favoriser les changements de comportements citoyens en gestion des matières résiduelles, plus particulièrement afin de réduire l’élimination de ces matières. La prise de conscience de plus en plus généralisée à l’égard des enjeux environnementaux ne se reflète en effet pas toujours dans les comportements et actions citoyennes au quotidien et nombreux sont les facteurs qui freinent l’action environnementale. Cette situation se répercute également dans la manière dont les ménages, dans leur vie quotidienne, gèrent leurs matières résiduelles. La gestion de ces matières, dont une partie est destinée à l’élimination, soulève différents enjeux environnementaux, sociaux et économiques. Par ailleurs, parmi ce flot de matières, une quantité importante possède le potentiel d’être mise en valeur, ce qui est possible si ceux qui en ont la responsabilité à un moment ou à un autre, dont les citoyens, posent les bons gestes. Les pouvoirs publics provinciaux et municipaux peuvent utiliser trois principales approches afin de favoriser les bons comportements à cet égard. L’une d’entre elles consiste en l’utilisation de mesures législatives et réglementaires. Ces mesures, étudiées pour différents cas nord-américains, sont applicables en tenant compte des compétences provinciales et municipales. Couplées avec l’approche volontaire ou avec des instruments économiques, elles favorisent la performance des états, provinces ou municipalités qui les ont implantées sur leur territoire. Elles peuvent aussi appuyer sur certains leviers à l’action citoyenne, mais les comportements humains étant extrêmement complexes, ces mesures ne peuvent assurer, à elles seules, un changement rapide et durable des comportements. Les différentes approches, utilisées de façon complémentaire, sont plus à même d’entrainer ce changement. Pour assurer une participation maximale à la gestion des matières résiduelles, faciliter, encourager les bons comportements et favoriser l’engagement est essentiel. La réglementation à elle seule contribue peu à ces facteurs. Néanmoins, si elle s’accompagne d’un message fort, elle contribue à créer un sentiment de devoir partagé avec ses semblables et le sentiment d’une réelle adhésion et volonté politique. Pour une efficacité optimale des mesures en place, c’est l’ensemble des acteurs et générateurs de matières résiduelles qui doivent prendre leur rôle au sérieux, et non uniquement le citoyen. La mise en place de mesures favorisant des changements en amont de la problématique est aussi essentielle, bien que cet aspect ne soit pas élaboré en profondeur considérant les limites de cet essai.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Chaque année, des adolescents québécois sont soumis à des sanctions judiciaires en raison de leurs actes de délinquance (Association des centres jeunesse du Québec, 2015). Plusieurs recherches récentes indiquent que ces jeunes sont plus à risque de répondre aux critères diagnostiques d’au moins un trouble mental que les adolescents de la population générale (Fazel, Doll, & Langstrom, 2008; Vermeiren, 2003). Les jeunes contrevenants sont également plus nombreux à présenter des symptômes et des troubles intériorisés (Abram et al., 2014; Skowyra & Cocozza, 2007; Teplin et al., 2006), soit des comportements anxieux, dépressifs, de retrait et des plaintes somatiques (Achenbach & McConaughy, 1992). Cette thèse contribue aux connaissances quant aux symptômes et aux troubles intériorisés chez les jeunes contrevenants en traitant de deux sujets peu étudiés : les problèmes intériorisés des jeunes contrevenants associés aux gangs de rue et l’identification de ces problèmes par les intervenants travaillant auprès d’eux. Le premier article composant la thèse présente une étude descriptive où le nombre de symptômes et de troubles intériorisés a été comparé entre des jeunes contrevenants révélant être ou avoir été associés aux gangs de rue (n = 62) et des jeunes contrevenants n’ayant pas révélé une telle association (n = 41). Les symptômes et les troubles intériorisés ont été mesurés à l’aide d’un questionnaire et d’une entrevue diagnostique semi-structurée. Les résultats indiquent que les jeunes associés aux gangs présentent davantage de symptômes de dépression-anxiété et sont plus nombreux à répondre aux critères diagnostiques d’au moins un trouble anxieux que ceux qui n’y sont pas associés. De plus, près de la moitié des participants, associés ou non aux gangs de rue, répondent aux critères diagnostiques d’au moins un trouble intériorisé. Cette forte prévalence de troubles intériorisés soulève l’importance que ceux-ci soient dépistés par les intervenants travaillant auprès des jeunes contrevenants. En effet, considérant que les troubles mentaux non traités entrainent de la souffrance, nuisent au fonctionnement et sont liés à des taux de tentatives de suicide, d’arrestations et de récidive plus élevés (Abram et al., 2014; Cottle, Lee, & Heilbrun, 2001; Hoeve, McReynolds, & Wasserman, 2013; Schonfeld et al., 1997), leur identification s’avère primordiale afin qu’ils puissent bénéficier des services dont ils auraient besoin. Le deuxième article de cette thèse est une étude exploratoire où sont recensés les symptômes et les troubles intériorisés mentionnés par les intervenants au rapport prédécisionnel (RPD) de 22 participants. La concordance entre ces symptômes et troubles intériorisés et ceux autorapportés par les jeunes contrevenants par un questionnaire et une entrevue semi-structurée est ensuite évaluée. Plusieurs symptômes et troubles intériorisés seraient « sous-identifiés » dans le RPD des jeunes contrevenants en comparaison de ce qui est révélé par les participants. Les résultats de ces deux études laissent croire qu’il serait pertinent d’offrir de la formation aux intervenants quant aux symptômes et aux troubles intériorisés chez les adolescents, d’implanter une procédure de dépistage systématique des troubles mentaux, et d’inclure les symptômes et les troubles intériorisés dans les programmes de prévention et de traitement offerts aux jeunes contrevenants.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé : En raison de sa grande étendue, le Nord canadien présente plusieurs défis logistiques pour une exploitation rentable de ses ressources minérales. La TéléCartographie Prédictive (TCP) vise à faciliter la localisation de gisements en produisant des cartes du potentiel géologique. Des données altimétriques sont nécessaires pour générer ces cartes. Or, celles actuellement disponibles au nord du 60e parallèle ne sont pas optimales principalement parce qu’elles sont dérivés de courbes à équidistance variable et avec une valeur au mètre. Parallèlement, il est essentiel de connaître l'exactitude verticale des données altimétriques pour être en mesure de les utiliser adéquatement, en considérant les contraintes liées à son exactitude. Le projet présenté vise à aborder ces deux problématiques afin d'améliorer la qualité des données altimétriques et contribuer à raffiner la cartographie prédictive réalisée par TCP dans le Nord canadien, pour une zone d’étude située au Territoire du Nord-Ouest. Le premier objectif était de produire des points de contrôles permettant une évaluation précise de l'exactitude verticale des données altimétriques. Le second objectif était de produire un modèle altimétrique amélioré pour la zone d'étude. Le mémoire présente d'abord une méthode de filtrage pour des données Global Land and Surface Altimetry Data (GLA14) de la mission ICESat (Ice, Cloud and land Elevation SATellite). Le filtrage est basé sur l'application d'une série d'indicateurs calculés à partir d’informations disponibles dans les données GLA14 et des conditions du terrain. Ces indicateurs permettent d'éliminer les points d'élévation potentiellement contaminés. Les points sont donc filtrés en fonction de la qualité de l’attitude calculée, de la saturation du signal, du bruit d'équipement, des conditions atmosphériques, de la pente et du nombre d'échos. Ensuite, le document décrit une méthode de production de Modèles Numériques de Surfaces (MNS) améliorés, par stéréoradargrammétrie (SRG) avec Radarsat-2 (RS-2). La première partie de la méthodologie adoptée consiste à faire la stéréorestitution des MNS à partir de paires d'images RS-2, sans point de contrôle. L'exactitude des MNS préliminaires ainsi produits est calculée à partir des points de contrôles issus du filtrage des données GLA14 et analysée en fonction des combinaisons d’angles d'incidences utilisées pour la stéréorestitution. Ensuite, des sélections de MNS préliminaires sont assemblées afin de produire 5 MNS couvrant chacun la zone d'étude en totalité. Ces MNS sont analysés afin d'identifier la sélection optimale pour la zone d'intérêt. Les indicateurs sélectionnés pour la méthode de filtrage ont pu être validés comme performant et complémentaires, à l’exception de l’indicateur basé sur le ratio signal/bruit puisqu’il était redondant avec l’indicateur basé sur le gain. Autrement, chaque indicateur a permis de filtrer des points de manière exclusive. La méthode de filtrage a permis de réduire de 19% l'erreur quadratique moyenne sur l'élévation, lorsque que comparée aux Données d'Élévation Numérique du Canada (DNEC). Malgré un taux de rejet de 69% suite au filtrage, la densité initiale des données GLA14 a permis de conserver une distribution spatiale homogène. À partir des 136 MNS préliminaires analysés, aucune combinaison d’angles d’incidences des images RS-2 acquises n’a pu être identifiée comme étant idéale pour la SRG, en raison de la grande variabilité des exactitudes verticales. Par contre, l'analyse a indiqué que les images devraient idéalement être acquises à des températures en dessous de 0°C, pour minimiser les disparités radiométriques entre les scènes. Les résultats ont aussi confirmé que la pente est le principal facteur d’influence sur l’exactitude de MNS produits par SRG. La meilleure exactitude verticale, soit 4 m, a été atteinte par l’assemblage de configurations de même direction de visées. Par contre, les configurations de visées opposées, en plus de produire une exactitude du même ordre (5 m), ont permis de réduire le nombre d’images utilisées de 30%, par rapport au nombre d'images acquises initialement. Par conséquent, l'utilisation d'images de visées opposées pourrait permettre d’augmenter l’efficacité de réalisation de projets de SRG en diminuant la période d’acquisition. Les données altimétriques produites pourraient à leur tour contribuer à améliorer les résultats de la TCP, et augmenter la performance de l’industrie minière canadienne et finalement, améliorer la qualité de vie des citoyens du Nord du Canada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract: Highway bridges have great values in a country because in case of any natural disaster they may serve as lines to save people’s lives. Being vulnerable under significant seismic loads, different methods can be considered to design resistant highway bridges and rehabilitate the existing ones. In this study, base isolation has been considered as one efficient method in this regards which in some cases reduces significantly the seismic load effects on the structure. By reducing the ductility demand on the structure without a notable increase of strength, the structure is designed to remain elastic under seismic loads. The problem associated with the isolated bridges, especially with elastomeric bearings, can be their excessive displacements under service and seismic loads. This can defy the purpose of using elastomeric bearings for small to medium span typical bridges where expansion joints and clearances may result in significant increase of initial and maintenance cost. Thus, supplementing the structure with dampers with some stiffness can serve as a solution which in turn, however, may increase the structure base shear. The main objective of this thesis is to provide a simplified method for the evaluation of optimal parameters for dampers in isolated bridges. Firstly, performing a parametric study, some directions are given for the use of simple isolation devices such as elastomeric bearings to rehabilitate existing bridges with high importance. Parameters like geometry of the bridge, code provisions and the type of soil on which the structure is constructed have been introduced to a typical two span bridge. It is concluded that the stiffness of the substructure, soil type and special provisions in the code can determine the employment of base isolation for retrofitting of bridges. Secondly, based on the elastic response coefficient of isolated bridges, a simplified design method of dampers for seismically isolated regular highway bridges has been presented in this study. By setting objectives for reduction of displacement and base shear variation, the required stiffness and damping of a hysteretic damper can be determined. By modelling a typical two span bridge, numerical analyses have followed to verify the effectiveness of the method. The method has been used to identify equivalent linear parameters and subsequently, nonlinear parameters of hysteretic damper for various designated scenarios of displacement and base shear requirements. Comparison of the results of the nonlinear numerical model without damper and with damper has shown that the method is sufficiently accurate. Finally, an innovative and simple hysteretic steel damper was designed. Five specimens were fabricated from two steel grades and were tested accompanying a real scale elastomeric isolator in the structural laboratory of the Université de Sherbrooke. The test procedure was to characterize the specimens by cyclic displacement controlled tests and subsequently to test them by real-time dynamic substructuring (RTDS) method. The test results were then used to establish a numerical model of the system which went through nonlinear time history analyses under several earthquakes. The outcome of the experimental and numerical showed an acceptable conformity with the simplified method.